Refine
Year of publication
- 2008 (110) (remove)
Document Type
- Doctoral Thesis (63)
- Report (22)
- Periodical Part (10)
- Preprint (8)
- Working Paper (3)
- Study Thesis (2)
- Book (1)
- Master's Thesis (1)
Has Fulltext
- yes (110)
Keywords
- Streptococcus pneumoniae (4)
- Cluster (3)
- Clusterion (3)
- Eisen (3)
- Finite-Elemente-Methode (3)
- Gasphase (3)
- Massenspektrometrie (3)
- Materialermüdung (3)
- Visualisierung (3)
- Adipinsäure (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (28)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Fraunhofer (ITWM) (16)
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Informatik (9)
- Kaiserslautern - Fachbereich Sozialwissenschaften (8)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich Physik (1)
This thesis is devoted to deal with the stochastic optimization problems in various situations with the aid of the Martingale method. Chapter 2 discusses the Martingale method and its applications to the basic optimization problems, which are well addressed in the literature (for example, [15], [23] and [24]). In Chapter 3, we study the problem of maximizing expected utility of real terminal wealth in the presence of an index bond. Chapter 4, which is a modification of the original research paper joint with Korn and Ewald [39], investigates an optimization problem faced by a DC pension fund manager under inflationary risk. Although the problem is addressed in the context of a pension fund, it presents a way of how to deal with the optimization problem, in the case there is a (positive) endowment. In Chapter 5, we turn to a situation where the additional income, other than the income from returns on investment, is gained by supplying labor. Chapter 6 concerns a situation where the market considered is incomplete. A trick of completing an incomplete market is presented there. The general theory which supports the discussion followed is summarized in the first chapter.
Diese Arbeit befasste sich mit der Analyse genetischer Veränderungen in der Familie P006 von Piperacillin-resistenten Mutanten von S. pneumoniae R6. Jede der fünf Mutanten P106 bis P506 dieser Familie wurde aus dem jeweiligen Parentalstamm auf ansteigender Konzentration des lytischen ß-Lactams Piperacillin isoliert und zeichnete sich durch eine jeweils höhere minimale Hemmkonzentration (MHK) für Piperacillin aus (Laible et al., 1987). In Mutante P106 konnte mit CpoA bereits eine Resistenzdeterminante für Piperacillin identifiziert werden, welche nicht zu den klassischen Targets der ß-Lactamantibiotika, den Penicillin-Bindeproteinen (Pbp), zählt (Grebe et al., 1997). Die Mutanten P206 und P306 zeigten aufgrund von Mutationen in Pbp2b und Pbp2x eine höhere Resistenz gegen Piperacillin (Hakenbeck et al., 1994; Grebe & Hakenbeck, 1996). In dieser Arbeit standen die Identifizierung und Charakterisierung der bisher unbekannten Resistenzdeterminante für Piperacillin in Mutante P406 und die Charakterisierung der bisher nur unzulänglich untersuchten Nicht-Pbp-Resistenzdeterminante CpoA in Mutante P106 im Mittelpunkt der Analysen. Im Fall der bereits identifizierten Resistenzdeterminante in Mutante P106 handelt es sich um das für eine Glykosyltransferase kodierende Gen cpoA. Die Herstellung einer cpoA-Deletionsmutante, sowie deren Charakterisierung, sollten zur Aufklärung des zugrundeliegenden Resistenzmechanismus in P106 und der Funktion von CpoA beitragen. Durch die Herstellung der cpoA-Deletionsmutante und die Bestimmung der MHK für Piperacillin konnte gezeigt werden, daß ein Ausfall der durch CpoA katalysierten Reaktion einen Anstieg der MHK für Piperacillin in S. pneumoniae R6 bewirkt. Die eingehende phänotypische Charakterisierung zeigte, daß die cpoA-Deletionsmutante zudem eine reduzierte genetische Kompetenz, eine reduzierte Säuretoleranz, einen höheren Bedarf an zweiwertigen Mg-Ionen, eine längere Generationszeit und eine verlangsamte Autolyse im Vergleich zu S. pneumoniae R6 besitzt. Diese Beobachtungen, sowie die Ergebnisse einer Microarray-basierten, globalen Transkriptomanalyse lassen es unter Berücksichtigung der biochemischen Charakterisierung von CpoA (Edman et al., 2003) als wahrscheinlich erscheinen, daß CpoA an der Synthese von α-Galactosyl-Glucosyl-Diacylglycerin, einem der Hauptglycolipide der Cytoplasmamembran von S. pneumoniae beteiligt ist. Die Deletion von cpoA könnte demzufolge auch einen Effekt auf die Menge der Lipoteichonsäuren in der Zellwand von S. pneumoniae besitzen, da der Precursor von α-Galactosyl-Glucosyl-Diacylglycerin, das α-Monoglucosyl-Diacylglycerin vermutlich den Lipidanker der Lipoteichonsäuren darstellt. Basierend auf dieser Annahme konnte ein Modell zur Funktion von CpoA erstellt werden, welches eine Erklärung des Resistenzmechanismus für Piperacillin in Mutante P106, bzw. in der cpoA-Deletionsmutante ermöglichen würde. In Mutante P406 konnten weitere Veränderungen der Pbps bereits ausgeschlossen werden (Hakenbeck et al., 1994; Grebe & Hakenbeck, 1996). Durch eine Microarray-basierte, globale Transkriptomanalyse aller fünf Mutanten der Familie P006 konnten Gene identifiziert werden, deren Transkripte im Vergleich zu S. pneumoniae R6 nur in P406 signifikant veränderte Mengen aufwiesen: Unter diesen Genen befanden sich sechs Gene, welche aufgrund ihrer geclusterten Anordnung im Genom von S. pneumoniae als putative funktionelle Einheit (TCS11-Cluster) angesehen wurden. Diese Gene zeigten eine bis zu 22-fach erhöhte Transkriptmenge in Mutante P406. Zudem konnten nur in Mutante P406 von Genen des an der Teichonsäurebiosynthese beteiligten lic1-Operons eine bis zu 7,9-fach höhere Transkriptmenge beobachtet werden. Keines der Genprodukte des TCS11-Clusters wurde bisher charakterisiert. Aufgrund von Blast- und Domänen-Analysen konnten den Genprodukten putative Funktionen zugeschrieben werden. Die Gene smp11A und smp11B kodieren für zwei putative Membranproteine von 63 und 64 Aminosäuren. Die Gene nbp11 und msp11 kodieren für die ATPase- und die Permease-Komponente eines putativen ABC-Transporters. kin11 und reg11 kodieren für die Histidin-Kinase und den Response-Regulator des bisher uncharakterisierten Zweikomponentensystems 11 (TCS11) in S. pneumoniae. Die Gene sind in der Reihenfolge smp11A, smp11B, nbp11, msp11, kin11 und reg11 auf dem Minus-Strang im Genom von S. pneumoniae lokalisiert. Die Deletion der Gene kin11 und reg11 des TCS11 in P406 führte zum Abfall der MHK für Piperacillin auf die MHK des Parentalstamms P306. Somit konnte die Beteiligung des TCS11 in S. pneumoniae an einem unbekannten Resistenzmechanismus gegen Piperacillin nachgewiesen werden. Die Deletion von nbp11 in P406 führte ebenfalls zum Abfall der MHK für Piperacillin, womit einerseits auch für Nbp11 eine Beteiligung an dem unbekannten Resistenzmechanismus gegen Piperacillin gezeigt werden konnte und andererseits eine transkriptionelle Regulation der Gene smp11A, smp11B, nbp11 und msp11 durch das TCS11 vermutet werden konnte. Durch eine konstitutive, gemeinsame Überexpression der Gene smp11A, smp11B, nbp11 und msp11 in S. pneumoniae R6 wurde gezeigt, daß die Überexpression dieser Gene hinreichend für eine Erhöhung der Resistenz gegen Piperacillin ist. Durch 5´-RACE-Analysen konnten die beiden Transkriptionsstartpunkte P11.1 und P11.2 im Bereich des TCS11-Clusters kartiert werden. P11.1 befindet sich 20bp upstream von smp11A und P11.2 befindet sich 441bp upstream von kin11 innerhalb von msp11. Eine Northern-Analyse und die Durchführung von PCR auf cDNA zeigte, daß die Gene des TCS11-Clusters in zwei überlappenden Transkriptionseinheiten transkribiert werden. Die Gene kin11 und reg11 sind zusammen mit einer downstream von reg11 liegenden Kopie des repetetiven Elements rupA im 11-2-Operon organisiert und werden ausgehend von Promotor P11.2 inklusive des ungewöhnlich langen Leaders von 441bp transkribiert. smp11A, smp11B, nbp11 und msp11 sind im 11-1-Operon organisiert und werden ausgehend von Promotor P11.1 transkribiert. Die Zugehörigkeit von kin11 und reg11 zum 11-1-Operon konnte hingegegen bei den verwendeten Wachstumsbedingungen nicht gezeigt werden. Es konnte bereits gezeigt werden, daß phosphoryliertes Reg11 (Reg11-P) an die Promotor-Region von P11.1 bindet (Marciszewski, Diplomarbeit 2007). Die Bestimmung der Aktivität von P11.1 in S. pneumoniae R6, sowie in kin11-, reg11- und kin11reg11-Deletionsmutanten zeigte, daß P11.1 einer direkten, positiven Regulation durch das TCS11 unterliegt. Durch Sequenzvergleiche der Promotor-Region von P11.1 mit den DNA-Regionen putativer Promotoren von zum TCS11-Cluster ähnlich organisierten Clustern homologer Proteine in Genomen anderer Gram-positiver Bakterien konnten drei hoch konservierte Sequenzabschnitte identifiziert werden, von welchen gezeigt werden konnte, daß sie für die Bindung von Reg11-P in S. pneumoniae essentiell sind. Vermutlich stellt die Konsensus-Sequenz ATGACA(2)TGTCAT(8-9)GTGACA die DNA-Bindestelle von Reg11-P dar. Es konnten keine weiteren, zu 100 % konservierten Sequenzen dieser Art im Genom von S. pneumoniae gefunden werden. In EMSA-Assays mit weniger konservierten Sequenzen dieser Art konnte keine Bindung von Reg11-P beobachtet werden. Somit handelt es sich bei der Bindestelle an P11.1 vermutlich um die einzige Bindestelle von Reg11-P im Genom von S. pneumoniae. Von P11.2 konnte durch die Bestimmung der Promotor-Aktivität in Deletionsmutanten einzelner Gene des TCS11-Clusters gezeigt werden, daß auch dieser Promotor einer Regulation unterliegt, welche jedoch nicht durch die Bindung von Reg11-P, oder von unphosphoryliertem Reg11 vermittelt wird. Die Aktivität von P11.2 ist hierbei jedoch einerseits Abhängig von der Anwesenheit von Kin11 und andererseits entweder von der Funktion der Membranproteine Smp11A und Smp11B, oder von der durch Nbp11/Msp11 transportierten unbekannten Substanz. Die Bestimmung der Promotor-Aktivität von P11.2 in Deletionsmutanten einzelner Gene des TCS11-Clusters und die unterschiedlichen phänotypischen Effekte einer kin11-, reg11- und einer kin11reg11-Deletionsmutante zeigten, daß unphosphoryliertes Reg11 ebenfalls in der Lage sein muß, die Transkription von noch unbekannten Zielgenen durch Bindung an eine weitere, unbekannte DNA-Bindestelle zu regulieren. Sowohl durch die Deletion eines Großteils des 441nt langen Leaders des Transkripts des 11-2-Operons, als auch durch die Deletion zweier verschiedener Abschnitte des 3´-untranslatierten Bereichs dieses Transkripts konnte gezeigt werden, daß der 5´- und der 3´-untranslatierte Bereich an noch unbekannten regulatorischen Mechanismen beteiligt sind. Die Deletion einzelner Gene des TCS11-Clusters, sowie die gemeinsame Überexpression von Smp11A, Smp11B, Nbp11 und Msp11 bewirkten die gleichen phänotypischen Effekte wie die charakterisierte cpoA-Deletionsmutante. So konnte in Wachstumsexperimenten der gleiche Einfluß auf die Generationszeit, die maximale Zelldichte und die Autolyse, wie in der cpoA-Deletionsmutante, gezeigt werden. Die Microarray-basierte Transkriptomanalyse zweier Deletionsmutanten von Genen des TCS11-Clusters zeigte zudem, daß sich infolge dieser Deletionen größtenteils die Transkriptmengen solcher Gene ändern, welche auch auf eine Deletion von cpoA reagieren. Hierzu zählen neben zahlreichen Genen für Proteine unbekannter Funktion die Gene des Kompetenzregulons, des blp-Clusters, sowie des Cholinbindeproteins PcpA und der Subtilisin-artigen Proteinase PrtA. Die in Mutante P406 beobachteten höheren Transkriptmengen von an der Teichonsäurebiosynthese beteiligten Genen des lic1-Operons konnten durch die Deletion von kin11reg11 revidiert werden. Die konstitutive gemeinsame Überexpression von Smp11A, Smp11B, Nbp11 und Msp11, sowie die Bestimmung der Aktivität des Promotors P1spr1149 des lic1-Operons zeigte, daß die Transkription der Gene des lic1-Operons indirekt von der Menge an Smp11A, Smp11B, Nbp11 und Msp11 abhängt. Diese Ergebnisse führten zu der Hypothese, daß das TCS11-Cluster und die Glykosyltransferase CpoA an den gleichen, oder zumindest an sich beeinflussenden, Membran-assoziierten Vorgängen beteiligt sind. Folglich konnte durch die molekulargenetische Charakterisierung des in ähnlicher genetischer Organisation in Gram-positiven Bakterien weit verbreiteten TCS11-Clusters erstmals ein Hinweis auf die putative physiologische Funktion des TCS11-Clusters in S. pneumoniae erhalten werden.
Dissertation beschäftigt sich mit der Herstellung und Charakterisierung von hetero-substituierten Diazapyridinophanliganden und deren Koordinationschemie. Liganden Im Rahmen dieser Arbeit ist es gelungen, eine Reihe von nicht trivialen Schlüsselverbindungen, in angemessener Ausbeute und Reinheit, für die Variation unterschiedlicher Aminsubstituenten am Diazapyridinophangrundkörper zu gewinnen. Als Ausgangsverbindungen für Zyklisierungsreaktionen dienten Alkyl-bis-(6-chlormethyl-2-pyridyl-methyl)amine BCA 12 und BCAd 37. Diese drei hieraus hergestellten hetero-substituierten Liganden (L-N4AdtBu 17, L-N4tBuTos 18 und L-N4tBuBz 16) dienten als Ausgangsstoffe für die saure Abspaltung der tert-Butylgruppe. So konnten L-N4AdH 41, L-N4BzH 42, L-N4HTos 19 isoliert werden. L-N4HMe 21,. Diese Substanzen ermöglichen weitere Derivatisierungsreaktionen, wie die Einführung von Alkyl- oder Arylgruppen, wie auch die Einführung weiterer funktioneller Gruppen. Hierbei konnten ein Vertreter mit sterisch anspruchsvollem Substituenten am Aminstickstoffatom (L-N4AdH 41) und einer mit wenig sterisch anspruchsvollen Methylgruppen am Aminstickstoffatom (L-N4HMe 21) hergestellt werden.Durch die Einführung eines Phenolarmes durch eine variierte Leuckart-Wallach-Reaktion können potentiell fünfzähnige Liganden synthetisiert werden. Als erster Vertreter für diese Schlüsselverbindungsgruppe (Abbildung 108) ist der Ligand H-L-N4(ttBzO)Me 45 zu sehen. Für die generelle Herstellung von arylsubstituierten Diazapyridinophanliganden nimmt der Ligand L-N4(PhNO2)2 48 eine Schlüsselposition ein, da sich aus ihm weitere arylsubstituierte Derivate hergestellt lassen. Die Makrozyklen wurden im Rahmen dieser Promotionsarbeit mit Massenspektrometrie, Kernresonanzspektroskopie und Infrarotspektroskopie charakterisiert. Des Weiteren konnten die Festkörperstrukturen der Liganden L-N4tBuTos 18, L-N4HTos 19, L-N4AdtBu 17, L-N4AdH 57 und L-N4AdMe 58 mit Hilfe der Röntgenstrukturanalyse bestimmt werden. Ein neuer Vertreter von Diazapyridinophanmolekülen konnte mit dem Liganden L-N4(PhNO2)2 52 realisiert werden. Die Synthese von arylsubstituierten Diazapyridinophan-Liganden verläuft zwar bislang mit geringen Ausbeuten, aber erlaubt einen Zugang zu weiteren arylsubstituierten Diazapyridinophanliganden (Abbildung 115). 4.1.2 Komplexe Mit den hetero-substituierten Liganden wurden Nickel-Komplexe hergestellt, um den strukturellen und elektronischen Einfluss der Substituenten auf die Komplexe zu untersuchen. Aus Reaktionen der entsprechenden Liganden mit Nickelchloridhexahydrat in Ethanol oder Methanol konnten folgende Komplexe synthetisiert werden: [Ni(L-N4BzH)Cl2] 59 (70 % Ausbeute), [Ni(L-N4AdtBu)Cl2] 55 (29 % Ausbeute), [Ni(L-N4AdH)Cl2] 57 (30 % Ausbeute), [Ni(L-N4HMe)Cl2] 54 (65 % Ausbeute). [Ni(L-N4BztBu)Cl2] 56 konnte nur in so geringer Ausbeute hergestellt werden, so dass lediglich eine Röntgenstruktur und ein Infrarotspektrum angefertigt werden konnten. Mit Hilfe von [NiBr2(PPh3)2] 52 und L-N4AdtBu 17 in Ethanol konnte [Ni(L-N4AdtBu)Br2] 60 (17 % Ausbeute) synthetisiert werden. In den Infrarotspektren lagen auch bei diesen Komplexen die charakteristischen Schwingungsbanden des Makrozyklengerüstes vor. Bei allen Komplexen dieses Ligandtyps ist der Ligand vierfach an das Nickel(II)-Ion gebunden und die Halogenidliganden sind cis-ständig angeordnet. Die Liganden koordinieren so, dass die Aminsubstituenten zu den Halogenidliganden maximalen Abstand einnehmen. Die Phenylgruppe der Benzyleinheit wird in den Komplexen [Ni(L-N4tBuBz)Cl2] • CHCl3 56 und [Ni(L-N4BzH)Cl2] 59 zur Minimierung der sterischen Hinderung von den Chloridliganden weg abgewinkelt. Aus dem gleichen Grund orientieren sich die 1-Adamantyl- beziehungsweise tert-Butylgruppen so, dass ein Methylen- bzw. Methylkohlenstoffatom oberhalb der Winkelhalbierenden des Cl-Ni-Cl-Bindungswinkels zum Liegen kommt. Bindungslängen sind den Komplexen der homo-substituierten Liganden sehr ähnlich. Die Bindungen zwischen den sekundären Aminstickstoffatomen und dem Nickel-Ion sind kürzer als die Bindungen zwischen den alkylsubstituierten Aminstickstoffatomen und dem Nickel-Ion. Die Abstände vom Nickel-Ion zu den Amin-Stickstoffatomen mit jeweilig gleichem Substituent sind in den unterschiedlichen Nickel-Komplexen der hetero-substituierten Diazapyridinophanliganden sehr ähnlich. Eine zunehmende Größe der Substituenten an den Aminstickstoffatomen bewirkt eine Zunahme der Ni-NAmin-Bindung und eine Verkleinerung des NAmin-Ni-NAmin-Bindungswinkels und des Cl-Ni-Cl- Bindungswinkels. In folgender Abbildung werden die Ergebnisse der Strukturaufklärung aufgezeigt.
The present thesis is concerned with the simulation of the loading behaviour of both hybrid lightweight structures and piezoelectric mesostructures, with a special focus on solid interfaces on the meso scale. Furthermore, an analytical review on bifurcation modes of continuum-interface problems is included. The inelastic interface behaviour is characterised by elastoplastic, viscous, damaging and fatigue-motivated models. For related numerical computations, the Finite Element Method is applied. In this context, so-called interface elements play an important role. The simulation results are reflected by numerous examples which are partially correlated to experimental data.
The high demanded data throughput of data communication between units in the system can be covered by short-haul optical communication and high speed serial data communication. In these data communication schemes, the receiver has to extract the corresponding clock from serial data stream by a clock and data recovery circuit (CDR). Data transceiver nodes have their own local reference clocks for their data transmission and data processing units. The reference clocks are normally slightly different even if they are specified to have the same frequency. Therefore, the data communication transceivers always work in a plesiochronous condition, an operation with slightly different reference frequencies. The difference of the data rates is covered by an elastic buffer. In a data readout system in the experiment in particle physics, such as a particle detector, the data of analog-to-digital converters (ADCs) in all detector nodes are transmitted over the networks. The plesiochronous condition in these networks are non-preferable because it causes the difficulty in the time stamping, which is used to indicate the relative time between events. The separated clock distribution network is normally required to overcome this problem. If the existing data communication networks can support the clock distribution function, the system complexity can be largely reduced. The CDRs on all detector nodes have to operate without a local reference clock and provide the recovered clocks, which have sufficiently good quality, for using as the reference timing for their local data processing units. In this thesis, a low jitter clock and data recovery circuit for large synchronous networks is presented. It possesses a 2-loop topology. They are clock and data recovery loop and clock jitter filter loop. In CDR loop, the CDR with rotational frequency detector is applied to increase its frequency capture range, therefore the operation without local reference clock is possible. Its loop bandwidth can be freely adjusted to meet the specified jitter tolerance. The 1/4-rate time-interleaving architecture is used to reduce the operation frequency and optimize the power consumption. The clock-jitter-filter loop is applied to improve the jitter of the recovered clock. It uses a low jitter LC voltage controlled oscillator (VCO). The loop bandwidth of the clock-jitter-filter is minimized to suppress the jitter of the recovered clock. The 1/4-rate CDR with frequency detector and clock-jitter-filter with LC-VCO were implemented in 0.18µm CMOS Technology. Both circuits occupy an area of 1.61mm2 and consume 170mW from 1.8V supply. The CDR can cover data rate from 1 to 2Gb/s. Its loop bandwidth is configurable from 700kHz to 4MHz. Its jitter tolerance can comply to SONET standard. The clock-jitter-filter has the configurable input/output frequencies from 9.191 to 78.125MHz. Its loop bandwidth is adjustable from 100kHz to 3MHz. The high frequency clock is also available for a serial data transmitter. The CDR with clock-jitter-filter can generate clock with jitter of 4.2ps rms from the incoming serial data with inter-symbol-interference jitter of 150ps peak-to-peak.
A Lattice Boltzmann Method for immiscible multiphase flow simulations using the Level Set Method
(2008)
We consider the lattice Boltzmann method for immiscible multiphase flow simulations. Classical lattice Boltzmann methods for this problem, e.g. the colour gradient method or the free energy approach, can only be applied when density and viscosity ratios are small. Moreover, they use additional fields defined on the whole domain to describe the different phases and model phase separation by special interactions at each node. In contrast, our approach simulates the flow using a single field and separates the fluid phases by a free moving interface. The scheme is based on the lattice Boltzmann method and uses the level set method to compute the evolution of the interface. To couple the fluid phases, we develop new boundary conditions which realise the macroscopic jump conditions at the interface and incorporate surface tension in the lattice Boltzmann framework. Various simulations are presented to validate the numerical scheme, e.g. two-phase channel flows, the Young-Laplace law for a bubble and viscous fingering in a Hele-Shaw cell. The results show that the method is feasible over a wide range of density and viscosity differences.
Zur Entwicklung von technischen Benutzungsoberflächen in der Investitionsgüterindustrie ist ein systematischer und durchgängiger Prozess essentiell, der in den einzelnen Prozessphasen besonders eine Nutzerorientierung unterstützt. Dieser Prozess bereitete bisher die Grundlage, um generell nutzerorientierte Benutzungsoberflächen zu entwickeln. Aus diesem Prozess resultiert eine Benutzungsoberfläche, welches spezielle Aufgaben unterschiedlicher Nutzer berücksichtigt. Es entsteht eine Benutzungsoberfläche für viele Nutzer. Die Unterschiedlichkeit der Nutzer findet keine explizite Umsetzung durch persönliche Präferenzen. Durch die steigende Informationsflut werden Nutzer aber in Zukunft überfordert werden. Daher kann bei Berücksichtigung dieser Präferenzen eine höhere Nutzerorientierung, eine Steigerung der Usability und eine Erhöhung der Bedieneffizienz von Nutzern erzielt werden. Zur Erreichung dieser Ziele ist eine umfassende Darstellung dieser Präferenzen notwendig. Sie unterteilen sich einerseits in Nutzereigenschaften, die zur Charakterisierung der Nutzer und Vereinfachung der nutzerspezifischen Datenerfassung dienen. Andererseits werden Präferenzen bezüglich der Entwicklung technischer Benutzungsoberflächen erhoben, um personalisierte Benutzungsoberflächen zu generieren. Diese allgemeine Darstellung muss in einzelnen Branchen konkretisiert werden. Diese Konkretisierung wird meist durch eine Untermenge der allgemeinen Darstellung umgesetzt. Für die Produktionsumgebung zeigt sich zum einen, dass sehr unterschiedliche Präferenzen hinsichtlich der Gestaltungsmerkmale existieren. Daher bestehen in dieser Branche nur vereinzelt Zusammenhänge zwischen Gestaltungsmerkmalen und weiteren Nutzereigenschaften. Zum anderen korrelieren die strukturellen Nutzerpräferenzen mit vielen verschiedenen Nutzereigenschaften. Auf Basis dieser Personalisierungsmerkmale entstehen Q-Personas nach [Coo99] für die Produktions-umgebung, die in sich homogene, aber untereinander heterogene Personalisierungsmerk-malsausprägungen aufweisen. Nutzer in der Produktionsumgebung können aufgrund der Beschreibungen der Q-Personas diesen zugeordnet werden. Eine Eigenschafts- und Präferenzmatrix dient dabei als Hilfsmittel zum Vergleich der Nutzercharakterisierung mit signifikanten Q-Personamerkmale. Die QPersonabeschreibungen bilden die Grundlage zur Entwicklung personalisierte Systeme. Diese Systeme dienen zum einen der Überprüfung der Auswirkungen der Personalisierung technischer Systeme auf die Benutzung. Zum anderen werden sie zur Überprüfung der Übertragbarkeit der entwickelten Q-Personas auf andere produktionstechnische Systeme als diejenigen, anhand derer die Q-Personas entwickelt wurden, verwendet. Die erste Untersuchung hierzu zeigt die Möglichkeit einer einfachen und schnellen Zuordnung von Nutzern zu Q-Personas. Die Ergebnisse beider Untersuchungen bestätigen deutliche Vorteile von personalisierten Systemen gegenüber neutralen, die hauptsächlich durch die Strukturierung erreicht werden. Diese zeigen sich in einer schnellen Aufgabenbearbeitung, weniger Fehlern, einer gesteigerten Zufriedenheit und einem erhöhten Wohlbefinden von Nutzern im Umgang mit ihrem personalisierten System. Die Gestaltung wirkt sich vergleichsweise gering auf die Bewertung aus. Die zweite Untersuchung berücksichtigt andere Systeminhalte. Dadurch zeigt sich die Übertragbarkeit der Personalisierung, indem eine problemlose Kompatibilität der entwickelten Q-Personas für dieses System möglich ist. Zur systematischen und effizienten Entwicklung von personalisierten technischen Benutzungsoberflächen ist eine Verbindung der Personalisierung mit dem Useware-Entwicklungsprozess unumgänglich. Alle Prozessphasen erfahren unterschiedliche Anpassungen, Erweiterungen und Änderungen. In der Analysephase ist eine Erweiterung des Anforderungskatalogs zur Erfassung der auftretenden Q-Personas notwendig. Die Auswertung in der Analysephase umfasst zusätzlich die Überprüfung, welche Q-Personas sich unter den Nutzern befinden. Als Ergebnis entstehen q-personabasierte Aufgabenmodelle. Die Strukturgestaltungsphase erfordert eine Erweiterung hinsichtlich der Attributierung der strukturierten Handlungen, Tätigkeiten und Operationen. Die generell gewünschte Strukturierungsart wird definiert. Verknüpfungen zwischen den einzelnen Objekten werden anhand der Aufgabenmodelle der Analysephase festgelegt. In der Gestaltungsphase werden aufgrund der in der Analysephase erhobenen Q-Personas unterschiedlich personalisierte Benutzungsoberflächen entwickelt, die die in der Strukturgestaltungs-phase entwickelte Struktur und ihre neue Attributierung umsetzen. Durch diese marginalen Erweiterung und Änderungen am Useware-Entwicklungsprozess entstehen auf effiziente Weise statt einer ursprünglichen nutzerorientierten Benutzungsoberfläche mehrere personalisierte Benutzungsoberflächen.
We present a new efficient and robust algorithm for topology optimization of 3D cast parts. Special constraints are fulfilled to make possible the incorporation of a simulation of the casting process into the optimization: In order to keep track of the exact position of the boundary and to provide a full finite element model of the structure in each iteration, we use a twofold approach for the structural update. A level set function technique for boundary representation is combined with a new tetrahedral mesh generator for geometries specified by implicit boundary descriptions. Boundary conditions are mapped automatically onto the updated mesh. For sensitivity analysis, we employ the concept of the topological gradient. Modification of the level set function is reduced to efficient summation of several level set functions, and the finite element mesh is adapted to the modified structure in each iteration of the optimization process. We show that the resulting meshes are of high quality. A domain decomposition technique is used to keep the computational costs of remeshing low. The capabilities of our algorithm are demonstrated by industrial-scale optimization examples.
In this paper we develop a data-driven mixture of vector autoregressive models with exogenous components. The process is assumed to change regimes according to an underlying Markov process. In contrast to the hidden Markov setup, we allow the transition probabilities of the underlying Markov process to depend on past time series values and exogenous variables. Such processes have potential applications to modeling brain signals. For example, brain activity at time t (measured by electroencephalograms) will can be modeled as a function of both its past values as well as exogenous variables (such as visual or somatosensory stimuli). Furthermore, we establish stationarity, geometric ergodicity and the existence of moments for these processes under suitable conditions on the parameters of the model. Such properties are important for understanding the stability properties of the model as well as deriving the asymptotic behavior of various statistics and model parameter estimators.
In der vorliegenden Arbeit wurden das quasistatische und das Ermüdungsverhalten von wirrfaserverstärktem Thermoplast mit Endlosfasern (D-LFT) und von gewebeverstärktem Thermoplast untersucht. Hierbei wurden ortsaufgelöste Verfahren der Deformationsanalyse, schwerpunktsmäßig die Ortsaufgelöste Hysteresismessung und ergänzend die Thermoelastische Spannungsanalyse, eingesetzt. Zur genauen Erfassung des Zerrüttungsvorgangs war in einer vorangegangenen Arbeit die Messgenauigkeit der Hysteresismessung deutlich verbessert worden, und es konnte auf diese sehr wichtigen Vorleistungen zurückgegriffen werden. Zur Gefügeanalyse wurden Röntgengrobstrukturuntersuchungen, Ultraschall- und REM-Untersuchungen durchgeführt. Bei der Untersuchung der quasistatischen Eigenschaften von D-LFT gibt die ortsaufgelöste Dehnungsanalyse wichtige Hinweise zum Werkstoffverhalten. Das Versagen tritt an der Stelle mit dem geringsten E-Modul auf. Die Festigkeitswerte zeigen relativ starke Streuungen aufgrund der Inhomogenität des Gefüges. Bei lokal-dehnungsorientierter Betrachtung tritt eine wesentlich geringere Streuung der Kennwerte auf. Die Bruchdehnung liegt in Abhängigkeit von Fasergehalt und Entnahmerichtung im Mittel zwischen 2,2 und 2,8 %. Dieser Befund der geringen Streuung der lokalen Bruchdehnung ist trotz der deutlichen Unterschiede der Strukturparameter und unterschiedlichen Fasergehalte bemerkenswert. Dieses interessante Charakteristikum des Werkstoffs macht das robuste Verhalten bei mechanischer Belastung von D-LFT-Bauteilen verständlich. Die starken Schwankungen der Festigkeit wirken sich auch beim Ermüdungsverhalten aus. Nur durch geeignete Voruntersuchungen, die sich auf das dehnungsorientierte Materialverhalten stützten, konnte der Prüfaufwand in einem vertretbaren Rahmen gehalten werden. Die mechanisch-dynamischen Kennwerte zeigen bei Ermüdungsbelastung eine mäßige Dämpfungszunahme und eine geringe Steifigkeitsabnahme, verbunden mit einer starken Kriechneigung. Für die Analyse der beiden letzteren Effekte ist eine dehnungsorientierte Betrachtung hilfreich. Die Steifigkeitsabnahme wird durch die Kenngröße der Ausschlagsdehnung ersetzt und kann dann unmittelbar mit dem Kriechen, das durch die Mitteldehnung beschrieben wird, verglichen werden. Wie beim Zugversuch konnte auch beim Ermüdungsversuch eine dehnungsorientierte Analyse des Ermüdungsvorgangs durchgeführt werden. Diese führt zu einem Totaldehnungswöhlerdiagramm, in dem die Wöhlerlinien für Belastung senkrecht und quer zur Faserorientierung nahezu zusammenfallen. Es kann daher von einem maximalen Totaldehnungskriterium des Versagens ausgegangen werden. Der anisotrope, gewebeverstärkte Thermoplast wird statischen und dynamischen Zug- und Druckbelastungen unterworfen. Ergänzende Gefügeuntersuchungen ergeben leider keinen Zusammenhang zwischen der lokalen Kennwerteigenschaft und dem Gefügezustand, was auf den komplexen Aufbau (Wirrfasermittelschicht, beide Randschichten gewebeverstärkt) zurückzuführen ist. Die Werkstoffcharakterisierung an gewebeverstärktem Thermoplast wird bei zwei Chargen unter Zug-, und Druckschwellbelastung untersucht. Bei quasistatischer und dynamischer Belastung tritt das Versagen zumeist an der Stelle mit der geringsten lokalen Steifigkeit auf. Das mechanische Verhalten wird durch die anisotropen Eigenschaften stark bestimmt. Bei Zugschwellbelastung werden Kriechen und Steifigkeitsabnahme beobachtet, wobei bei senkrechter Belastung das Kriechen relativ stärker und die Steifigkeitsabnahme relativ schwächer ausfällt. Die Dämpfungszunahme bei der Ermüdungsbelastung ist z. T. intensiv. Insbesondere bei Charge 1 wird aufgrund von Haftungsschwächen bzw. Lunkern ein intensiver Dämpfungsanstieg mit der Lastspielzahl beobachtet. Bei Druckschwellbelastung sind Steifigkeitsabnahme und Kriechen geringer. Als Schadensphänomen wird vielfach ein spontanes Abscheren der Probe beobachtet. Ähnlich wie bei D-LFT führt eine totaldehnungsorientierte Betrachtung zu einem vergleichbaren Verlauf der Totaldehnungswöhlerdiagramme bei paralleler und senkrechter Belastung, während die Diagramme bei spannungsorientierter Betrachtung weit auseinander liegen. Das Verhalten von Ausschlags- und Mitteldehnung quantifiziert in Kenngrößen (mit gleichen physikalischen Einheiten) das Ermüdungsgeschehen hinsichtlich Steifigkeitsabnahme und Kriechen. Allerdings zeigt der Verlauf der Kenngrößen über der Lastspielzahl keine systematische Tendenz hinsichtlich des Einflusses der Spannungsamplitude, was auf Werkstoffinhomogenitäten zurückgeführt wird. Zur weiteren Auswertung wird daher eine Relativbetrachtung angestellt und hierfür der Wert von strain max / strain middle ermittelt. Durch diese Kennwertbildung wird die Streuung bezüglich des Spannungseinflusses deutlich reduziert, und es kann ein Tendenzverlauf der Messwerte in Abhängigkeit von der Spannungsamplitude angegeben werden.
In this dissertation we consider mesoscale based models for flow driven fibre orientation dynamics in suspensions. Models for fibre orientation dynamics are derived for two classes of suspensions. For concentrated suspensions of rigid fibres the Folgar-Tucker model is generalized by incorporating the excluded volume effect. For dilute semi-flexible fibre suspensions a novel moments based description of fibre orientation state is introduced and a model for the flow-driven evolution of the corresponding variables is derived together with several closure approximations. The equation system describing fibre suspension flows, consisting of the incompressible Navier-Stokes equation with an orientation state dependent non-Newtonian constitutive relation and a linear first order hyperbolic system for the fibre orientation variables, has been analyzed, allowing rather general fibre orientation evolution models and constitutive relations. The existence and uniqueness of a solution has been demonstrated locally in time for sufficiently small data. The closure relations for the semiflexible fibre suspension model are studied numerically. A finite volume based discretization of the suspension flow is given and the numerical results for several two and three dimensional domains with different parameter values are presented and discussed.
Organische Moleküle lösen zunehmend anorganische Verbindungen wegen ihrer schnelleren bzw. kostengünstigeren Herstellung sowie der leichteren Modifikation ihrer Eigenschaften als Grundlage neuer hocheffizienter Materialien mit optischen und dielektrischen Anisotropien in der technischen Anwendung ab. Zusätzlich bieten Prozesse der supramolekularen Chemie zur Selbstorganisation niedermolekularer Bausteine nach dem Vorbild der Natur neue Möglichkeiten makroskopische Systeme mit maßgeschneiderter Funktionalität zu erzeugen. Diese supramolekularen Aggregate bilden sich auf Grund unspezifischer und spezifischer Wechselwirkungen ihrer Bausteine, die sich in Veränderungen der elektronischen Struktur sowie anderer molekularer Eigenschaften widerspiegelt. Mittels elektrooptischer Absorptionsmessung (EOAM) können die Dipolmomente des Grund- und Anregungszustandes von Verbindungen in Lösung bestimmt sowie die Anisotropie der (Hyper-)Polarisierbarkeit abgeschätzt werden. Die EOA-Spektroskopie stellte die Methode der Wahl dar, organische Moleküle bzw. ihre supramolekularen Aggregate für Materialien mit gewünschter Funktionalität zu identifizieren Im Rahmen dieser Arbeit wurde ein vollautomatisiertes Spektrometer zur Bestimmung der Elektrochromie von Molekülen in Lösung erfolgreich konstruiert, aufgebaut und in Betrieb genommen. Die computergestützte Automatisierung der Apparatur ermöglichte die schnellere und bessere Charakterisierung einer Vielzahl unterschiedlichster Verbindungen. Durch die höhere spektrale Auflösung konnten überlagerte Absorptionsbanden einer bzw. verschiedener Spezies in Lösung durch neu entwickelte bzw. verfeinerte Analyseverfahren identifiziert und erstmal quantitativ ausgewertet werden. Hierdurch konnte erfolgreich demonstriert werden, dass die EOA-Spektroskopie zahlreiche Beiträge zur Analyse vielfältiger Fragestellungen liefern kann, die mittels anderer Techniken unter den experimentellen Bedingungen nicht zugänglich sind. Neben der Charakterisierung zahlreicher Verbindungen für die Anwendung in organischen Solarzellen, bei der Frequenzverdopplung und für die holographische Speicherung lag der Schwerpunkt der experimentellen Arbeiten im Nachweis und der Untersuchung der Interaktion von organischen Molekülen durch spezifische und unspezifische Wechselwirkungen. Dabei konnten Veränderungen der Konformation bei Rezeptoren durch die Komplexierung eines Gast-Moleküles nachgewiesen werden. Darüber hinaus gelang es erstmals mit Hilfe der EOA-Spektroskopie, Strukturparameter von Komplexen in flüssiger Lösung zu erhalten. Durch konkurrierende Wechselwirkung der Orientierung dipolarer Merocyanine konnten Komplexe mit sehr kleinen und den derzeit größten bekannten Dipolmomenten erzeugt werden. Die Variation der Feldstärken interner und externer elektrischer Felder bzw. die Konzepte der supramolekularen Chemie bieten in Zukunft neben den bestehenden Verfahren zur Modifikation organischer Moleküle neue Möglichkeiten, effiziente und funktionelle Materialien zu erzeugen.
Dynamisierung von Planverfahren der Stadtplanung durch Informations- und Kommunikationssysteme
(2008)
Der Wandel in den gesellschaftlichen, demographischen und ökonomischen Rahmenbedingungen
stellt neue Anforderungen an Planverfahren der Stadtplanung. Demnach
müssen auch die Verfahren der Bauleitplanung hinsichtlich Dauer, Umsetzbarkeit und
Steuerungswirkung sowie bezüglich Zielsetzung, Inhalten und zugrunde liegender Leitbilder
überprüft werden. Derzeit dauern insbesondere die Verfahren der Flächennutzungsplanung
zu lange. Zudem sind die Planinhalte häufig zu statisch und nicht ausreichend
operationalisierbar, um den dynamischen Anforderungen in der Realität gen
ügen zu können.
Auch vor diesem Hintergrund wurde den Kommunen in Deutschland mit Inkrafttreten
des Europarechtsanpassungsgesetz Bau im Juli 2004 erstmals die Möglichkeit eröffnet,
moderne Informationstechnologien und hier vor allem das Internet ergänzend in
Plan- und Beteiligungsverfahren der Bauleitplanung einzusetzen. Intention des Gesetzgebers
zum entsprechenden § 4a Abs. 4 EAG Bau ist es, die Beteiligung der Öffentlichkeit
und Behörden zeitlich zu optimieren und verfahrenstechnisch zu vereinfachen.
Dementsprechend wird im vorliegenden Endbericht zum Forschungsprojekt Dynamisierung
und Flexibilisierung von Planverfahren der Stadtplanung durch Informationsund
Kommunikationssysteme der Frage nachgegangen, welche Dynamisierungspotenziale
und sonstigen Chancen elektronische Informations- und Kommunikationssysteme
im Verfahren der Flächennutzungsplanung eröffnen. Das Projekt wurde von der
Stiftung Innovation des Landes Rheinland-Pfalz finanziert.
Da bei der Online-Nutzung in Planverfahren auf der Anwenderseite, so auch bei Mitarbeitern
in Stadtplanungsämtern und kommunalen Bauverwaltungen, noch große Unsicherheit
und Skepsis vorherrschen, wurde eine landesweite Kommunalbefragung in
Rheinland-Pfalz sowie ein intensiver Austausch mit drei rheinland-pfälzischen Modellvorhaben
zu dieser Thematik durchgeführt.
Mit Hilfe der Differenzierung der Flächennutzungsplanung in Verfahrenslagen konnte
ein systematischer Überblick zur Verortung der Potenziale des Einsatzes elektronischer
Informations- und Kommunikationssysteme gewonnen werden. Mit dem forschungsbegleitend
entwickelten Internetportal FNPinform kann den Anwendern ein
funktionsfähiger Zugang zu den gewonnenen Erkenntnissen offeriert werden.
Diese Arbeit beschäftigte sich mit der Modulation oxidativer Zellschäden bei Hämodialysepatienten durch Pro- und Antioxidantien. Im ersten Teil wurden die prooxidativen Auswirkungen der drei zur intravenösen Applikation bestimmten Eisenmedikamente Ferrlecit® (Glukonat) [ältestes Medikament], Venofer® (Saccharat), CosmoFer® (Dextran) in vitro sowie die Modulation des oxidativen Stress durch eine Ferrlecit®-Gabe bei HD-Patienten bestimmt. Die Bestimmungen der DNA-Schäden mittels Comet Assay und des LPO-Produkts Malondialdehyd mittels HPLC/Fluoreszenzdetektion zeigten in vitro bei U937-Zellen, isolierten humanen Lymphozyten und ex vivo bei humanem Vollblut ein im Vergleich zu Ferrlecit® und Venofer® deutlich geringeres Schädigungspotential von CosmoFer®. Der Dextran-Komplex (höchste Komplexstabilität) scheint gegenüber den Glukonat- und Saccharat-Komplexen verträglicher zu sein und sollte in Zukunft bevorzugt bei der Anämie-Behandlung eingesetzt werden. Die Ergebnisse der Untersuchungen des oxidativen Stress bei mit Ferrlecit® behandelten HD-Patienten zeigen deutliche Anstiege bei den DNA-Schäden und der LPO zu allen Messzeitpunkten nach Ende der Eisengabe und somit auch die Relevanz der erhaltenen in vitro Daten für die Belastungssituation in vivo. Die Abstufungen im Schädigungspotential, die bei den in vitro Tests erhalten wurden, decken sich auch mit den Untersuchungen von Pai et al. bei HD-Patienten, bei denen sich für das Ausmaß der Schädigung die Rangfolge Fe-Glukonat > Fe-Saccharat > Fe-Dextran ergab [Pai et al., 2007]. Im zweiten Teil dieser Arbeit wurde das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil in einer humanen Interventionsstudie mit Biomarkern der oxidativen Zellschädigung, des oxidativen Status der Zelle und der Zellantwort charakterisiert. Ergänzend wurden Untersuchungen zur antioxidativen Kapazität vergleichbarer Fruchtsäfte durchgeführt. 21 HD-Patienten nahmen nach einer dreiwöchigen Run-in-Phase über vier Wochen täglich 200 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 31,1 mmol/L Trolox) auf. Anschließend folgte eine dreiwöchige Wash-out-Phase ohne Saftaufnahme. Wöchentlich wurde Blut entnommen und zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Malondialdehyd (LPO-Produkt), Proteinoxidation (Carbonyle) Glutathionspiegel/-status, DNA-Bindungsaktivität des Transkriptionsfaktors Nuclear Factor kappa B und antioxidative Kapazität (TEAC) sowie zur Erfassung der Harnsäure-, Triglycerid- und Anthocyankonzentrationen verwendet. Die Ergebnisse zeigten eine signifikante Abnahme der oxidativen DNA-Schäden (p< 0,0001), der MDA-Konzentration (p< 0,001) und des Carbonylgehaltes (p< 0,0001), eine Zunahme des tGSH-Spiegels und des Glutathionstatus (je p< 0,0001), ein Rückgang des GSSG-Spiegels (p< 0,0001) und der DNA-Bindungsaktivität von Nuclear Factor kappa B (p< 0,0001) während der 4-wöchigen Saftaufnahme im Vergleich zur 3-wöchigen Run-in-Phase. Ein leicht signifikanter Rückgang ergab sich für den Harnsäuregehalt (p< 0,05), der TEAC und die Triglyceridkonzentrationen dagegen wurde nicht beeinflusst. In der Wash-out-Phase zeigte sich, dass manche Messwerte direkt nach Ende der Saftaufnahme (GSSG, p< 0,0001; Proteincarbonyle, p< 0,0001) oder mit einer Woche Verspätung (DNA-Gesamtschäden, p< 0,0001) wieder anstiegen bzw. absanken (Glutathionspiegel/status, jeweils p< 0,0001), was für eine kurzzeitige Wirkung (< 1 Woche) spricht. Beim Malondialdehyd-Gehalt und der DNA-Bindungsaktivität von Nuclear Factor kappa B handelt es sich offensichtlich um eine längerfristig anhaltende protektive Wirkung, die Werte verändern sich im Vergleich zur Saftafnahme-Phase nur unwesentlich. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in einer Studie mit fast polyphenolfreiem Vergleichssaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte [Weisel et al., 2006]. Zusammenfassend konnte in dieser Arbeit das antioxidative Potential eines flavonoid/polyphenolreichen roten Mischfruchtsafts zur Verringerung oxidativer Zellschädigung bei Hämodialysepatienten eindeutig nachgewiesen werden. Der Konsum von antioxidativ wirksamen Fruchtsäften ist ein vielversprechender Präventions- und Therapieansatz für Patienten, die an Niereninsuffizienz und ROS-assoziierten Krankheiten leiden. Die Aufnahme natürlicher Antioxidantien mit der Nahrung über solche Säfte scheint eine Alternative zur chronischen Anwendung von hochdosierten Supplementen zu sein.
We study the complexity of finding extreme pure Nash equilibria in symmetric network congestion games and analyse how it depends on the graph topology and the number of users. In our context best and worst equilibria are those with minimum respectively maximum total latency. We establish that both problems can be solved by a Greedy algorithm with a suitable tie breaking rule on parallel links. On series-parallel graphs finding a worst Nash equilibrium is NP-hard for two or more users while finding a best one is solvable in polynomial time for two users and NP-hard for three or more. Additionally we establish NP-hardness in the strong sense for the problem of finding a worst Nash equilibrium on a general acyclic graph.
Nanotechnology is now recognized as one of the most promising areas for technological
development in the 21st century. In materials research, the development of
polymer nanocomposites is rapidly emerging as a multidisciplinary research activity
whose results could widen the applications of polymers to the benefit of many different
industries. Nanocomposites are a new class of composites that are particle-filled
polymers for which at least one dimension of the dispersed particle is in the nanometer
range. In the related area polymer/clay nanocomposites have attracted considerable
interest because they often exhibit remarkable property improvements when
compared to virgin polymer or conventional micro- and macro- composites.
The present work addresses the toughening and reinforcement of thermoplastics via
a novel method which allows us to achieve micro- and nanocomposites. In this work
two matrices are used: amorphous polystyrene (PS) and semi-crystalline polyoxymethylene
(POM). Polyurethane (PU) was selected as the toughening agent for POM
and used in its latex form. It is noteworthy that the mean size of rubber latices is
closely matched with that of conventional toughening agents, impact modifiers.
Boehmite alumina and sodium fluorohectorite (FH) were used as reinforcements.
One of the criteria for selecting these fillers was that they are water swellable/
dispersible and thus their nanoscale dispersion can be achieved also in aqueous
polymer latex. A systematic study was performed on how to adapt discontinuousand
continuous manufacturing techniques for the related nanocomposites.
The dispersion of nanofillers was characterized by transmission, scanning electron
and atomic force microcopy (TEM, SEM and AFM respectively), X-ray diffraction
(XRD) techniques, and discussed. The crystallization of POM was studied by means
of differential scanning calorimetry and polarized light optical microscopy (DSC and
PLM, respectively). The mechanical and thermomechanical properties of the composites
were determined in uniaxial tensile, dynamic-mechanical thermal analysis
(DMTA), short-time creep tests, and thermogravimetric analysis (TGA).
PS composites were produced first by a discontinuous manufacturing technique,
whereby FH or alumina was incorporated in the PS matrix by melt blending with and
without latex precompounding of PS latex with the nanofiller. It was found that direct melt mixing (DM) of the nanofillers with PS resulted in micro-, whereas the latex mediated
pre-compounding (masterbatch technique, MB) in nanocomposites. FH was
not intercalated by PS when prepared by DM. On the other hand, FH was well dispersed
(mostly intercalated) in PS via the PS latex-mediated predispersion of FH following
the MB route. The nanocomposites produced by MB outperformed the DM
compounded microcomposites in respect to properties like stiffness, strength and
ductility based on dynamic-mechanical and static tensile tests. It was found that the
resistance to creep (summarized in master curves) of the nanocomposites were improved
compared to those of the microcomposites. Master curves (creep compliance
vs. time), constructed based on isothermal creep tests performed at different temperatures,
showed that the nanofiller reinforcement affects mostly the initial creep
compliance.
Next, ternary composites composed of POM, PU and boehmite alumina were produced
by melt blending with and without latex precompounding. Latex precompounding
served for the predispersion of the alumina particles. The related MB was produced
by mixing the PU latex with water dispersible boehmite alumina. The composites
produced by the MB technique outperformed the DM compounded composites in
respect to most of the thermal and mechanical characteristics.
Toughened and/or reinforced PS- and POM-based composites have been successfully
produced by a continuous extrusion technique, too. This technique resulted in
good dispersion of both nanofillers (boehmite) and impact modifier (PU). Compared
to the microcomposites obtained by conventional DM, the nanofiller dispersion became
finer and uniform when using the water-mediated predispersion. The resulting
structure markedly affected the mechanical properties (stiffness and creep resistance)
of the corresponding composites. The impact resistance of POM was highly
enhanced by the addition of PU rubber when manufactured by the continuous extrusion
manufacturing technique. This was traced to the dispersed PU particle size being
in the range required from conventional, impact modifiers.
Layout analysis--the division of page images into text blocks, lines, and determination of their reading order--is a major performance limiting step in large scale document digitization projects. This thesis addresses this problem in several ways: it presents new performance measures to identify important classes of layout errors, evaluates the performance of state-of-the-art layout analysis algorithms, presents a number of methods to reduce the error rate and catastrophic failures occurring during layout analysis, and develops a statistically motivated, trainable layout analysis system that addresses the needs of large-scale document analysis applications. An overview of the key contributions of this thesis is as follows. First, this thesis presents an efficient local adaptive thresholding algorithm that yields the same quality of binarization as that of state-of-the-art local binarization methods, but runs in time close to that of global thresholding methods, independent of the local window size. Tests on the UW-1 dataset demonstrate a 20-fold speedup compared to traditional local thresholding techniques. Then, this thesis presents a new perspective for document image cleanup. Instead of trying to explicitly detect and remove marginal noise, the approach focuses on locating the page frame, i.e. the actual page contents area. A geometric matching algorithm is presented to extract the page frame of a structured document. It is demonstrated that incorporating page frame detection step into document processing chain results in a reduction in OCR error rates from 4.3% to 1.7% (n=4,831,618 characters) on the UW-III dataset and layout-based retrieval error rates from 7.5% to 5.3% (n=815 documents) on the MARG dataset. The performance of six widely used page segmentation algorithms (x-y cut, smearing, whitespace analysis, constrained text-line finding, docstrum, and Voronoi) on the UW-III database is evaluated in this work using a state-of-the-art evaluation methodology. It is shown that current evaluation scores are insufficient for diagnosing specific errors in page segmentation and fail to identify some classes of serious segmentation errors altogether. Thus, a vectorial score is introduced that is sensitive to, and identifies, the most important classes of segmentation errors (over-, under-, and mis-segmentation) and what page components (lines, blocks, etc.) are affected. Unlike previous schemes, this evaluation method has a canonical representation of ground truth data and guarantees pixel-accurate evaluation results for arbitrary region shapes. Based on a detailed analysis of the errors made by different page segmentation algorithms, this thesis presents a novel combination of the line-based approach by Breuel with the area-based approach of Baird which solves the over-segmentation problem in area-based approaches. This new approach achieves a mean text-line extraction error rate of 4.4% (n=878 documents) on the UW-III dataset, which is the lowest among the analyzed algorithms. This thesis also describes a simple, fast, and accurate system for document image zone classification that results from a detailed comparative analysis of performance of widely used features in document analysis and content-based image retrieval. Using a novel combination of known algorithms, an error rate of 1.46% (n=13,811 zones) is achieved on the UW-III dataset in comparison to a state-of-the-art system that reports an error rate of 1.55% (n=24,177 zones) using more complicated techniques. In addition to layout analysis of Roman script documents, this work also presents the first high-performance layout analysis method for Urdu script. For that purpose a geometric text-line model for Urdu script is presented. It is shown that the method can accurately extract Urdu text-lines from documents of different layouts like prose books, poetry books, magazines, and newspapers. Finally, this thesis presents a novel algorithm for probabilistic layout analysis that specifically addresses the needs of large-scale digitization projects. The presented approach models known page layouts as a structural mixture model. A probabilistic matching algorithm is presented that gives multiple interpretations of input layout with associated probabilities. An algorithm based on A* search is presented for finding the most likely layout of a page, given its structural layout model. For training layout models, an EM-like algorithm is presented that is capable of learning the geometric variability of layout structures from data, without the need for a page segmentation ground-truth. Evaluation of the algorithm on documents from the MARG dataset shows an accuracy of above 95% for geometric layout analysis.
The goal of a multicriteria program is to explore different possibilities and their respective compromises which adequately represent the nondominated set. An exact description will in most cases fail because the number of efficient solutions is either too large or even infinite. We approximate the nondominated by computing a finite collection of nondominated points. Different ideas have been applied, including nonnegative weighted scalarization, Tchebycheff weighted scalarization, block norms and epsilon-constraints. Block norms are the building blocks for the inner and outer approximation algorithms proposed by Klamroth. We review these algorithms and propose three different variants. However, block norm based algorithms require to solve a sequence of subproblems, the number of subproblems becomes relatively high for six criteria and even intractable for real applications with nine criteria. Thus, we use bilevel linear programming to derive an approximation algorithm. We finally analyze and compare the approximation quality, running time and numerical convergence of the proposed methods.
Der stetige Fortschritt in der Fahrzeugakustik zeigt sich besonders in dem gewonnenen Komfort-eindruck, obwohl die Ausstattungsmöglichkeiten durch Nebenaggregate (Mechatroniksystemen) an Anzahl, Funktion und Leistung deutlich zugenommen haben. Besonders Fahrzeuge der Oberklasse weisen eine Vielzahl von „mechatronischen“ Systemen mit den unterschiedlichsten Aktuatoren auf. Als Beispiele seien hier genannt: die hydraulische Wankstabilsierung und Lenkhilfe, die pneumati-sche Niveauregulierung, das elektrohydraulische Bremsregelsystem, das Hochdruckeinspritzsystem der Kraftstoffanlage oder die Vielzahl der elektrischen Stellmotoren, z.B. im Fensterheberantrieb, in Lenksäulen- oder Sitzverstellungen, usw. Die Leistungs- und Medienversorgung durch Stromkabel, Luftkanäle, Kraftstoff-, Rohr- und Schlauchleitungen stellen durch deren Verbindungen der Aggregate zur Karosserie auch Körper-schallnebenwege dar. Hierbei werden neben dem Körperschalleintrag des Verbrennungsmotors auch die Funktionsgeräusche der Hilfsaggregate selbst in den Fahrzeuginnenraum übertragen. Auf-grund der Vielzahl der Mechatroniksysteme und damit verbundenen Schallnebenwege übersteigt der Geräuschbeitrag die klassischen Schallpfade, wie Motorlagerung und Antriebsstranglagerung. Die Reduktion der Geräuschemission von Nebenaggregaten besitzt heute die gleiche Bedeutung in der Fahrzeugentwicklung wie die klassischen Themen der Strukturdynamik, Antriebs- und Strö-mungsakustik. Eine besondere Bedeutung haben hierbei die Schlauchleitungen der hydraulischen Lenkung und Wankstabilisierung, der Kraftstoffversorgung und der Klimaanlage. Sie stellen durch ihre Verbin-dung von Motoraggregat (Pumpe, Kompressor) zu Karosserieaggregat (Lenkgetriebe, Ventilblock) eine Körperschallbrücke dar. Die konstruktive Gestaltung der Schlauchleitungen und die geometri-sche Verlegung im Fahrzeugbauraum haben einen gravierenden Einfluss auf die Geräuschübertra-gung. Eine kostengünstige und gewichtsreduzierte Konstruktion mit ausreichender Einfügedäm-mung ist nur durch präzise Konstruktionsabstimmung innerhalb der frühen Phase des Produktent-wicklungsprozesses möglich. In dieser Gestaltungsphase werden die Konstruktionskonzepte der einzelnen Baugruppen festgelegt. Dies geschieht überwiegend am „virtuellen“ Gesamtfahrzeugmo-dell. Die Absicherung der Konzeptstudien durch Messungen am Gesamtfahrzeug hinsichtlich der Grenzwerteinhaltung ist deshalb nicht möglich. Auch Erfahrungswerte sind zur Beantwortung spe-zifischer Fragestellungen bei Weitem nicht ausreichend, weshalb auf Komponentenversuche oder Simulationen zurückgegriffen werden muss. Die akustische Beurteilung bedingt hierbei allerdings eine Grenzwertableitung aus dem Gesamtfahrzeug zum Mechatroniksystem, bzw. sogar ein „Run-terbrechen“ auf die Ebene der Einzelkomponenten. Die Aufgabe dieser Arbeit war es, funktionale Abhängigkeiten der Körperschallübertragung von konstruktiven Auslegungen biegeschlaffer Schlauchleitungen nachzuweisen. Hierzu mussten für die Berechung die fehlenden dynamische Steifigkeiten der Schlauchwandung und des Systems Öl-Schlauchwand der im Fahrzeug verlegten Schlauchleitungen ermittelt werden. Die Vielzahl der Schlauchmaterialien wurde durch definierte Schlauchproben repräsentiert. Zur Bestimmung der kinematischen Kenngrößen wurden zunächst neue Prüfstandskonzepte entwickelt, welche Schlauchverlegungen unter den in Fahrzeugen herrschenden Randbedingungen zulassen. Nach mehreren Konzeptverbesserungen und Wirksamkeitsprüfungen wurde ein „Akustik-Schlauchprüfstand“ konstruiert und gebaut. Mit diesem „Akustik-Schlauchprüfstand“ können nun die Körperschallübertragungseigenschaften von viskoelastischen Schlauchmaterialien und elastischen Stahl- bzw. Wellrohren auch außerhalb des Gesamtfahrzeugaufbaues fahrzeugunabhängig ermittelt werden. Eine Berücksichtigung der Fahrzeugrandbedingungen erfolgt hierbei durch die äußeren Lasten in Form eines Betriebskennfel-des. Das Betriebskennfeld, gebildet durch die äußeren Lasten des Fluiddrucks und der Umgebungs-temperatur, wird durch den wesentlichen geometrischen Lastfall der Biegeverlegung in Abhängig-keit vom Biegeradius ergänzt. Das Verhalten der kinematischen Steifigkeiten im Betriebskennfeld gibt Aufschluss über die für den Konstrukteur wichtigen Beeinflussungsmöglichkeiten der akusti-schen Übertragungseigenschaften. Aufgrund der kinematischen Verhärtung von viskoelastischen Materialien müssen die System-kenngrößen ermittelt werden. Dies bedeutet z.B. für das Elastizitätsverhalten nicht, die Steife zu bestimmen, sondern deren akustische Wirkung als kinematische Steife im für die Fahrzeugakustik relevanten Frequenzbereich 100 Hz bis 1000 Hz. Aufgrund des meist vorherrschenden linearen Amplitudenverhaltens im Betriebspunkt kann zur Dämpfungsberücksichtigung auf das lineare Kel-vin-Voigt Modell zurückgegriffen werden. Eine Vereinfachung der mathematischen Formulierun-gen der System- und Materialeigenschaften bietet hierbei die zulässige Beschränkung auf reine harmonische Schwingungen und die Berücksichtigung der Dämpfung durch die Einführung der komplexen Steife bzw. des komplexen E-Moduls. Nach einem Überblick über vorangegangene Arbeiten (Kapitel 2) werden zunächst die akustischen Grundlagen zur Beschreibung der komplexen Kenngrößen, wie kinematische Steife und E-Modul der Schlauchproben, aufgezeigt. Das Phänomen der Kontinuumschwingungen des massebehafteten Schlauches und die Ausbildung der stehenden Körperschallwellen in ihrer modalen Ausprägung als Dehn-, Torsion und Biegewelle werden erläutert (Kapitel 3). Zur Verifizierung der Messergebnisse wurden versuchsbegleitend Berechnungsmodelle der Schlauchproben entwickelt. Basierend auf der Technik der akustischen „Mehrpolmatrizen“ lassen sich mit ausreichender Genauigkeit die Verteilung der Kraft- und des Körperschallschnellepegels längs der Schlauchprobe sowie deren modale Schwingformen beschreiben (Kapitel 4). Die Mög-lichkeit, einen druckbelasteten Hydraulikschlauch mit einem simulatorisch modifizierbaren Fluid im Betriebskennfeld abzubilden, ist besonders zum Verständnis des Masseverhaltens und der hyd-raulischen Steife von Ölen hilfreich. Inspiriert durch den Zweimassenschwingeraufbau als akustischem „Tonpilz“ wurde ein Prüfstand-konzept erarbeitet (Kapitel 5.1). Hierzu wurden Versuchseinrichtungen zum Aufprägen von Flu-iddruck und homogener Wärmebelastung bei einstellbarer Biegeverlegung der Schlauchproben in einer entsprechend konstruierten Wärmekammer entwickelt. Mit Hilfe einer Aufspannvorrichtung werden selektiv die Schwingmoden des Kontinuums der technisch wichtigen stehenden Dehn-, Torsion- und Biegewellen kraftangeregt. Die sich einstellenden Eigenresonanzlagen werden mess-technisch in allen Raumrichtungen zeitgleich erfasst. Speziell konstruierte Impedanzmessköpfe für die Erfassung der statischen und kinematischen Messwerte erreichen bis zur Grenzfrequenz von 2 kHz die für eine Wellenreflexion ausreichend hohe dynamische Masse am Probenanfang und -ende. Zentrales Thema der experimentellen Untersuchungen ist das Materialverhalten im Betriebskenn-feld (Kapitel 5.2). Mit Hilfe exakter Eigenfrequenz- und Eigenmodemessungen wird der komplexe kinematische E-Modul des Schlauchs als Systemgröße bestimmbar. Die Berücksichtigung eines anisotropen Elastizitätsverhaltens der Schlauchwandung gelingt durch hierfür abgeleitete Glei-chungen: Mittels Gleichsetzen der reduzierten Kompressionsmodule, beschrieben durch die Korte-weg-Gleichung und dem zu Grunde liegenden Schlauch-Öl Federmodell, ergibt sich die Dehnwel-lensteife der Schlauchwandung. Ergänzend zum Kinematikfaktor, welcher das Verhältnis der stati-schen zur kinematischen Materialsteife beschreibt, wird der „Isotropenfaktor“ zur Beschreibung der Richtungsabhängigkeit des E-Moduls eingeführt. Alle dominanten Einflüsse und akustischen Zusammenhänge der Materialeigenschaften und ihrer geometrischen Größen werden funktional beschrieben und die Auswirkungen auf die Körperschallübertragung diskutiert. Die Betrachtungs-weise der gebogenen Schlauchleitungen und die damit verbundene Veränderung der Wellenge-schwindigkeit relativ zu geraden Schlauchproben sowie die durch Biegeverlegung mögliche Kopp-lung von Dehn- und Biegewelle werden formal mit dem Biegeradius, der Schlauchlänge und der Anregekraft mathematisch verknüpft. Für die praktische Anwendung zur kinematischen Schlauchprobenbeschreibung erfolgt eine Ap-proximation an die akustischen Kenndaten in einem Standardversuch. Nach Linearisierung ihn den Hauptbetriebspunkten kann das Schlauchsystem kinematisch durch Kennzahlen beschrieben wer-den. Hierdurch ist eine Klassifizierung in Entwicklungslastenheften möglich. Aus den Versuchen ermittelte Faktoren und Exponenten bieten die Möglichkeit, durch Gleichungen die Abhängigkeit der Körperschallübertragung von Druckbelastung, Materialtemperatur und Schlauchbiegeradius zu berücksichtigen. Mit dem „Akustik-Schlauchprüfstand“ und den in dieser Arbeit beschrieben Berechnungsverfahren können nun fahrzeugunabhängig auf einem Komponentenprüfstand die Körperschallübertragungs-eigenschaften der viskoelastischen Schlauchmaterialien im Betriebskennfeld ermittelt werden. Es erschließt sich ein weiteres Potenzial der akustischen Verbesserung der Dämmungseigenschaften von Schläuchen aufgrund ermittelbarer kinematischer Kenngrößen. Eine akustischen Kriterien folgende Schlauchmaterialauswahl und die entsprechend definierte Biegeverlegung ist nun mög-lich. Weitere Untersuchungen sollten der Kopplung von Dehn- und Biegewelle, ergänzt durch eine Tor-sionswellenüberlagerung, gelten. Auch ist die Funktion der Eingangsimpedanzen des „halbunendli-chen“ Schlauches bei der Wellenformkopplung zu ergründen. Ein Ansatz könnte das Aufstellen einer „Wellenkopplungsfunktion“ in Abhängigkeit der Biegeverlegung und der entsprechenden Implementierung in eine „Mehrpolübertagungsmatrix“ sein.
Minimum Cut Tree Games
(2008)
In this paper we introduce a cooperative game based on the minimum cut tree problem which is also known as multi-terminal maximum flow problem. Minimum cut tree games are shown to be totally balanced and a solution in their core can be obtained in polynomial time. This special core allocation is closely related to the solution of the original graph theoretical problem. We give an example showing that the game is not supermodular in general, however, it is for special cases and for some of those we give an explicit formula for the calculation of the Shapley value.
The prototype of a rapid authoring tool for reusable learning objects, LOXtractor was extended with the ability for importing PDF files and for direct input of plain text. The ability to process PDF files was a major step forward to the goal of creating an application that integrates the creation of small-scale learning objects, their annotation with metadata and their mapping to an ontology for later retrieval into the task solving workflow, as intended by the SLEAM process. Especially small and medium sized enterprises can profit from this easy and affordable way to conserve individual informal learning effort for the whole company.
Die Resistenz solider Tumoren gegenüber der Behandlung mit Medikamenten oder Bestrahlung ist ein häufig auftretendes Phänomen. Insbesondere das Auftreten von Chemoresistenzen stellt ein großes Problem bei der Behandlung von Krebs dar. Aufgrund einer Unterversorgung des Gewebes kommt es in soliden Tumoren zur Bildung des so genannten ‚hypoxischen Kern’ (hypoxic core), welcher bei der Progression und Metastasierung des Tumors eine wichtige Rolle spielt. Es wird diskutiert, inwieweit Hypoxie an der Entstehung von Resistenzen gegenüber unterschiedlichen Therapieansätzen beteiligt ist. Das Ziel der Arbeit war es, die Fragestellung zu klären, ob Hypoxie vor Apoptose, ausgelöst durch Chemotherapeutika, schützt. Wenn sich diese Vermutung bestätigen sollte, sollten die zu Grunde liegenden Mechanismen dieser Chemoresistenz aufgeklärt werden. Es konnte festgestellt werden, dass es in A549 Zellen unter Hypoxie durch ein Zusammenspiel mehrerer unabhängiger Signalwege zum Schutz vor Etoposid-induzierter Apoptose kommt. Zum einen induziert Hypoxie die Stabilisierung und Aktivierung von HIF-1. Über einen intrazellulären Mechanismus, wahrscheinlich der Expression anti-apoptotischer Zielgene, kommt es zur Desensitivierung der Zellen gegenüber der Behandlung mit Etoposid. Des Weiteren konnte festgestellt werden, dass es unter Hypoxie unabhängig von HIF-1 zur Freisetzung von Schutzfaktoren kommt. Diese vermitteln über auto- oder parakrine Wege anti-apoptotische Signale. Hypoxie führte zu einer Akkumulation der Cyclooxygenase-2 (COX-2), welche maßgeblich an der Freisetzung des Schutzfaktors beteiligt ist. In diesem Zusammenhang wurde festgestellt, dass die Stimulation mit PGE2 zu einer erhöhten Resistenz von A549 Zellen gegenüber Etoposid-induzierter Apoptose führte. Es konnte weiterhin gezeigt werden, dass die basale Aktivität der Sphingosin-Kinasen für die Vitalität von A549 Zellen essenziell ist. Unter Hypoxie wurde darüber hinaus eine Aktivierung der Sphingosin-Kinase 2 (SphK2) festgestellt, wodurch eine vermehrte Synthese und Freisetzung von Sphingosin-1-phosphat (S1P) induziert wurde. Es kommt unter Hypoxie über zwei unabhängige Signalwege zur Freisetzung von PGE2 und S1P, welche in Zielzellen einen chemoresistenten Phänotyp induzieren. Die Übertragung des anti-apoptotischen Signals erfolgte über die Aktivierung der ERK1/2-Signalkaskade. Zusammengefasst konnte gezeigt werden, dass Hypoxie über die Aktivierung von HIF-1, COX-2 und SphK2 in A549 Zellen die Resistenz gegenüber Chemotherapeutika induziert. Hierbei sind neben intrazellulären Signalen auch auto- und parakrin wirkende Mechanismen beteiligt. Als Übermittler des übertragbaren anti-apoptotischen Signals konnten S1P und PGE2 identifiziert werden, die über die Aktivierung von ERK1/2 vor Apoptose schützen.
Open cell foams are a promising and versatile class of porous materials. Open metal foams serve as crash absorbers and catalysts, metal and ceramic foams are used for filtering, and open polymer foams are hidden in every-day-life items like mattresses or chairs. Due to their high porosity, classical 2d quantitative analysis can give only very limited information about the microstructure of open foams. On the other hand, micro computed tomography (μCT) yields high quality 3d images of open foams. Thus 3d imaging is the method of choice for open cell foams. In this report we summarise a variety of methods for the analysis of the resulting volume images of open foam structures developed or refined and applied at the Fraunhofer ITWM over a course of nearly ten years: The model based determination of mean characteristics like the mean cell volume or the mean strut thickness demanding only a simple binarisation as well as the image analytic cell reconstruction yielding empirical distributions of cell characteristics.
Die vorliegende Arbeit beschäftigt sich mit der visuellen Kontrolle raumplanerischer Entwürfe. Grundlage der Überlegungen ist das gegenwärtige Verfahren, der Planungsprozess, das zur Erstellung der Entwürfe führt. Der Entscheidungsweg hin zum endgültigen Ergebnis erfolgt zurzeit noch ohne Rechnerunterstützung. Die in den Planungsprozess Involvierten stützen ihre Entscheidungen bspw. auf Pläne, eigene Erfahrungen und Statistiken und fertigen im Verlauf von Diskussionsrunden verschiedene Entwürfe an. Dieser Ablauf ist komplex, aufgrund der eingehenden Daten und der damit zusammenhängenden Diskussionen, und langwierig da erst nach einigen Iterationsschritten ein Ergebnis vorliegt. Die Arbeit verfolgt das Ziel, die Akteure durch eine Rechnerunterstützung schneller und zielgerichtet zu einer Entscheidungsfindung zu führen. Meine Untersuchung des Anwendungsumfeldes hat ergeben, dass dies nur möglich ist, wenn zum Einen das entstehende System in der Lage ist, die großen, heterogenen Datenmengen zu verarbeiten und andererseits die Visualisierung der Ergebnisse in einer Form erfolgt, die den Akteuren vom bisherigen Planungsprozess her bekannt ist. Die Visualisierung darf dabei keine bewertende Aussage treffen, sondern muss die Informationen der Analyse neutral in einem dem Nutzer bekannten Format abbilden. Als Ansatzpunkt stellt sich der informelle Bereich der Entscheidungsfindung dar. Es werden zwei Lösungswege aus dem Bereich der Clusteringalgorithmen verfolgt, die die großen Datenmengen verarbeiten und analysieren. Als Ergebnis erhalten die Akteure durch das Voronoi-Diagramm direkt einen Entwurf, der die Einschätzungen aller Akteure widerspiegelt und durch ein Übereinanderlegen mit der Karte des Plangebietes dem klassischen Format im Rahmen des Planungsprozesses entspricht. Dadurch wird die Akzeptanz der Rechnerunterstützung bei den Beteiligten des Planungsprozesses gesteigert. Sollte dieser Entwurf noch keine direkte Zustimmung finden, kann über die entwickelte Informationsvisualisierung eine Anzeige und in der Folge eine Anpassung der Eingangsgrößen erfolgen und somit sehr schnell ein neuer Entwurf entwickelt werden. Die Visualisierung übernimmt dabei die Funktion der bisher in Papierform erstellten Pläne im Entscheidungsprozess und bietet damit auch fachfremden Beteiligten eine visuelle Kontrollmöglichkeit der Qualität des Entwurfes. Insgesamt werden mit dem Tool IKone die Akteure in Anlehnung an die standardmäßigen Abläufe und visuellen Darstellungen mittels eines rechnergestützten Systems unterstützt.
On Abstract Shapes of RNA
(2008)
As any RNA sequence can be folded in many different ways, there are lots of different possible secondary structures for a given sequence. Most computational prediction methods based on free energy minimization compute a number of suboptimal foldings and we have to identify the native structures among all these possible secondary structures. For this reason, much effort has been made to develop approaches for identifying good predictions of RNA secondary structure. Using the abstract shapes approach as introduced by Giegerich et al., each class of similar secondary structures is represented by one shape and the native structures can be found among the top shape representatives. In this article, we derive some interesting results answering enumeration problems for abstract shapes and secondary structures of RNA. We start by computing symptotical representations for the number of shape representations of length n. Our main goal is to find out how much the search space can be reduced by using the concept of abstract shapes. To reach this goal, we analyze the number of secondary structures and shapes compatible with an RNA sequence of length n under the assumption that base pairing is allowed between arbitrary pairs of bases analytically and compare their exponential growths. Additionally, we analyze the number of secondary structures compatible with an RNA sequence of length n under the assumptions that base pairing is allowed only between certain pairs of bases and that the structures meet some appropriate conditions. The exponential growth factors of the resulting asymptotics are compared to the corresponding experimentally obtained value as given by Giegerich et al.
This article focuses on the analytical analysis of the free energy in a realistic model for RNA secondary structures. In fact, the free energy in a stochastic model derived from a database of small and large subunit ribosomal RNA (SSU and LSU rRNA) data is studied. A common thermody-namic model for computing the free energy of a given RNA secondary structure, as well as stochastic context-free grammars and generating functions are used to derive the desired results. These results include asymptotics for the expected free energy and for the corresponding variance of a random RNA secondary structure. The quality of our model is judged by comparing the derived results to the used database of SSU and LSU rRNA data. At the end of this article, it is discussed how our results could be used to help on identifying good predictions of RNA secondary structure.
In this paper, the analysis of one approach for the regularization of pure Neumann problems for second order elliptical equations, e.g., Poisson’s equation and linear elasticity equations, is presented. The main topic under consideration is the behavior of the condition number of the regularized problem. A general framework for the analysis is presented. This allows to determine a form of regularization term which leads to the “natural” asymptotic of the condition number of the regularized problem with respect to mesh parameter. Some numerical results, which support theoretical analysis are presented as well. The main motivation for the presented research is to develop theoretical background for an efficient and robust implementation of the solver for pure Neumann problems for the linear elasticity equations. Such solvers usually are needed in a number of domain decomposition methods, e.g. FETI. Developed approaches are planed to be used in software, developing in ITWM, e.g. KneeMech simulation software.
In this thesis, we investigate a statistical model for precipitation time series recorded at a single site. The sequence of observations consists of rainfall amounts aggregated over time periods of fixed duration. As the properties of this sequence depend strongly on the length of the observation intervals, we follow the approach of Rodriguez-Iturbe et. al. [1] and use an underlying model for rainfall intensity in continuous time. In this idealized representation, rainfall occurs in clusters of rectangular cells, and each observations is treated as the sum of cell contributions during a given time period. Unlike the previous work, we use a multivariate lognormal distribution for the temporal structure of the cells and clusters. After formulating the model, we develop a Markov-Chain Monte-Carlo algorithm for fitting it to a given data set. A particular problem we have to deal with is the need to estimate the unobserved intensity process alongside the parameter of interest. The performance of the algorithm is tested on artificial data sets generated from the model. [1] I. Rodriguez-Iturbe, D. R. Cox, and Valerie Isham. Some models for rainfall based on stochastic point processes. Proc. R. Soc. Lond. A, 410:269-288, 1987.
Die fluoridkatalysierte Phosphor-Aryl-Kupplung – Ein neuer Zugang zu funktionalisierten Phosphanen
(2008)
In der vorliegenden Arbeit wurde ein neuer Zugang zu Arylphosphanen entwickelt, über den eine Reihe neuartiger Ligandstrukturen möglich werden. Die neu gefundene fluoridkatalysierte Kupplung von Silylphosphanen und elektronenarmen Arylfluoriden stellt eine milde Alternative zur Phosphor-Aryl-Kupplung in superbasischen Medien dar. Damit ist es möglich auch Arylfluoride zu kuppeln, deren Substitutionsmuster keine stark basischen Bedingungen zuläßt. Durch Optimierung der Reaktionsbedingungen konnte sowohl die Menge des Katalysators als auch des Lösungsmittels minimiert werden, was die Kosten der Synthese stark reduziert und die Aufarbeitung der Reaktionsansätze vereinfacht. Im Gegensatz zur Kupplung im superbasischen Medium erfolgt bei dem neuen Verfahren keine Salzbildung sondern es entsteht flüchtiges Fluortrimethylsilan als Nebenprodukt, das aus dem Reaktionsgemisch entweicht. Alternativ zu verschiedenen Fluoridionenquellen können auch NaOH und NaOMe als Lewis-Basen in katalytischen Mengen verwendet werden. Versuche mit CsF ergaben, dass die Reaktivität des Katalysators stark von der Größe und Morphologie der Salzpartikel abhängt.
Die sterischen Eigenschaften des makrozyklischen Liganden L-N4tBu2 verhindern in der Reaktion des Komplexes [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) mit molekularem Sauerstoff die Bildung einer µ-Oxo-verbrückten Dieisen(III)-Spezies. Stattdessen entsteht in der Reaktion mit Sauerstoff in wässrigen Lösungsmitteln zunächst der Eisen(III)-Komplex [Fe(L-N4tBu2)(O2CPh)(OH)](BPh4) (3). Dieser Komplex reagiert ebenfalls mit Sauerstoff. Es bildet sich in Acetonitril eine intensiv violett gefärbte Spezies mit einer starken Absorptionsbande im UV/Vis-Spektrum bei 560 nm. Leider ist es nicht gelungen, diese chromophore Verbindung zu isolieren. Allerdings gibt es Hinweise darauf, dass es sich bei dieser Verbindung um einen Eisen(III)-Phenolat-Komplex handelt. Es konnte gezeigt werden, dass der Komplex 3 mit elektronenarmen Phenolen stabile Eisen(III)-Phenolat-Komplexe bildet. Für den Fall des unsubstituierten Phenols ist es gelungen den Komplex [Fe(L-N4tBu2)(O2CPh)(OPh)](BPh4) (4) zu isolieren. Mit elektronenreichen Phenolen sind die sich bildenden Eisen(III)-Phenolat∙Komplexe nicht stabil. Es spalten sich Phenoxylradikale ab, die zu bekannten Kopplungsprodukten weiter reagieren. Am Eisenzentrum kommt es währenddessen zu einer Reduktion von Eisen(III) zu Eisen(II) und es entsteht ein Eisen(II)-Benzoat-Komplex. So konnte gezeigt werden, dass der Eisen(III)-Hydroxo-Komplex 3a die aktive Spezies in der katalytischen Umsetzung von elektronenreichen Phenolen mit dem Komplex [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) und Sauerstoff darstellt. Neben den Phenolen gelang es auch eine ganze Reihe von p-Hydrobenzochinonen erfolgreich zu oxidieren. Es ist zwar nicht gelungen durch die Verwendung von [Fe(L-N4tBu2)(O2CPh)(EtOH)](BPh4) (1) als Katalysator für Oxidation des 2-Hydroxy-5-tert.-butyl-p-hydrobenzochinon zum 2-Hydroxy-5-tert.-butyl-p-benzochinon eine Erhöhung der Ausbeute oder der Reaktionsgeschwindigkeit im Rahmen des von Klinman vorgestellten Modellsystem für die Reaktion von Topachinon- abhängigen Aminoxidasen zu erzielen, aber es konnte gezeigt werden, dass durch den Einsatz von 1 auch andere Chinone in der Lage sind Benzylamin zu Benzaldehyd zu oxidieren. Hier hilft der Komplex 1 die Regeneration des Chinons durch Sauerstoff zu beschleunigen. Somit stehen weitere Modellsysteme für die Chinon-abhängigen Aminoxidasen zur Verfügung. Mit der Synthese der beiden Komplexe [Fe(L-N4Me2)(BF)(MeOH)](BPh4) (8) und [Fe(L-N4tBu2)(BF)](BPh4) (5) gelang die Herstellung und Charakterisierung zweier Eisen(II)-α-Ketocarboxylat-Komplexe mit dem Makrozyklus L-N4R2. Die Reaktion der beiden Komplexe mit molekularem Sauerstoff hat gezeigt, dass das Einführen von sperrigeren Substituenten an den Aminstickstoffen des Makrozyklus dazuführt, das im Komplex 5 die Ausbildung einer µ-Oxo-verbrückten Spezies unterbleibt, wie sie für den Komplex 8 beobachtet wird. Ein weiterer Unterschied liegt darin, dass für den Komplex 8 nach der Bildung einer µ-Oxo-Brücke in den resultierenden Verbindungen 10a und 11a keine Decarboxylierung des Benzoylformiat-Liganden beobachtet werden kann. Im Gegensatz dazu können für den Komplex 5 zwei unterschiedliche Mechanismen einer oxidativen Decarboxylierung beobachtet werden. Einmal vermittelt durch einen Elektronentransfer zwischen zwei Eisen(III)-Zentren und zum anderen durch molekularen Sauerstoff vermittelt. Für den Komplex 5 konnte eine stöchiometrische wie auch katalytische Oxidation von Phenolen beobachtet werden. Allerdings war es nicht möglich den Mechanismus dieser Reaktion eindeutig zu bestimmen. Mit großer Wahrscheinlichkeit ist die aktive Spezies in Analogie zur Reaktionsweise des Komplexes 1 eine Eisen(III)-Hydroxo-Verbindung. Bedingt durch die beobachtete oxidative Decarboxylierung mit Hilfe von molekularem Sauerstoff kann allerdings auch der Weg über eine Eisen(IV)-Spezies nicht völlig ausgeschlossen werden.
JSR 170 spezifiziert die Java Content Repository (JCR) Schnittstelle. Diese Schnittstelle wird als Standard im Bereich Web-Anwendungen und Content Management akzeptiert. Sie gliedert sich in Level 1 (lesender Zugriff) and Level 2 (Lese- und Schreibzugriffe) und beschreibt darüber hinaus vier weitere optionale Funktionen. Das in JSR 170 beschriebene hierarchische Datenmodell weist starke Analogie zu XML auf. Jedoch verwenden die meisten JCR-Implementierungen relationale Datenbanken. Durch native XML Datenbanken, wie XTC, können XML-Daten effizient verwaltet werden. Diese Arbeit beschreibt das Design und die Implementierung eines Level 2 JCRs, welches alle Anforderungen an die Persistenz mit Hilfe von DOM und XQuery Operationen auf XML-Dokumenten in XTC erfüllt. Die optionalen FuJSR 170 spezifiziert die Java Content Repository (JCR) Schnittstelle. Diese Schnittstelle wird als Standard im Bereich Web-Anwendungen und Content Management akzeptiert. Sie gliedert sich in Level 1 (lesender Zugriff) und Level 2 (Lese- und Schreibzugriffe) und beschreibt darüber hinaus vier weitere optionale Funktionen. Das in JSR 170 beschriebene hierarchische Datenmodell weist starke Analogie zu XML auf. Jedoch verwenden die meisten JCR-Implementierungen relationale Datenbanken. Durch native XML Datenbanken, wie XTC, können XML-Daten effizient verwaltet werden. Diese Arbeit beschreibt das Design und die Implementierung eines Level 2 JCRs, welches alle Anforderungen an die Persistenz mit Hilfe von DOM und XQuery Operationen auf XML-Dokumenten in XTC erfüllt. Die optionalen Funktionen “Versionierung” und “Transaktionen” werden ebenfalls unterstützt. Um die Implementierung zu testen werden zwei Demo-Anwendungen (Blog & Wiki) entwickelt und Vergleichstests gegen die Referenzimplementierung angestellt.
Im Rahmen der vorliegenden Dissertation konnten wichtige Ergebnisse zur Charakterisierung des neuartigen Nukleotidtransporters AtNTT3 gewonnen werden. Die vorgeschlagenen Spleißvarianten des AtNTT3 wurden erfolgreich in Gesamtblüten-, Pollen- und Wurzelgewebe nachgewiesen. Zusätzlich konnte in diesen Geweben die stärkste AtNTT3-Promotoraktivität gezeigt werden. Die subzelluläre Expression der AtNTT3-Proteine wurde mit Hilfe von GFP-Fusionskonstrukten untersucht und untermauert eine außergewöhnliche Lokalisierung von zwei der drei untersuchten Proteinvarianten (AtNTT3-2 und AtNTT3-3) in der pflanzlichen Plasmamembran. Für AtNTT3-1 kann ein anderer Insertionsort, wie beispielsweise die Membranen des ER, nicht ausgeschlossen werden. Insgesamt ist AtNTT3 damit der erste pflanzliche Nukleotidtransporter der NTTFamilie, der nicht in den Plastiden lokalisiert ist. Die Hauptfunktion des AtNTT3 und seinen Spleißvarianten besteht in dem Transport von Nukleotiden. ATP, ADP und auch dATP konnten als favorisierte Importsubstrate identifiziert werden. Obwohl die heterolog exprimierten AtNTT3-Varianten im Vergleich mit strukturell ähnlichen Nukleotidtransportern eine geringe Transportaktivität zeigten, konnte ein spezifischer Transport der Substrate ATP und ADP verifiziert werden. Weiterhin wurde eine homozygote AtNTT3-KO-Linie identifiziert und damit eine Vielzahl von Versuchen zur physiologischen Rolle des AtNTT3 durchgeführt. Bisher konnten keine Hinweise auf einen veränderten Stoffwechsel der KO-Mutanten erhalten werden. Zusätzlich wurden AtNTT3-Überexpressionsmutanten hergestellt, um eine weiterführende detaillierte Analyse vorzubereiten. Wenngleich die physiologische Funktion des untersuchten Membranproteins im Rahmen dieser Arbeit nicht vollständig geklärt werden konnte, zeigen die Ergebnisse jedoch deutlich, dass es sich bei AtNTT3-2 und AtNTT3-3 um plasmamembranständige Nukleotidtransporter handelt. Aufgrund des vorliegenden Expressionsmusters, der subzellulären Lokalisierung und der transportierten Substrate liegt eine Beteiligung der Spleißvarianten am extrazellulären Nukleotidstoffwechsel nahe. Transportstudien indizieren für AtNTT3-1 das gleiche Substratspektrum, die Expression auf Zellebene muss aber nochmals überprüft werden, bevor hier eine konkrete Aussage möglich ist.
Die in dieser Dissertation durchgeführten Reaktivitätstudien an Metallclustern (Cobalt, Rhodium, Nicken und Niob) dienten dazu, einen Einblick in Elementarschritte der C-H-Aktivierung zu geben. Hierfür wurde eine Laserverdampfungsquelle an einem FT-ICR-Massenspektrometer installiert. Cobaltcluster-Kationen zeigten bei der Umsetzung mit Ethan eine größenabhängige Reaktion. Nur spezielle Cluster im mittleren Größenbereich (Con+, n = 10-16) waren in der Lage unter Abspaltung von molekularem Wasserstoff mit Ethan zu reagieren. Es ist gezeigt worden, dass Cobaltcluster durch die Umsetzung mit Distickstoffmonoxid unter Abspaltung von molekularem Stickstoff oxidierbar sind. Rhodium-Cluster wurden systematisch mit den Alkoholen Methanol, Ethanol und Isopropanol umgesetzt. Als Produkte der Reaktion von Rhodiumcluster-Kationen mit Methanol traten das intakt adsorbierte, das partiell und das vollständig dehydrierte Methanol auf. Die Clustergrößenabhängigkeit zeigte, dass nur große Cluster (Rhn+ mit n > 7) Methanol intakt adsorbierten. Die vollständige Dehydrierung wurde im gesamten Clustergrößenbereich beobachtet. Dass große Cluster entweder unter intakter Anlagerung oder unter vollständiger Dehydrierung reagierten, deutet darauf hin, dass zwei unterschiedliche Reaktionsmechanismen vorliegen, was in einem hypothetischen Modell erklärt werden soll. Die Umsetzung von größeren Alkoholen wie Ethanol und Isopropanol mit Rhodiumclustern zeigte eine unspezifische Reaktionschemie. Diese ist in der höheren Flexibilität des Alkohols durch die vergrößerte Kettenlänge begründet. Ein allgemeiner Vergleich zeigte, dass die Anionen um fast zwei Größenordnungen unreaktiver sind als die Kationen. Sowohl für die Anionen als auch für die Kationen nahm die Reaktivität von Methanol zu Ethanol und Isopropanol zu. Kleine Rhodiumcluster-Anionen waren deutlich reaktiver als größere. Eine Besonderheit der Rhodiumcluster-Kationen in der Umsetzung mit Methanol war das Auftreten von zwei Reaktionsisomeren im Clustergrößenbereich n = 8, 10, 11, 13-18. Dies wurde durch die Reaktion mit Ethanol bestätigt. Kleine Nickelcluster-Kationen stellten das untersuchte Modellsystem zur katalytischen Oxidierung von Kohlenmonoxid mittels Distickstoffmonoxid dar. Niobcluster wurden vergleichend mit Aromaten (Benzol und Naphthalin) und Heteroaroaten (Furan, Thiophen und Pyrrol) untersucht. Abschließend werden IRMPD-Spektren, die am Freie-Elektronen-Laser (CLIO, Orsay/Paris) für protonierte und deprotonierte Adipinsäure und für das protonierte Dimer von Carnosin und für einen Carnosin-Zink-Komplex vorgestellt und mit vorhandenen theoretischen Rechnungen verglichen.
Bei dem in dieser Arbeit untersuchten Antibiotikum Vancoresmycin handelt es sich um ein neuartiges Tetramsäurederivat, das aus der Fermentationsbrühe des Aktinomyceten Amycolatopsis vancoresmycina gewonnen wurde. Da der Wirkungsmechanismus und mögliche Resistenzmechanismen unbekannt sind, soll diese Arbeit zu deren Aufklärung beitragen. Dazu wurden verschiedene Determinanten für die Resistenz gegen Vancoresmycin in Streptococcus pneumoniae R6 analysiert. Zuerst wurden acht vancoresmycinresistente Labormutanten von Streptococcus pneumoniae R6 bei einer Konzentration von 0,5 µg/ml Vancoresmycin isoliert und phänotypisch charakterisiert. Es konnte eine bakteriolytische Wirkung von Vancoresmycin auf S. pneumoniae gezeigt werden. Zur Identifizierung genetischer Resistenzdeterminanten wurden verschiedene Strategien verfolgt. Zum einen wurden Genbanken von der Mutante aR6 erstellt und nach der resistenzvermittelnden DNA-Sequenz durch Transformation des sensitiven Rezipienten S. pneumoniae R6 gesucht. Zum anderen wurden die Transkriptome der Mutanten aR6, eR6, fR6 und gR6 mit dem des Referenzstammes R6 durch mikroarraybasierte Studien verglichen, um Transkriptmengenunterschiede zu detektieren. Durch das Screening der Genbanken konnten zwei Determinanten identifiziert werden, deren Funktionen durch Insertion des IS10-R-Elementes eingeschränkt waren. Dabei handelte es sich um das Gen rpsI, das für das kleine ribosomale Protein S9 codiert, und um das Gen dexS, das für eine Dextranglucosidase codiert. Der Stamm R6-rpsI::IS10-R zeichnete sich durch ein verlangsamtes Wachstum aus, was zu der beobachteten erhöhten Vancoresmycinresistenz beitragen könnte. Für das Gen dexS konnte eine direkte Beteiligung an der Resistenz gegenüber Vancoresmycin nicht nachgewiesen werden. Durch einen Transkriptomvergleich der Mutanten aR6, eR6 und fR6 mit dem Referenzstamm R6 wurde festgestellt, dass die Transkriptmengen des Genes copY, das für einen Transkriptionsrepressor codiert, und der Gene eines Cyl-Operons, deren Genprodukte vermutlich an der Bildung, Modifikation und Sezernierung eines Cytolysins beteiligt sind, in den Mutanten aR6, eR6 und fR6 erhöht waren. Mit Hilfe ausführlicher Analysen wurde nachgewiesen, dass sowohl das Gen copY als auch die Gene des Cyl-Operons nicht direkt an einer Resistenz gegenüber Vancoresmycin beteiligt sind. Im Transkriptom der Mutante gR6 fielen zwei Gene (spr0812 = abcA und spr0813 = abcB), die für einen ABC-Transporter codieren, durch erhöhte Transkriptmengen im Vergleich zu den entsprechenden Transkriptmengen des Referenzstammes R6 auf. Die Funktion dieses ABC-Transporters bei der Resistenz gegenüber Vancoresmycin wurde detailliert analysiert, da ein Aminosäureaustausch im C-terminalen Ende der Permeaseuntereinheit AbcB in der Mutante gR6 identifiziert wurde (Gln581 ® Stop). Durch Transformation des Rezipienten R6 mit der entsprechenden DNA-Sequenz konnte für die Transformanten (gTR) eine erhöhte Vancoresmycinresistenz gezeigt werden. Außerdem konnte durch Deletion des ABC-Transporter-Operons in der Mutante gR6 eine MHK-Erniedrigung auf das Ausgangsniveau des Referenzstammes R6 herbeigeführt werden. Die im Transkriptom der Mutante gR6 detektierten erhöhten Transkriptmengen der Gene abcA und abcB wurden durch quantitative Real-Time-PCR verifiziert. In der Transformante gTR wurden ebenfalls erhöhte Transkriptmengen der Gene abcA und abcB nachgewiesen. Sowohl in der Mutante gR6 als auch in der Transformante gTR waren die Transkriptmengen der Gene abcA und abcB etwa um das Sechsfache im Vergleich zu den jeweiligen Transkriptmengen des Referenzstammes R6 erhöht. Um die Ursache der erhöhten Transkriptmengen aufzuklären, wurde die Promotoraktivität des ABC-Transporter-Operons in der Mutante gR6 und in der Transformante gTR mit Hilfe von lacZ- Reporterfusionskonstrukten analysiert. Die Promotoraktivitäten in der Mutante gR6 und in der Transformante gTR unterschieden sich nicht von der des Referenzstammes R6. Dieses Resultat lässt vermuten, dass die erhöhten Transkriptmengen der Gene abcA und abcB nicht auf eine gesteigerte Promotoraktivität zurückgeführt werden können, sondern dass die Stabilität der Transkripte durch die Nonsensemutation in der Mutante gR6 und in der Transformante gTR erhöht war. In der Literatur werden homologe ABC-Transporter aus Bacillus subtilis bzw. S. mutans beschrieben, die in eine Resistenz gegenüber Bacitracin involviert sind (Ohki et al., 2003; Tsuda et al., 2002). Aufgrund dessen wurde eine Beteiligung des hier untersuchten ABC-Transporters an einer Bacitracinresistenz überprüft. Mit Hilfe einer MHK-Bestimmung für Bacitracin wurde ein fünffach erniedrigter MHK-Wert für die Mutante gR6 und für die Transformante gTR im Vergleich zum Referenzstamm R6 festgestellt. Das bedeutet, dass der mutierte ABC-Transporter der Mutante gR6 sowohl in eine erhöhte Resistenz gegenüber Vancoresmycin als auch in eine erhöhte Sensitivität gegenüber Bacitracin involviert ist.
The theory of the two-scale convergence was applied to homogenization of elasto-plastic composites with a periodic structure and exponential hardening law. The theory is based on the fact that the elastic as well as the plastic part of the stress field two-scale converges to a limit, which is factorized by parts, depending only on macroscopic characteristics, represented in terms of corresponding part of the homogenised stress tensor and only on stress concentration tensor, related to the micro-geometry and elastic or plastic micro-properties of composite components. The theory was applied to metallic matrix material with Ludwik and Hocket-Sherby hardening law and pure elastic inclusions in two numerical examples. Results were compared with results of mechanical averaging based on the self-consistent methods.
Kohlenstofffaserverstärkte Kunststoffe verfügen über eine hervorragende Leichtbaugüte
und weisen unter zyklischer Beanspruchung ein gegenüber metallischen
Werkstoffen günstigeres Schwingermüdungsverhalten auf. Aus diesen Gründen
erlangen derartige Konstruktionswerkstoffe zunehmend an Bedeutung für maschinenbauliche
Anwendungen, bei denen die tragenden Strukturen zeitweise hohe
Beschleunigungen erfahren und über die Einsatzdauer oftmals durch sich wiederholende
Belastungsfolgen beansprucht werden. Innerhalb des Entwicklungsprozesses
solcher Strukturen reicht eine globale strukturmechanische Auslegung meist nicht
aus. Vielmehr müssen für das Erzielen einer optimierten und wirtschaftlichen Lösung
strukturelle Details, wie insbesondere lokale Lasteinleitungen, sorgfältig betrachtet
werden. Darüber hinaus ist die Kenntnis der voraussichtlichen Einsatzdauer (Lebensdauer)
der Struktur inklusive der Anbindungspunkte sowohl aus Kostensicht als
auch aus Sicherheitsaspekten erforderlich. Für den konstruierenden Ingenieur
müssen daher robuste und zuverlässige Lasteinleitungslösungen entwickelt und
aussagefähige Berechnungswerkzeuge zur Lebensdauervorhersage von Faser-
Kunststoff-Verbunden bereitgestellt werden.
Im ersten Teil der vorliegenden Arbeit wurden für Getriebekomponenten in Kohlenstofffaser-
Verbund-Bauweise anforderungsgerechte Lösungen zur Einleitung hoher
zyklischer Kräfte erarbeitet. Dabei wurden die Integration von Zylinderrollenlagern
durch mechanisches Einpressen und das Tragverhalten von direkt in den Verbund
eingeschraubten Gewindeeinsätzen untersucht. Zur Auslegung der Lagerfügung
wurde ein analytisches Modell entwickelt, anhand dessen die erforderlichen Passungstoleranzen
ermittelt und die daraus resultierende Fugenpressung abgeschätzt
werden konnte. Weiterhin konnte mit Hilfe von Lichtmikroskopieuntersuchungen ein
schädigungsfreies Fügen des Lagers nachgewiesen werden. Anhand quasistatischer
Auszugsversuche an repräsentativen Probekörpern mit eingeschraubten
Gewindeeinsätzen wurde das charakteristische Tragverhalten der gewählten Verschraubung
beschrieben. Durch Auszugversuche nach zyklischer Vorbelastung
konnte eine Resttragfähigkeit der Verbindung abgeschätzt werden, die im Betrag
deutlich über der im Betrieb einzuleitenden Anbindungskraft liegt. Der abschließende
Tragfähigkeitsnachweis der entwickelten Lasteinleitungslösungen erfolgte an Getriebekomponenten mit mechanisch gefügten Lagern und eingeschraubten Gewindeeinsätzen
in einem Technikumsprüfstand unter realen Betriebsbedingungen.
Den zweiten Schwerpunkt der Arbeit stellte die Erweiterung der Methodik zur
rechnerischen Lebensdauervorhersage von Mehrschichtverbunden unter Schwingermüdungsbeanspruchung
durch die Berücksichtigung werkstofflicher Nichtlinearitäten
und Delaminationsschädigungen dar. Die Modellierung des nichtlinearen Werkstoffverhaltens
erfolgte dabei basierend auf einer experimentellen Charakterisierung
eines zähmodifizierten Vinylester-Urethan-Hybrid-Harzsystems mit Kohlenstofffaserverstärkung.
In der Modellierung wurde das nichtlineare Verhalten der für die Lebensdauerberechnung
relevanten Werkstoffkenngrößen erfasst. Darüber hinaus
wurde der Steifigkeitsabfall eines quasi-isotropen Laminats unter Einstufenbelastung
experimentell bestimmt und anhand einer geeigneten mathematischen Formulierung
beschrieben. Aufgrund von dabei beobachteten großflächigen und mitunter vollständigen
Schichttrennungen wurde ein Ansatz zur mechanischen Beschreibung von
Laminaten mit Delaminationsschädigungen auf Grundlage der Klassischen Laminattheorie
entwickelt. Ein vorhandenes Lebensdaueranalyseprogramm auf dem
Prinzip des „critical element“-Konzepts wurde um einen Berechnungskern zur
schichtenweisen Versagensanalyse ergänzt. Die genannten Erweiterungen umfassten
Module zur nichtlinearen Spannungsanalyse auf Basis der Sekanten-Modul-
Iterationstechnik, zur Vorhersage von Zwischenfaserbruch-Versagen nach dem
Wirkebenenkriterium von Puck und zur Degradation von Steifigkeitskomponenten
nach dem Auftreten von Zwischenfaserbrüchen.
Anhand einfacher Berechnungsbeispiele wurde nachfolgend der Einfluss der werkstofflichen
Nichtlinearitäten auf die rechnerische Lebensdauervorhersage untersucht.
Abschließend erfolgte die Nachrechnung von Versuchsergebnissen am quasiisotropen
Laminat unter quasi-stochastischer Belastung (miniTWIST), wobei im
Allgemeinen eine sehr gute Übereinstimmung der rechnerischen Vorhersage mit
Versuchsergebnissen festgestellt wurde.
In recent years, formal property checking has become adopted successfully in industry and is used increasingly to solve the industrial verification tasks. This success results from property checking formulations that are well adapted to specific methodologies. In particular, assertion checking and property checking methodologies based on Bounded Model Checking or related techniques have matured tremendously during the last decade and are well supported by industrial methodologies. This is particularly true for formal property checking of computational System-on-Chip (SoC) modules. This work is based on a SAT-based formulation of property checking called Interval Property Checking (IPC). IPC originates in the Siemens company and is in industrial use since the mid 1990s. IPC handles a special type of safety properties, which specify operations in intervals between abstract starting and ending states. This paves the way for extremely efficient proving procedures. However, there are still two problems in the IPC-based verification methodology flow that reduce the productivity of the methodology and sometimes hamper adoption of IPC. First, IPC may return false counterexamples since its computational bounded circuit model only captures local reachability information, i.e., long-term dependencies may be missed. If this happens, the properties need to be strengthened with reachability invariants in order to rule out the spurious counterexamples. Identifying strong enough invariants is a laborious manual task. Second, a set of properties needs to be formulated manually for each individual design to be verified. This set, however, isn’t re-usable for different designs. This work exploits special features of communication modules in SoCs to solve these problems and to improve the productivity of the IPC methodology flow. First, the work proposes a decomposition-based reachability analysis to solve the problem of identifying reachability information automatically. Second, this work develops a generic, reusable set of properties for protocol compliance verification.
Colorectal cancer is the second most prevalent cancer form in both men and women in the Europe. In 2002, alimentary cancer (oesophagus, stomach, intestines) made up 26% of the annual incident cases of cancer amongst males in Europe, whereby about half of those were cancers of the colon and rectum (Eurostat 2002). Epidemiological evidence accumulating over the last decades indicates that besides a genetic disposition, diet plays a strong epigenetic role in the genesis of cancer. It is generally assumed that diet is causal for up to 80% of colorectal cancer (Bingham 2000). With the prospect of an approximated 50% rise in global cancer incidence over the first two decades of the 21st century, the World Health Organisation (WHO) has emphasized the need for an improvement in nutrition. Indeed there is increasing public health awareness with respect to nutrition. Today, living healthily is associated with less consumption of animal fats and red (processed) meat, moderate or no consumption of alcohol coupled with increased physical activity, and frequent intake of fruits, vegetables and whole grains (Bingham 1999; Johnson 2004). This idealogy partly stems from scientific epidemiological evidence supportive of an inverse correlation between the consumption of fruits and vegetables and the development cancer. Besides fibre and essential micro-nutrients like ascobate, folate, and tocopherols, the anti-carcinogenic properties of fruits and vegetables are generally thought to be rooted in the bioactivity of secondary plant components like flavonoids (Johnson 2004; Rice-Evans and Miller 1996; Rice-Evans 1995). Along with the increased public health awareness, has also come a burgeoning and lucrative dietary supplement industry, which markets products based on polyphenols and other potentially healthy compounds, sometimes with questionable promises of better health and increased longevity. These claims are based on accumulating in vitro and in vivo evidence indicating that flavonoids and polyphenols in fruits and vegetables can hinder proliferation, induce apoptosis of cancerous cells (Kern et al. 2005; Kumar et al. 2007; Thangapazham et al. 2007), act as antioxidants (Justino et al. 2006; Rice-Evans 1995) and influence cell signalling pathways (Marko et al. 2004; Joseph et al. 2007; Granado-Serrano et al. 2007), all of which are potential mechanisms proposed for their anti-carcinogenic activity. However, not only is the vast variety of supplements worrisome, but also problematic, is their easy accessibilty (just a click away on the internet) and the amount that can potentially be consumed. Such supplements are usually offered in pharmaceutical form (tablets, capsules, powder, concentrates) containing concentrations well beyond what is normally comsumable from the diet. For example, quercetin’s recommended intake is about 1g daily. However, estimates portend a possible daily increase of upto 1000 fold of the daily intake of quercetin (Hertog et al. 1995). Mindful of the concept of dose coined from the words of swiss scientist Paracelsus “What is it that is not poison? All things are poison and nothing is without poison. The right dose differentiates a poison and a remedy.” (“Alle Dinge sind Gift und nichts ist ohn’ Gift; allein die Dosis macht, dass ein Ding kein Gift ist”), it is thus conceivable that such high concentrations may not only reverse the acclaimed positive effects of flavonoids and polyphenols but also have negative effects thereby representing a health risk. The fact that direct evidence of the beneficial effects of flavonoids and polyphenols remains wanting, if not entirely lacking, coupled with the afore-mentioned marketing trend demands for a thorough examination of the possible adverse effects that may arise from increased consumption of flavonoids and polyphenols. The genesis and progression of cancer is usually accompanied by dysfunctional signalling of certain cell signalling pathways. Typical for colon carcinogenesis is the malfunctioning of the Wnt-signalling pathway, a pathway, which is crucial for the growth and development of normal colonocytes. The dysfunction of the Wnt-signalling pathway occurs in a manner that culminates in a proliferation stimulus of colonocytes, while differentiation is increasingly minimized. Hence, tumourigenesis is promoted. Interupting the proliferation stumuli by intervening in the actions of components of the Wnt-signalling pathway is one potential mechanism for the anti-carcinogenic action of flavonoids and polyphenols (Pahlke et al. 2006; Dashwood et al. 2002; Park et al. 2005). However, as previously hinted, the indulgence in the consumption of flavonoids and polyphenols based supplements could instead lead to a proliferation stimulus and provoke or promote carcinogenesis in normal cells or pre-cancerous cells respectively. The aim of this work was to
Diese Abhandlung dokumentiert wesentliche Forschungsergebnisse der Untersuchung von transluzenten Sandwichstrukturen in ihrer Eignung und Verwendbarkeit als tragende Konstruktionselemente in baulichen Strukturen. Vor dem Hintergrund der Bestrebungen, materialsparende und energieeffiziente Produkte für ein zunehmend komplexes Anforderungsprofil zu entwickeln, steigt seit einigen Jahren der Anteil konstruktiver Bauteile in Sandwichbauweise in der Architektur und im Bauwesen stetig an. Dabei spielt der Leichtbaucharakter dieser Bauweise eine entscheidende Rolle. Sandwichstrukturen sind aufgrund ihres geschichteten flächigen Aufbaus in der Regel als Platten oder Paneele erhältlich. Sie lassen sich als biegebeanspruchte Platten, Wandscheiben oder auch als räumlich gekrümmte Flächen verwenden und kombinieren. Seit einigen Jahren werden auch mehrschichtige Plattenwerkstoffe auf dem Markt angeboten, die aus lichtdurchlässigen Kunststoffen wie Acrylglas, Polycarbonat oder Glasfaserverstärkten Kunststoffen bestehen. Sie werden in unterschiedlichsten Formen, Farben, Strukturen und Abmessungen hergestellt. Die Bandbreite der Produktpalette orientiert sich dabei vor allem an den Herstellungsmöglichkeiten und marktgängigen Fertigungstechniken der Kunststoffindustrie. Betrachtet man den überwiegenden Teil der praktischen Anwendungen dieser Plattenmaterialien, so wird deutlich, dass ein großer Anteil der Verwendung den Sandwicheffekt gar nicht oder nur eingeschränkt nutzt. In diesem Zusammenhang steht vorrangig die Frage, welche dieser Produkte den Strukturprinzipien eines Sandwichverbundes wirklich entsprechen und die statisch-konstruktiven Vorzüge des Sandwichverbundes effektiv nutzen können. Bisherige Anwendungsschwerpunkte sind Messe- und Innenausbauten sowie Fassaden bei Freizeit- und Industriebauten. Die statisch-konstruktiven Potentiale, die der mehrschichtige Aufbau der Produkte teilweise mit sich bringt, bleiben aber weitgehend ungenutzt. Die konstruktive Verwendung und Fügung unterscheidet sich bisher nicht wesentlich von der monolithischer Plattenmaterialien. Kapitel 1 beschreibt einführend die grundlegenden Prinzipien der Sandwichbauweise und dient zur Definition von Begriffen und Bezeichnungen. Bezug nehmend zu opaken Sandwichstrukturen werden wesentliche Merkmale und grundlegende Eigenschaften transluzenter Sandwichstrukturen aufgezeigt. Basierend auf einer umfangreichen Produktanalyse sowie ausgewählten Anwendungsbeispielen wird in Kapitel 2 eine strukturbasierende Typologie transluzenter Sandwichstrukturen aufgestellt. Dabei werden unterschiedliche bauliche Eigenschaften überprüft und tabellarisch gegenübergestellt. Ein spezieller Fokus liegt dabei auf der Untersuchung, in welcher Weise das jeweilige Herstellungsverfahren Einfluss auf das jeweilige Eigenschaftsprofil der Plattenprodukte besitzt. In ausgewählten Projektbeispielen werden Stärken und Schwächen des bisherigen Einsatzes mit Schwerpunkt in bau- und tragkonstruktiver Hinsicht aufgezeigt und bewertet. In Kapitel 3 erfolgt die Untersuchung der in Kapitel 2 vorgestellten transluzenten Sandwichstrukturen in Form von Versuchsreihen hinsichtlich ihrer statisch-konstruktiven Fähigkeiten. Die resultierenden Ergebnisse bilden die Grundlage zur Beurteilung der konstruktiven Eignung der untersuchten Sandwichverbunde für tragwerksrelevante Anwendungen. Basierend auf den Versuchsergebnissen aus Kapitel 3 wird in Kapitel 4 der Plattentyp mit dem größten statisch-konstruktiven Potential einer weiterführenden Optimierung unterzogen. Hierbei werden zwei Ansätze verfolgt: zum einen die Optimierung der Deckschichtlage in ihrer Materialbeschaffenheit und Verbundwirkung, zum anderen die Optimierung der Kernschichtlage in Bezug auf die geometrische Struktur. In Kapitel 5 wird neben der tragkonstruktiven Eignung des in Kapitel 4 optimierten transluzenten Sandwichverbundes die baupraktische Verwendbarkeit und Einsatzfähigkeit untersucht. Hierzu werden erweiterte Anwendungsspektren in der Architektur und dem Messebau aufgezeigt. Ziel ist dabei die Nutzung der Sandwichplatte als Konstruktionsraum für Fügetechnik. Den aufgezeigten Potentialen für selbsttragende Anwendungen wird versucht, fügetechnisch zu begegnen. Die konstruktive Fügung ist Thema praktischer Detailstudien und Modellversuche zu material- und anwendungsgerechten Methoden des Fügens, die in diesem Kapitel exemplarisch aufgezeigt und bewertet werden. Zusammenfassende Schlussfolgerungen bilden den Abschluss mit einem Ausblick auf weiterführende Anknüpfungspunkte der Forschung.
In this thesis, the coupling of the Stokes equations and the Biot poroelasticity equations for fluid flow normal to porous media is investigated. For that purpose, the transmission conditions across the interfaces between the fluid regions and the porous domain are derived. A proper algorithm is formulated and numerical examples are presented. First, the transmission conditions for the coupling of various physical phenomena are reviewed. For the coupling of free flow with porous media, it has to be distinguished whether the fluid flows tangentially or perpendicularly to the porous medium. This plays an essential role for the formulation of the transmission conditions. In the thesis, the transmission conditions for the coupling of the Stokes equations and the Biot poroelasticity equations for fluid flow normal to the porous medium in one and three dimensions are derived. With these conditions, the continuous fully coupled system of equations in one and three dimensions is formulated. In the one dimensional case the extreme cases, i.e. fluid-fluid interface and fluid impermeable solid interface, are considered. Two chapters of the thesis are devoted to the discretisation of the fully coupled Biot-Stokes system for matching and non-matching grids, respectively. Therefor, operators are introduced that map the internal and boundary variables to the respective domains via Stokes equations, Biot equations and the transmission conditions. The matrix representation of some of these operators is shown. For the non-matching case, a cell-centred grid in the fluid region and a staggered grid in the porous domain are used. Hence, the discretisation is more difficult, since an additional grid on the interface has to be introduced. Corresponding matching functions are needed to transfer the values properly from one domain to the other across the interface. In the end, the iterative solution procedure for the Biot-Stokes system on non-matching grids is presented. For this purpose, a short review of domain decomposition methods is given, which are often the methods of choice for such coupled problems. The iterative solution algorithm is presented, including details like stopping criteria, choice and computation of parameters, formulae for non-dimensionalisation, software and so on. Finally, numerical results for steady state examples, depth filtration and cake filtration examples are presented.
In the present contribution, a general framework for the completely consistent integration of nonlinear dissipative dynamics is proposed, that essentially relies on Finite Element methods in space and time. In this context, fully flexible structures as well as hybrid systems which consist of rigid bodies and inelastic flexible parts are considered. Thereby, special emphasis is placed on the resulting algorithmic fulfilment of fundamental balance equations, and the excellent performance of the presented concepts is demonstrated by means of several representative numerical examples, involving in particular finite elasto-plastic deformations.
Sound surrounds us all the time and in every place in our daily life, may it be pleasant music in a concert hall or disturbing noise emanating from a busy street in front of our home. The basic properties are the same for both kinds of sound, namely sound waves propagating from a source, but we perceive it in different ways depending on our current mood or if the sound is wanted or not. In this thesis both pleasant sound as well as disturbing noise is examined by means of simulating the sound and visualizing the results thereof. However, although the basic properties of music and traffic noise are the same, one is interested in different features. For example, in a concert hall, the reverberation time is an important quality measure, but if noise is considered only the resulting sound level, for example on ones balcony, is of interest. Such differences are reflected in different methods of simulation and required visualizations, therefore this thesis is divided into two parts. The first part about room acoustics deals with the simulation and novel visualizations for indoor sound and acoustic quality measures, such as definition (original "Deutlichkeit") and clarity index (original "Klarheitsmaß"). For the simulation two different methods, a geometric (phonon tracing) and a wave based (FEM) approach, are applied and compared. The visualization techniques give insight into the sound behaviour and the acoustic quality of a room from a global as well as a listener based viewpoint. Furthermore, an acoustic rendering equation is presented, which is used to render interference effects for different frequencies. Last but not least a novel visualization approach for low frequency sound is presented, which enables the topological analysis of pressure fields based on room eigenfrequencies. The second part about environmental noise is concerned with the simulation and visualization of outdoor sound with a focus on traffic noise. The simulation instruction prescribed by national regulations is discussed in detail, and an approach for the computation of noise volumes, as well as an extension to the simulation, allowing interactive noise calculation, are presented. Novel visualization and interaction techniques for the calculated noise data, incorporated in an interactive three dimensional environment, enabling the easy comprehension of noise problems, are presented. Furthermore additional information can be integrated into the framework to enhance the visualization of noise and the usability of the framework for different usages.
Fragmentation of habitats, especially of tropical rainforests, ranks globally among the most pervasive man-made disturbances of ecosystems. There is growing evidence for long-term effects of forest frag-mentation and the accompanying creation of artificial edges on ecosystem functioning and forest structure, which are altered in a way that generally transforms these forests into early successional systems. Edge-induced disruption of species interactions can be among the driving mechanisms governing this transformation. These species interactions can be direct (trophic interactions, competition, etc.) or indirect (modification of the resource availability for other organisms). Such indirect interactions are called ecosystem engineering. Leaf-cutting ants of the genus Atta are dominant herbivores and keystone-species in the Neotropics and have been called ecosystem engineers. In contrast to other prominent ecosystem engineers that have been substantially decimated by human activities some species of leaf-cutting ants profit from anthropogenic landscape alterations. Thus, leaf-cutting ants are a highly suitable model to investigate the potentially cascading effects caused by herbivores and ecosystem engineers in modern anthropogenic landscapes following fragmentation. The present thesis aims to describe this interplay between consequences of forest fragmentation for leaf-cutting ants and resulting impacts of leaf-cutting ants in fragmented forests. The cumulative thesis starts out with a review of 55 published articles demonstrating that herbivores, especially generalists, profoundly benefit from forest edges, often due to (1) favourable microenviron-mental conditions, (2) an edge-induced increase in food quantity/quality, and (3; less well documented) disrupted top-down regulation of herbivores (Wirth, Meyer et al. 2008; Progress in Botany 69:423-448). Field investigations in the heavily fragmented Atlantic Forest of Northeast Brazil (Coimbra forest) were subsequently carried out to evaluate patterns and hypotheses emerging from this review using leaf-cutting ants of the genus Atta as a model system. Colony densities of both Atta species occuring in the area changed similarly with distance to the edge but the magnitude of the effect was species-specific. Colony density of A. cephalotes was low in the forest interior (0.33 ± 1.11 /ha, pooling all zones >50 m into the forest) and sharply increased by a factor of about 8.5 towards the first 50 m (2.79 ± 3.3 /ha), while A. sexdens was more uniformly distributed (Wirth, Meyer et al. 2007; Journal of Tropical Ecology 23:501-505). The accumulation of Atta colonies persisted at physically stable forest edges over a four-year interval with no significant difference in densities between years despite high rates of colony turn-over (little less than 50% in 4 years). Stable hyper-abundant populations of leaf-cutting ants accord with the constantly high availability of pioneer plants (their preferred food source) as previously demonstrated at old stabilised forest edges in the region (Meyer et al. submitted; Biotropica). In addition, plants at the forest edge might be more attractive to leaf-cutting ants because of their physiological responses to the edge environment. In bioassays with laboratory colonies I demonstrated that drought-stressed plants are more attractive to leaf-cutting ants because of an increase in leaf nutrient content induced by osmoregulation (Meyer et al. 2006; Functional Ecology 20:973-981). Since plants along forest edges are more prone to experience drought stress, this mechanism might contribute to the high resource availabil-ity for leaf-cutting ants at forest edges. In light of the hyper-abundance of leaf-cutting ants within the forest edge zone (first 50 m), their po-tentially far-reaching ecological importance in anthropogenic landscapes is apparent. Based on previous colony-level estimates, we extrapolated that herbivory by A. cephalotes removes 36% of the available foliage at forest edges (compared to 6% in the forest interior). In addition, A. cephalotes acted as ecosys-tem engineers constructing large nests (on average 55 m2: 95%-CI: 22-136) that drastically altered forest structure. The ants opened gaps in the canopy and forest understory at nest sites, which allowed three times as much light to reach the nest surface as compared to the forest understory. This was accompa-nied by an increase in soil temperatures and a reduction in water availability. Modifications of microcli-mate and forest structure greatly surpassed previously published estimates. Since higher light levels were detectable up to about 4 m away from the nest edge, an area roughly four times as big as the actual nest (about 200 and 50 m2, respectively) was impacted by every colony, amounting to roughly 6% of the total area at the forest edge (Meyer et al. in preparation; Ecology). The hypothesized impacts of high cutting pressure and microclimatic alterations at nest sites on forest regeneration were directly tested using transplanted seedlings of six species of forest trees. Nests of A. cephalotes differentially impacted survival and growth of seedlings. Survival differed highly significantly between habitats and species and was generally high in the forest, yet low on nests where it correlated strongly with seed size of the species. These results indicate that the disturbance regime created by leaf-cutting ants differs from other distur-bances, since nest conditions select for plant species that profit from additional light, yet are large-seeded and have resprouting abilities, which are best suited to tolerate repeated defoliation on a nest (Meyer et al. in preparation; Journal of Tropical Ecology). On an ecosystem scale leaf-cutting ants might amplify edge-driven microclimatic alterations by very high rates of herbivory and the maintenance of canopy gaps above frequent nests. By allowing for an increased light penetration Atta may, ultimately, contribute to a dominating, self-replacing pioneer communities at forest edges, possibly creating a positive feed-back loop. Based on the persisting hyper-abundance of leaf-cutting ants at old edges of Coimbra forest and the multifarious impacts documented, we conclude that the ecological importance of leaf-cutting ants in pristine forests, where they are commonly believed to be keystone species despite very low colony densities, is greatly surpassed in anthropogenic landscapes In fragmented forests, Atta has been identified as an essential component of a disturbance regime that causes a post-fragmentation retrogressive succession. Apparently, these forests have reached a new self-replacing secondary state. I suggest additional human interference in form of thoughtful management in order to break this cycle of self-enhancing disturbance and to enable forest regeneration along the edges of threatened forest remnants. Thereby the situation of the forest as a whole can be ameliorated and the chances for a long-term retention of biodiversity in these landscapes increased.
Structuring global supply chain networks is a complex decision-making process. The typical inputs to such a process consist of a set of customer zones to serve, a set of products to be manufactured and distributed, demand projections for the different customer zones, and information about future conditions, costs (e.g. for production and transportation) and resources (e.g. capacities, available raw materials). Given the above inputs, companies have to decide where to locate new service facilities (e.g. plants, warehouses), how to allocate procurement and production activities to the variousmanufacturing facilities, and how to manage the transportation of products through the supply chain network in order to satisfy customer demands. We propose a mathematical modelling framework capturing many practical aspects of network design problems simultaneously. For problems of reasonable size we report on computational experience with standard mathematical programming software. The discussion is extended with other decisions required by many real-life applications in strategic supply chain planning. In particular, the multi-period nature of some decisions is addressed by a more comprehensivemodel, which is solved by a specially tailored heuristic approach. The numerical results suggest that the solution procedure can identify high quality solutions within reasonable computational time.
For almost thirty years bast fibers such as flax, hemp, kenaf, sisal and jute have been
used as reinforcing material in the molding process of both thermoplastic and thermoset
matrices. The main application areas of these natural fiber reinforced composites
in Europe are limited almost exclusively to the passenger car range. Typical
components are door panels, rear parcel shelves, instrument boards and trunk linings.
Natural fiber reinforced composites have become prevalent due to their good
mechanical properties and their low production costs. The main advantage in applying
natural fibers as reinforcement in composite materials is the price. Nowadays this
argument becomes more and more important due to the scarcity of synthetic raw materials
and consequently, their rising prices. Additionally the low density (approx.
1.5 g/cm³) of natural fibers confers them a very good lightweight potential. Other advantageous
features of natural fiber composites include very good processing and
acoustic properties. Further benefits such as good life cycle assessment and easier
processability compared to glass fiber material should also be taken into account.
Disadvantages of natural fibers are unevenness of the fiber quality and varying fiber
characteristics due to differences in soil, climate and fiber separation and their low
heat resistance (at temperatures exceeding 220 °C, some fiber components start
thermal degradation). Another disadvantage of natural fiber reinforced materials is
that with some matrices (mostly thermoplastic polymers) a sufficient impregnation of
the fibers can only be achieved if the fiber content in the composite is kept low, usually
below 50 wt.-%. Under these conditions the best performance of the natural fiber
reinforcement can not be realized. Another disadvantage of non-impregnated thermoplastic
prepregs is the long processing cycle times, which result from heating up
the enclosed air in the prepreg during the process. Alternatively pure natural fiber
based non-woven fabrics are impregnated with thermoset systems. Due to the relatively
simple handling compared to alternative procedures, the thermoforming of thermoset
bonded prepregs is a very promising method for manufacturing natural fiber
reinforced components.
In this work, a novel general concept for natural fiber reinforced composites with a
natural fiber content of approx. 80 wt.-% and a thermoset matrix is developed. A suitable
material combination as well as an optimal process execution that help to meet the technical requirements for the natural fiber reinforced composites will be demonstrated.
Hemp and kenaf have been chosen as reinforcement fibers. In this work it is shown
that hemp and kenaf can be used as successful reinforcement alternatives to the
more established flax fibers in composite materials. Short flax fibers, which are commonly
used as reinforcement in composites (approx. 67 % for the German automotive
applications), are the “waste” of the long fiber production and their availability
and price strongly depend on the demand of the long fibers from the textile industry
and therefore their cost can strongly fluctuate, as it has been demonstrated in the
past few years. In contrast fiber plants such as hemp and kenaf are especifically cultivated
for technical applications and their availability and price is much more stable.
For their application a profound knowledge of the structural and mechanical properties
of the fibers is indispensable. In this work single filament tensile tests on these
two types of natural fibers are carried out. The cross-section area of both fibers, necessary
for the calculation of the tensile properties, was intensively studied using light
microscopy and Scanning Electron Microscopy (SEM) analysis. Because the occurrence
of flaws within the fiber is random in nature, tensile strength data of these fibers
was statistically analyzed using the Weibull distribution. The strengths were estimated
by means of Weibull statistics and then were compared to experimentally
measured strengths.
For a better handling of the material, both kenaf and hemp fibers were manufactured
to needle punched fiber mats. For the impregnation of the natural fiber mats, a Foulard-
process with the thermoset matrix as an aqueous solution was employed. The
reproducibility of this impregnation process was examined. Different matrix systems
with different chemical compositions were applied on the needle punched fiber mats.
The impregnated prepregs were heated and consolidated to components in a onestep-
process. A big advantage of this procedure is the short cycle times, since no
additional pre-heating process is required, in contrast to thermoplastic bonded prepregs.
Additionally, a parameter study of the mechanical properties of the composites
was performed. The best matrix system satisfying the work conditions and properties
of the composites was chosen to carry out the next working step, namely optimization of the compression molding process for the thermoset bonded natural fiber prepregs.
Apart from the material composition of prepregs, general processing parameters
such as temperature, time and pressure play a decisive role for the quality of structures
made of natural fiber reinforced polymers. The impregnated prepregs were
consolidated in a one-step-process to components. A systematic parameter study of
the influence of the relevant process parameters on the characteristics of manufactured
components was performed. Mould temperatures over 200 °C lead to thermal
degradation of the fibers. This temperature should not be exceeded when working
with natural fibers. Furthermore, the composites clearly display a dependence on the
processing pressure. The flexural properties increase with increasing manufacturing
pressures between 15 and 60 bar, reaching a maximum at 60 bar. At higher pressures
(80 to 200 bar) a decrease of the flexural properties is demonstrated. SEM images
of the fracture surface of the composites show that the decrease of the mechanical
properties is related to structural damage of the fiber.
A new technology allowing pressing under vacuum conditions was developed and
tested. The press is equipped with a vacuum chamber and achieves very short cycle
processing times (up to less than one minute during the compression molding). The
aspiration connections of the vacuum chamber ensure that the residual moisture and
the condensation products of the matrix chemical reaction could be directly evacuated.
This type of press ensures also very safe processing and working conditions.
The properties of the components fulfill the technical specifications for natural fiber
reinforced polymers for use in the car interior. This versatile composite material is not
only limited to automotive applications, but may also be used for product manufacturing
in other industries. This work shows that the process parameters can be optimized
to fit a particular application.
An easy numerical handling of time-dependent problems with complicated geometries, free moving boundaries and interfaces, or oscillating solutions is of great importance for many applications, e.g., in fluid dynamics (free surface and multiphase flows, fluid-structure interactions [22, 18, 24]), failure mechanics (crack growth and propagation [4]), magnetohydrodynamics (accretion disks, jets and cloud simulation [6]), biophysics and -chemistry. Appropriate discretizations, so-called mesh-less methods, have been developed during the last decades to meet these challenging demands and to relieve the burden of remeshing and successive mesh generation being faced by the conventional mesh-based methods, [16, 10, 3]. The prearranged mesh is an artificial constraint to ensure compatibility of the mesh-based interpolant schemes, that often conflicts with the real physical conditions of the continuum model. Then, remeshing becomes inevitable, which is not only extremely time- and storage consuming but also the source for numerical errors and hence the gradual loss of computational accuracy. Apart from this advantage, mesh-less methods also lead to fundamentally better approximations regarding aspects, such as smoothness, nonlocal interpolation character, flexible connectivity, refinement and enrichment procedures, [16]. The common idea of mesh-less methods is the discretization of the domain of interest by a finite set of independent, randomly distributed particles moving with a characteristic velocity of the problem. Location and distribution of the particles then account for the time-dependent description of the geometry, data and solution. Thereby, the global solution is linearly superposed from the local information carried by the particles. In classical particle methods [20, 21], the respective weight functions are Dirac distributions which yield solutions in a distributional sense.
Durch Modelle werden komplexe Zusammenhänge der Realität vereinfacht beschrieben. Die Frage, wie räumliche Objekte und Beziehungen vereinfacht werden, ist Gegenstand der Geomodellierung. Teil B der vorliegenden Arbeit gibt eine Ein-führung in Modelltypen und Methoden der Geomodellierung in den beiden Anwen-dungsdisziplinen Stadtplanung und Immobilienwirtschaft. Teil C fokussiert auf ein konkretes Anwendungsfeld der Geomodellierung: Behandelt wird die Modellierung von Angebot und Nachfrage sowie von Preisen und Leerständen auf Büroflächen-märkten. Teil D zeigt die Anwendung der Geomodellierung in der Büromarktanalyse anhand einer exemplarischen Geoinformationssystem-gestützten Fallstudie in Stuttgart. Geomodellierung greift dabei sowohl auf die Modellierung geometrischer Daten unter Rückgriff auf Städtebau, Geodäsie und Computergrafik zurück, als auch auf eine in der Tradition von Stadt- und Regionalökonomie stehende quantitative Mo-dellierung von (räumlichen) Ursache-Wirkungs-Beziehungen. Eine zentrale These der Arbeit besteht darin, dass diese beiden Modellierungsansätze sich zunehmend ineinander integrieren. Geoinformationssysteme bilden ein wichtiges Werkzeug zur parallelen Bearbeitung sowohl der graphischen als auch der alphanumerischen Datengrundlagen für Anwendungsfälle. Dabei müssen jedoch aktuelle technische Entwicklungen im geometrischen Bereich (3D-Stadtmodelle, nutzergenerierte Geodaten, Web-GIS), die umfangreiche wissenschaftliche Tradition der räumlichen-quantitativen Modelle von den systemdynamischen Modellen der sechziger Jahren bis zur Stadtsimulation von heute sowie neuere Erkenntnisse im Bereich der räumlichen Ökonometrie berücksichtigt werden. Die Bedeutung dieser Methoden und Werkzeuge der Geomodeliierung wird für verschiedene Anwendungsfelder in Stadtplanung und Immobilienwirtschaft diskutiert. Die Büromarktmodellierung als Anwendungsfeld der Geomodellierung kann sowohl auf planerisch-räumlich geprägte Ansätze zur Bedarfsprognose als auch auf öko-nometrische Ansätze zur dynamischen Modellierung von Büromarktzyklen zurückgreifen. Räumlich-ökonometrisch arbeitet das hedonische Preismodell zur regressionsanalytischen Bestimmung bspw. von Mieten, welches sich auch zur Abschätzung von Leerstandswahrscheinlichkeiten verwenden lässt. Es ist allerdings rein statisch. Um räumliche und dynamische Modelle auch in der Büromarktanalyse anwendbar zu machen, greift die Arbeit nach Darstellung der genannten Ansätze auf die Modelle der Stadtsimulation zurück und überträgt diese auf den Markt für Büroflächen. Die Anwendung der Modelle wird für private und öffentliche Akteure auf dem Büroflächenmarkt diskutiert. Die Anwendung der Modelle erfolgt exemplarisch in einer Fallstudie des Büroflächenmarktes der Stadt Stuttgart. Die Vorteile Stuttgarts liegen in der Verfügbarkeit umfangreicher Mikrodaten (Gebäudebestand, Umzugsdatensample). Zudem ist Stuttgart groß genug, um ein interessanter Büroflächenmarkt zu sein, aber wieder-um angesichts der Branchenstruktur repräsentativ genug, um auch als Vorbilduntersuchung für andere Städte gelten zu können. Als beschreibende Variable für die Schätzgleichungen werden durch den Einsatz des Geoinformationssystems Arc-View Bürogebäude und umziehende Nutzer durch Gebäude-, Lage- und Umfeld-eigenschaften beschrieben. Ein Mehrgleichungs-Marktzyklen-Modell, das hedonische Preismodell, die Übertragung des hedonischen Preismodells auf die Leer-standswahrscheinlichkeit sowie die Mikrosimulation werden abschließend für Stutt-gart ökonometrisch geschätzt und die Ergebnisse diskutiert.
In dieser Arbeit konnte durch ein Assay-System, das ausgehend von publizierten Methoden für S. pneumoniae adaptiert wurde, eine inter- und intraspezies Inhibierung anderer Stämme nachgewiesen werden. Dies gilt für die zwei S. pneumoniae TIGR4 und R6 in denen Bacteriocingene beschrieben waren ebenso, wie für Vertreter gobal verbreiteter Isolate verschiedener Serotypen und unterschiedlicher klonaler Zugehörigkeit. Da bei den verschiedenen Stämmen Unterschiede in der Hemmstärke und im Wirkspektrum beobachtet wurden, wurde sowohl das die Bacteriocingene enthaltene pnc-Cluster, wie auch das spi-Regulationscluster einiger Stämme sequenziert und genauer analysiert. Einige der im pnc-Cluster von S. pneumoniae identifizierten ORFs ließen sich anhand der Merkmale ihrer Genprodukte zu Bacteriocinen der Klasse IIb zu ordnen. Sie besitzen alle gut konservierte Leader-Peptide, variieren jedoch in der AS-Sequenz und im pI ihrer Propeptide. Des Weiteren befinden sich Gene für Immunitätsproteine, Membranproteine, IS-Elemente, AAXProteasen und hypothetische Proteine in den untersuchten pnc-Clustern. Das spi-Cluster zeigte bereits in vorhergehenden Versuchen Einfluss auf die Regulation der stromabwärts gelegenen Gene des pnc-Clusters (de Saizieu et al., 2000; Reichmann & Hakenbeck, 2000). Es ließen sich z.T. Unterschiede in den AS-Sequenzen der Histidinkinase SpiH, dem ABCTransporter SpiABCD und dem Peptidpheromon SpiP zwischen den untersuchten Stämmen erkennen. Damit ließ sich die Selektivität des QS-Regulationsmechanismus, wie er bereits beschrieben wurde, erklären (de Saizieu et al., 2000; Reichmann & Hakenbeck, 2000). Die Bedeutung des spi-TCS, des SpiABCD-Transporter und der CAAX-Protease für Regulation, Produktion und Immunität der Bacteriocinproduktion konnte durch Mutationsanalyse am Beispiel von S. pneumoniae 2306 nachgewiesen werden. Offensichtlich existieren im Stamm S. pneumoniae 2306 jedoch noch andere Bacteriocingene außerhalb des pnc-Clusters, die u.a. auf Grund fehlender genomischer Information nicht identifiziert werden konnten. Die biologische Bedeutung der Bacteriocinproduktion ist vermutlich im Konkurrenzkampf um ökologische Nischen, bzw. Steigerung von möglichen DNA-Rekombinationsereignissen in natürlich kompetenten Streptokokkenspezies durch erhöhte Freisetzung von DNA verwandter Arten zu sehen. Als ein besonders starker Bacteriocinproduzent mit einem breiten Wirkspektrum stellte sich S. pneumonaie 632 heraus. Dies könnte auf einen Zusammenhang mit der globalen Verbreitung hindeuten und stellt somit einen interessanten Aspekt für weitere Forschungen dar.
Summary. We present a model of exible rods | based on Kirchhoff\\\'s geometrically exact theory | which is suitable for the fast simulation of quasistatic deformations within VR or functional DMU applications. Unlike simple models of \\\"mass & spring\\\" type typically used in VR applications, our model provides a proper coupling of bending and torsion. The computational approach comprises a variational formulation combined with a nite dierence discretization of the continuum model. Approximate solutions of the equilibrium equations for sequentially varying boundary conditions are obtained by means of energy minimization using a nonlinear CG method. The computational performance of our model proves to be sucient for the interactive manipulation of exible cables in assembly simulation.
Recently we developed a discrete model of elastic rods with symmetric cross section suitable for a fast simulation of quasistatic deformations [33]. The model is based on Kirchhoff’s geometrically exact theory of rods. Unlike simple models of “mass & spring” type typically used in VR applications, our model provides a proper coupling of bending and torsion. The computational approach comprises a variational formulation combined with a finite difference discretization of the continuum model. Approximate solutions of the equilibrium equations for sequentially varying boundary conditions are obtained by means of energy minimization using a nonlinear CG method. As the computational performance of our model yields solution times within the range of milliseconds, our approach proves to be sufficient to simulate an interactive manipulation of such flexible rods in virtual reality applications in real time.