Refine
Year of publication
- 2004 (55) (remove)
Document Type
- Doctoral Thesis (55) (remove)
Has Fulltext
- yes (55)
Keywords
- Flüssig-Flüssig-Extraktion (3)
- Simulation (3)
- Harnstoff (2)
- Hydrodynamik (2)
- Polymere (2)
- SOC (2)
- auditory brainstem (2)
- 2-D-Elektrophorese (1)
- ADAM10 (1)
- Abgasnachbehandlung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Biologie (10)
- Kaiserslautern - Fachbereich Chemie (10)
- Kaiserslautern - Fachbereich Mathematik (7)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Informatik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Physik (1)
In Deutschland und einigen anderen Ländern ist das Mischsystem weit verbreitet. Aus diversen Gründen (z.B. aus Kostenaspekten) ist es aber bei Regenwetter nicht immer möglich, den gesamten Mischwasserabfluss auch zur Kläranlage weiter zu leiten. Ein gewisser Anteil des Mischwasserabflusses muss daher entweder im Kanalnetz zwischengespeichert oder aber über Entlastungsbauwerke direkt in die Einleitgewässer abgeschlagen werden, woraus erhebliche Gewässerbelastungen resultieren können. Hinzu kommt, dass die Teilsysteme "Kanalnetz" und "Kläranlage" meist noch unabhängig voneinander betrieben werden, sodass es zu Entlastungsereignissen kommen kann, obwohl zur gleichen Zeit an anderer Stelle im Gesamtsystem noch freie Speicher- und/oder Behandlungskapazitäten zur Verfügung stehen. Deshalb gewinnen seit einigen Jahren sog. integrierte Ansätze an Bedeutung, die versuchen, Kanalnetz und Kläranlage mit Hilfe von MSR-Technik in Abhängigkeit der jeweils aktuellen Leistungsfähigkeit dieser Teilsysteme zu betreiben, um dadurch die Emissionen und ggf. die Kosten zu verringern. Man kann daher in der neueren Literatur zahlreiche Veröffentlichungen zu diesem Themenkomplex finden, die sich jedoch bisher praktisch nur mit Durchlaufkläranlagen beschäftigt haben. SBR-Kläranlagen wurden diesbezüglich bisher vernachlässigt, obwohl diese Technologie prinzipiell durch eine ganze Reihe von Vorteilen gekennzeichnet ist. Zahlreiche großtechnische SBR-Kläranlagen belegen zudem, dass sich dieses Verfahren auch sehr gut zur Mischwasserbehandlung eignet. Wegen dieser Randbedingungen erschien es sinnvoll, auch integrierte MSR-Strategien für SBR-Anlagen zu entwickeln. Im Rahmen dieser Arbeit wurden daher auf der 2000 in Betrieb genommenen SBR-Kläranlage Messel (5.500 EW) zahlreiche Untersuchungen durchgeführt, um den Nutzen und die Machbarkeit derartiger Konzepte zu untersuchen. Diese nach den üblichen Regelwerken für Nitrifikation, Denitrifikation, biologische Phosphorelimination und aerobe Schlammstabilisierung bemessene Kläranlage ist typisch für eine Reihe weiterer ähnlicher Anlagen. Um das Potenzial eines integrierten Ansatzes zu ermitteln, wurden detaillierte Kanalnetz- und Kläranlagenmodelle erstellt und kalibriert, mit denen zahlreiche Untersuchungen durchgeführt wurden. Ferner wurden die umfangreichen Betriebsdaten ausgewertet. Dabei konnte festgestellt werden, dass die Anlage über beachtliche Reserven verfügt, die z.B. für Zwecke einer erhöhten Mischwasserbehandlung genutzt werden könnten. Mit Hilfe der Modelle und ergänzender großtechnischer Untersuchungen wurden anschließend verschiedene integrierte MSR-Strategien am Computer entwickelt und bezüglich ihres Nutzens bewertet. Die Ergebnisse der integrierten Simulation zeigen beispielsweise, dass es mit Hilfe dieser Strategien möglich erscheint, die Zuflussmenge zur Kläranlage um bis zu 50 % über den Planungswert zu erhöhen, ohne die strengen Überwachungswerte zu überschreiten. Die Ergebnisse zeigen weiterhin, dass es durch eine Erhöhung der Zuflussmenge möglich ist, die Gesamtemissionen aus Kanalnetz und Kläranlage - v.a. bezüglich CSB - und die Anzahl der Entlastungsereignisse deutlich zu verringern. Eine durchgeführte Kostenbetrachtung verdeutlicht, dass ein derartiger Ansatz - trotz der geringen Größe dieser Anlage - nicht nur ökologisch, sondern auch ökonomisch sinnvoll ist. Damit erscheint es wünschenswert, dass zukünftig auch die großtechnische Umsetzung integrierter Ansätze für SBR-Kläranlagen und Mischkanalisationen in Angriff genommen wird, um die bisher gewonnenen Erkenntnisse in der Praxis zu verifizieren.
In this dissertation we consider complex, projective hypersurfaces with many isolated singularities. The leading questions concern the maximal number of prescribed singularities of such hypersurfaces in a given linear system, and geometric properties of the equisingular stratum. In the first part a systematic introduction to the theory of equianalytic families of hypersurfaces is given. Furthermore, the patchworking method for constructing hypersurfaces with singularities of prescribed types is described. In the second part we present new existence results for hypersurfaces with many singularities. Using the patchworking method, we show asymptotically proper results for hypersurfaces in P^n with singularities of corank less than two. In the case of simple singularities, the results are even asymptotically optimal. These statements improve all previous general existence results for hypersurfaces with these singularities. Moreover, the results are also transferred to hypersurfaces defined over the real numbers. The last part of the dissertation deals with the Castelnuovo function for studying the cohomology of ideal sheaves of zero-dimensional schemes. Parts of the theory of this function for schemes in P^2 are generalized to the case of schemes on general surfaces in P^3. As an application we show an H^1-vanishing theorem for such schemes.
Mineralische Dichtungen werden in Kombination mit Kunststoffdichtungsbahnen als Deponieabdichtungen verwendet, um eine umweltverträgliche Ablagerung der Abfälle sicherzustellen. Diese Abdichtungsfunktion kann durch Austrocknung beeinträchtigt werden. Im Rahmen der vorliegenden Arbeit werden Untersuchungen zur Entstehung von Austrocknungsrissen in mineralischen Deponiebasisabdichtungen durchgeführt. Diese Untersuchungen befassen sich einerseits mit dem Wassertransport in der mineralischen Dichtung und andererseits mit dem Zugverhalten des Bodens. Daraus wird ein Risskriterium entwickelt, das zusammen mit den Ergebnissen der numerischen Berechnungen für die Vorhersage der Rissentstehung infolge Austrocknung einer mineralischen Dichtung verwendet wird. Einer der ersten Untersuchungsschritte ist die experimentelle Ermittlung der pF-Kurve. Danach folgen experimentelle Untersuchungen zur Ermittlung der Transportkenngrößen. Der Einfluss einer Änderung der Porenzahl von \Delta e \approx 0.1, einer Temperatur von T=40°C sowie der Änderung des Einbauwassergehaltes auf die Transportkenngrößen wird untersucht. Für die experimentellen Untersuchungen zum Schrumpf- und Zugverhalten werden eigene, neu entwickelte Versuchsstände verwendet. In den Versuchen zum Schrumpfverhalten ergibt sich ein Zusammenhang zwischen den Schrumpfdehnungen der Bodenproben und deren Sättigungsgraden. In den Versuchen zum Zugverhalten werden die Zugeigenschaften des verwendeten bindigen Bodens untersucht. Einflussgrößen sind dabei der Wassergehalt, die Porenzahl, die Temperatur und der Spannungszustand. In den numerischen Berechnungen wird zuerst ein Versuch zur Ermittlung der ungesättigten Wasserleitfähigkeit simuliert. Die numerischen Ergebnisse werden mit den Versuchsergebnissen verglichen, um die Güte der verwendeten hydraulischen Beziehungen zu überprüfen. Danach wird beispielhaft eine numerische Berechnung für die Lösung eines Randwertproblems durchgeführt, in der die Rissentstehung infolge Verdunstung in einer mineralischen Dichtung vorausgesagt wird. Aus den berechneten Beispielen wird ersichtlich, dass die Voraussage der infolge Austrocknung entstehenden Risse numerisch möglich ist und die Risstiefen berechenbar sind.
In this text we survey some large deviation results for diffusion processes. The first chapters present results from the literature such as the Freidlin-Wentzell theorem for diffusions with small noise. We use these results to prove a new large deviation theorem about diffusion processes with strong drift. This is the main result of the thesis. In the later chapters we give another application of large deviation results, namely to determine the exponential decay rate for the Bayes risk when separating two different processes. The final chapter presents techniques which help to experiment with rare events for diffusion processes by means of computer simulations.
Materials in general can be divided into insulators, semiconductors and conductors,
depending on their degree of electrical conductivity. Polymers are classified as
electrically insulating materials, having electrical conductivity values lower than 10-12
S/cm. Due to their favourable characteristics, e.g. their good physical characteristics,
their low density, which results in weight reduction, etc., polymers are also
considered for applications where a certain degree of conductivity is required. The
main aim of this study was to develop electrically conductive composite materials
based on epoxy (EP) matrix, and to study their thermal, electrical, and mechanical
properties. The target values of electrical conductivity were mainly in the range of
electrostatic discharge protection (ESD, 10-9-10-6 S/cm).
Carbon fibres (CF) were the first type of conductive filler used. It was established that
there is a significant influence of the fibre aspect ratio on the electrical properties of
the fabricated composite materials. With longer CF the percolation threshold value
could be achieved at lower concentrations. Additional to the homogeneous CF/EP
composites, graded samples were also developed. By the use of a centrifugation
method, the CF created a graded distribution along one dimension of the samples.
The effect of the different processing parameters on the resulting graded structures
and consequently on their gradients in the electrical and mechanical properties were
systematically studied.
An intrinsically conductive polyaniline (PANI) salt was also used for enhancing the
electrical properties of the EP. In this case, a much lower percolation threshold was
observed compared to that of CF. PANI was found out to have, up to a particular
concentration, a minimal influence on the thermal and mechanical properties of the
EP system.
Furthermore, the two above-mentioned conductive fillers were jointly added to the EP
matrix. Improved electrical and mechanical properties were observed by this
incorporation. A synergy effect between the two fillers took place regarding the
electrical conductivity of the composites.
The last part of this work was engaged in the application of existing theoretical
models for the prediction of the electrical conductivity of the developed polymer composites. A good correlation between the simulation and the experiments was
observed.
Allgemein werden Materialien in Bezug auf ihre elektrische Leitfähigkeit in Isolatoren,
Halbleiter oder Leiter unterteilt. Polymere gehören mit einer elektrischen Leitfähigkeit
niedriger als 10-12 S/cm in die Gruppe der Isolatoren. Aufgrund vorteilhafter
Eigenschaften der Polymere, wie z.B. ihren guten physikalischen Eigenschaften,
ihrer geringen Dichte, welche zur Gewichtsreduktion beiträgt, usw., werden Polymere
auch für Anwendungen in Betracht gezogen, bei denen ein gewisser Grad an
Leitfähigkeit gefordert wird. Das Hauptziel dieser Studie war, elektrisch leitende
Verbundwerkstoffe auf der Basis von Epoxidharz (EP) zu entwickeln und deren
elektrische, mechanische und thermische Eigenschaften zu studieren. Die Zielwerte
der elektrischen Leitfähigkeit lagen hauptsächlich im Bereich der Vermeidung
elektrostatischer Aufladungen (ESD, 10-9-10-6 S/cm).
Bei der Herstellung elektrisch leitender Kunststoffen wurden als erstes
Kohlenstofffasern (CF) als leitfähige Füllstoffe benutzt. Bei den durchgeführten
Experimenten konnte man beobachten, dass das Faserlängenverhältnis einen
bedeutenden Einfluss auf die elektrischen Eigenschaften der fabrizierten
Verbundwerkstoffe hat. Mit längeren CF wurde die Perkolationsschwelle bereits bei
einer niedrigeren Konzentration erreicht. Zusätzlich zu den homogenen CF/EP
Verbundwerkstoffen, wurden auch Gradientenwerkstoffe entwickelt. Mit Hilfe einer
Zentrifugation konnte eine gradierte Verteilung der CF entlang der Probenlängeachse
erreicht werden. Die Effekte der unterschiedlichen Zentrifugationsparameter
auf die resultierenden Gradientenwerkstoffe und die daraus
resultierenden, gradierten elektrischen und mechanischen Eigenschaften wurden
systematisch studiert.
Ein intrinsisch leitendes Polyanilin-Salz (PANI) wurde auch für das Erhöhen der
elektrischen Eigenschaften des EP benutzt. In diesem Fall wurde eine viel niedrigere
Perkolationsschwelle verglichen mit der von CF beobachtet. Der Einsatz von PANI hat bis zu einer bestimmten Konzentration nur einen minimalen Einfluß auf die
thermischen und mechanischen Eigenschaften des EP Systems.
In einem dritte Schritt wurden die zwei oben erwähnten, leitenden Füllstoffe
gemeinsam der EP Matrix hinzugefügt. Erhöhte elektrische und mechanische
Eigenschaften wurden in diesem Fall beobachtet, wobei sich ein Synergie-Effekt
zwischen den zwei Füllstoffen bezogen auf die elektrische Leitfähigkeit der
Verbundwerkstoffe ergab.
Im letzten Teil dieser Arbeit fand die Anwendung von theoretischen Modelle zur
Vorhersage der elektrischen Leitfähigkeit der entwickelten Verbundwerkstoffe statt.
Dabei konnte eine gute Übereinstimmung mit den experimentellen Ergebnissen
festgestellt werden .
Zentrales Ziel dieser Arbeit ist die genaue theoretische Charakterisierung des Autoionisationsprozesses in Stößen metastabiler Argon-Atome mit Quecksilber- und Wasserstoff-Atomen, Ar*(4s 3P2,3P0) + Hg und Ar*(4s 3P2,3P0) + H(1s). Diese Untersuchungen wurden durch neue, in der Arbeitsgruppe von Prof. H. Hotop unter Verwendung zustandsselektierter Ar*-Atome durchgeführte elektronenspektrometrische Experimente an diesen Stoßsystemen motiviert. Zur Überprüfung der quantenchemischen Beschreibung des Quecksilber-Atoms und seiner van der Waals-Wechselwirkung wurden im Rahmen dieser Arbeit außerdem die Grundzustandspotentiale der Alkali-Quecksilber-Moleküle LiHg, NaHg und KHg im Detail untersucht. Dabei konnten die in der Literatur zu findenden Widersprüche zwischen den aus Rechnungen und verschiedenen Experimenten bestimmten Potentialen aufgeklärt werden, und es wurden verbesserte Wechselwirkungspotentiale erhalten, welche mit allen verfügbaren experimentellen Daten kompatibel sind.
Die Arbeit beschäftigt sich im wesentlichen mit den aktuell zur Verfügung stehenden Werkzeugen der Behandlung von Unsicherheiten in den Ergebnissen von Grundwassermodellen im Zusammenhang mit der Anwendung der Modelle bei der Planung von hydraulischen Sanierungen des Untergrundes. Untersucht wird die Eignung verschiedener Verfahren für eine praxisbezogene Anwendung. Als Ergebnis werden Empfehlungen zur Verwendung der Methoden in Abhängigkeit der hydrogeologischen Gegebenheiten und Hinweise zur Weiterentwicklung der Verfahren formuliert. Die Resultate von Grundwassermodellen werden zu Prognosezwecken in unterschiedlichen Zusammenhängen eingesetzt. Dazu gehören u.a. die Konzipierung von hydraulischen Sanierungsmaßnahmen. Für eine effiziente Ausführung einer Sanierung sollten Überdimensionierungen der notwendigen Einrichtungen (Brunnen, Pumpen, Aufbereitung) vermieden werden. Die hier untersuchten Methoden können dabei vorteilhaft eingesetzt werden, da sie es prinzipiell erlauben, die notwendigen Sicherheitszuschläge zu verringern und Erfolgswahrscheinlichkeiten für unterschiedliche Auslegungsvarianten anzugeben. Erfolgswahrscheinlichkeit bedeutet z.B. mit welcher Wahrscheinlichkeit ein einzuhaltender Grenzwert an einem bestimmten Punkt unterschritten wird. Die aktuell in der Praxis eingesetzten deterministischen Modelle können stattdessen nur einen Wert liefern, der eine nicht bekannte Eintretenswahrscheinlichkeit besitzt. In dieser Arbeit wird gezeigt, dass Methoden der stochastischen Simulation, zusammen mit einer Grundwassermodellierung einen wesentlichen Beitrag zur Verbesserung der oben dargestellten Situation leisten können. Hierzu wird das SUFIX-Verfahren eingesetzt, das es erlaubt neben den Verfahren der Geostatistik (z.B. stochastische Simulation) auch den Sachverstand des Hydrogeologen, der sich meist nicht in ’harten’ Zahlenwerten ausdrücken lässt, zwanglos zu integrieren. Beispiele hierfür sind Kenntnisse über großskalige Strukturen, wie Paläorinnen, die mit den Voraussetzungen für den Einsatz von stochastischen Simulationen nicht vereinbar sind Auch sind vorhandene Informationen, die mit einer relative hohen Unsicherheit behaftet sind (soft data) in diesem Konzept verwertbar. Die Eingangsdaten eines Grundwassermodells liegen i.d. Regel nur als sporadische Punktmessungen vor und müssen durch Interpolation oder stochastische Simulation generiert werden, um ein lückenloses Abbild des Untergrundes bzw. der Eigenschaften des Untergrundes zu erhalten. Liegt ein vollständiges interpoliertes Abbild (hydrogeologisches Modell) vor, muss wiederum eine Vereinfachung vorgenommen werden, da ein numerisches Modell nur punkt- bzw. flächengemittelte Eingabedaten verwenden kann. Der hierdurch bedingte Verlust an Information über die Variabilität der Modellparameter unterhalb der räumlichen Modelldiskretisierung wirkt sich vor allem bei der Stofftransportmodellierung aus, da hier die Ausbreitung entlang bevorzugter Fließwege eine entscheidende Rolle spielen kann. Eine zusätzliche Quelle der Unsicherheit entsteht dadurch, dass die Lage dieser Strukturen und ihr räumlicher Zusammenhang (Topologie) nicht hinreichend bekannt sind. Anhand zweier Fallbeispiele aus der praktischen Anwendung von numerischen Modellen wird nachgewiesen, dass sich das SUFIX-Verfahren generell als geeignet zur Quantifizierung von Prognoseunsicherheiten darstellt. Vorteile des Verfahrens sind die Kombinationsmöglichkeiten mit beliebigen Methoden zur Abbildung der Untergrundheterogenität. Es können z.B. stochastische Simulationen oder auch eine konstante manuelle Zonierung verwendet werden. Ein weiterer gewichtiger Vorteil ist der, dass die Berechnungsmethodik der Grundwasserströmung und des Stofftransportes keinen Einschränkungen, wie Linearisierung der Gleichungen u.ä. unterworfen ist. Ebenso sind beliebige Randbedingungen verwendbar, wobei auch der Typ der Bedingungen als unsicherer Parameter eingesetzt werden kann. Sollen die Parameter optimiert werden, ist in praktischen Anwendungsfällen die Kopplung von stochastischer Simulation und z.B. einem Bayes'schen Updating-Verfahren eine einfach zu implementierende Lösung. Hiermit ist dann auch die Kalibrierung beliebiger Randbedingungen möglich, die z.B. als Parameter mit einer nominalen Kodierung berücksichtigt werden können. Die Untersuchungsergebnisse zeigen, dass das Verfahren zur Abbildung der Heterogenität dem Aquifer angepasst gewählt werden muss. Gauss-basierte Verfahren, wie Turning-Bands, sind demnach am ehesten für die Simulation von relativ homogenen Aquiferen geeignet, während bei sehr heterogenen Strukturen, d.h. großer Variabilität der Parameterwerte, am ehesten Indikator-basierte Verfahren in Frage kommen. Noch besser schneidet in diesem Fall die manuelle Zonierung ab, was vor allem damit zu erklären ist, dass bei sehr heterogenen Untergrundverhältnissen v.a. die Struktur mit eventuell nur deterministisch erfassbaren übergeordneten Elementen von ausschlaggebender Bedeutung ist. Als Simulationsverfahren mit dem größten Entwicklungspotential kann man generell diejenigen Verfahren ansehen, die auch nicht Gauss-verteilte Daten verwenden, wie z.B. die hier verwendeten Indikatorbasierten Verfahren. Als ebenfalls sehr gut geeignete Verfahren stellten sich Simulated Annealing in der Variante als Postprozessor zusammen mit einem frei definierbaren ’Trainingsbild’ dar. Die Untersuchungsergebnisse zeigten aber auch, dass neben der Wahl der geeigneten mathematischen Methoden eine weitere grundlegende Bedingung erfüllt sein muss, nämlich ein widerspruchsfreies und stimmiges, an den Einsatzzweck angepasstes konzeptionelles hydrogeologisches Modell. Zu dessen Konzeption muss der Anwender bzw. Modellierer über Kenntnisse der großräumigen Strukturen verfügen, die sich aus der Genese des Untergrundes ergeben und nur durch eine fachliche Interpretation erreichbar sind. Hierzu gehören Schichtungen, Paläorinnen, anisotrope Bodeneigenschaften durch Terrassierung, usw.. Die Einbeziehung dieser Expertenkenntnisse, sowie die Sicherstellung eines geeigneten hydrogeologischen Modells für die numerische Modellierung sind Themenbereiche, die im Zusammenhang mit einer Unsicherheitsanalyse noch erheblichen Forschungsbedarf aufweisen.
Die formale Spezifikation von Kommunikationssystemen stellt durch die mit ihr verbundene Abstraktion und Präzision eine wichtige Grundlage für die formale Verifikation von Systemeigenschaften dar. Diese Abstraktion begrenzt jedoch auch die Ausdrucksfähigkeit der formalen Beschreibungstechnik und kann somit zu problemunangemessenen Spezifikationen führen. Wir untersuchen anhand der formalen Beschreibungstechnik Estelle zunächst zwei solche Aspekte. Beide führen speziell in Hinsicht auf die Domäne von Estelle, der Spezifikation von Kommunikationsprotokollen, zu schwerwiegenden Beeinträchtigungen der Ausdrucksfähigkeit. Eines dieser Defizite zeigt sich bei dem Versuch, in Estelle ein offenes System wie z. B. eine Protokollmaschine oder einen Kommunikationsdienst zu spezifizieren. Da Estelle-Spezifikationen nur geschlossene Systeme beschreiben können, werden solche Komponenten immer nur als Teil einer fest vorgegebenen Umgebung spezifiziert und besitzen auch nur in dieser eine formale Syntax und Semantik. Als Lösung für dieses Problem führen wir die kompatible syntaktische und semantische Estelle-Erweiterung Open-Estelle ein, die eine formale Spezifikation solcher offener Systeme und ihres Imports in verschiedene Umgebungen ermöglicht. Ein anderes Defizit in der Ausdrucksfähigkeit von Estelle ergibt sich aus der strengen Typprüfung. Wir werden zeigen, dass es in heterogenen, hierarchisch strukturierten Kommunikationssystemen im Zusammenhang mit den dort auftretenden horizontalen und vertikalen Typkompositionen zu einer unangemessenen Modellierung von Nutzdatentypen an den Dienstschnittstellen kommt. Dieses Problem erweist sich beim Versuch einer generischen und nutzdatentypunabhängigen Spezifikation eines offenen Systems (z. B. mit Open-Estelle) sogar als fatal. Deshalb führen wir die kompatible Containertyp-Erweiterung ein, durch die eine formale Spezifikation nutzdatentypunabhängiger und somit generischer Schnittstellen von Diensten und Protokollmaschinen ermöglicht wird. Als Grundlage für unsere Implementierungs- und Optimierungsexperimente führen wir den „eXperimental Estelle Compiler“ (XEC) ein. Er ermöglicht aufgrund seines Implementierungskonzeptes eine sehr flexible Modellierung des Systemmanagements und ist insbesondere für die Realisierung verschiedener Auswahloptimierungen geeignet. XEC ist zudem mit verschiedenen Statistik- und Monitoring-Funktionalitäten ausgestattet, durch die eine effiziente quantitative Analyse der durchgeführten Implementierungsexperimente möglich ist. Neben dem vollständigen Sprachumfang von Estelle unterstützt XEC auch die meisten der hier eingeführten Estelle-Erweiterungen. Neben der Korrektheit ist die Effizienz automatisch generierter Implementierungen eine wichtige Anforderung im praktischen Einsatz. Hier zeigt sich jedoch, dass viele der in formalen Protokollspezifikationen verwendeten Konstrukte nur schwer semantikkonform und zugleich effizient implementiert werden können. Entsprechend untersuchen wir anhand des Kontrollflusses und der Handhabung von Nutzdaten, wie die spezifizierten Operationen effizient implementiert werden können, ohne das Abstraktionsniveau senken zu müssen. Die Optimierung des Kontrollflusses geschieht dabei ausgehend von der effizienten Realisierung der Basisoperationen der von XEC erzeugten Implementierungen primär anhand der Transitionsauswahl, da diese speziell bei komplexen Spezifikationen einen erheblichen Teil der Ausführungszeit bansprucht. Wir entwickeln dazu verschiedene heuristische Optimierungen der globalen Auswahl und der modullokalen Auswahl und werten diese sowohl analytisch wie auch experimentell aus. Wesentliche Ansatzpunkte sind dabei verschiedene ereignisgesteuerte Auswahlverfahren auf globaler Ebene und die Reduktion der zu untersuchenden Transitionen auf lokaler Ebene. Die Überprüfung der Ergebnisse anhand der ausführungszeitbezogenen Leistungsbewertung bestätigt diese Ergebnisse. Hinsichtlich der effizienten Handhabung von Daten untersuchen wir unterschiedliche Ansätze auf verschiedenen Ebenen, die jedoch in den meisten Fällen eine problemunangemessene Ausrichtung der Spezifikation auf die effiziente Datenübertragung erfordern. Eine überraschend elegante, problemorientierte und effiziente Lösung ergibt sich jedoch auf Basis der Containertyp-Erweiterung, die ursprünglich zur Steigerung des Abstraktionsniveaus eingeführt wurde. Dieses Ergebnis widerlegt die Vorstellung, dass Maßnahmen zur Steigerung der effizienten Implementierbarkeit auch immer durch eine Senkung des Abstraktionsniveaus erkauft werden müssen.
In the present work, various aspects of the mixed continuum-atomistic modelling of materials are studied, most of which are related to the problems arising due to a development of microstructures during the transition from an elastic to plastic description within the framework of continuum-atomistics. By virtue of the so-called Cauchy-Born hypothesis, which is an essential part of the continuum-atomistics, a localization criterion has been derived in terms of the loss of infinitesimal rank-one convexity of the strain energy density. According to this criterion, a numerical yield condition has been computed for two different interatomic energy functions. Therewith, the range of the Cauchy-Born rule validity has been defined, since the strain energy density remains quasiconvex only within the computed yield surface. To provide a possibility to continue the simulation of material response after the loss of quasiconvexity, a relaxation procedure proposed by Tadmor et al. leading necessarily to the development of microstructures has been used. Thereby, various notions of convexity have been overviewed in details. Alternatively to the above mentioned criterion, a stability criterion has been applied to detect the critical deformation. For the study in the postcritical region, the path-change procedure proposed by Wagner and Wriggers has been adapted for the continuum-atomistic and modified. To capture the deformation inhomogeneity arising due to the relaxation, the Cauchy-Born hypothesis has been extended by assumption that it represents only the 1st term in the Taylor's series expansion of the deformation map. The introduction of the 2nd, quadratic term results in the higher-order materials theory. Based on a simple computational example, the relevance of this theory in the postcritical region has been shown. For all simulations including the finite element examples, the development tool MATLAB 6.5 has been used.
Liquid Composite Moulding (LCM) has become an economic technique for the manufacture
of advanced composite lightweight structures in many cases. Meanwhile the
acronym LCM represents more than a dozen of varying process types, which all have
the principle in common that a liquid monomer is firstly injected into a cavity filled with
a reinforcing fibre preform and secondly it forms the part by chemically reacting to a
solid polymer network. A distinctive feature of the LCM process variations is their
applicability to the fabrication of a variety of different part sizes and shapes. Within
this development numerical process simulation has become an important engineering
tool for mould design and process control. Thereby the research focuses on the
simulation of resin flow through a fibrous reinforcement, because this turned out to be
the most critical process within the manufacture of composites by applying LCMTechnologies.
With the software commercially available the mould-filling pattern can
be simulated depending on the locations and number of inlet and outlet gates, resin
rheology, injection rate and pressure, thermal effects and the physics of liquid flow
through fibre preforms. Hereby the standard flow modelling bases on a proportional
relationship between the flow rate and the applied pressure gradient, which is known
as D´Arcy’s law. The describing proportional factor is called the permeability. Its
value depends on the considered flow direction because of a non-isotropic structural
arrangement of the fibre reinforcement. It becomes clear that the permeability affects
the injection process crucially and so the knowledge about it is indispensable for the
realistic prediction of a filling pattern by flow simulation.
Due to the complexity of the inner structure of a textile reinforcement the resulting
multiphase flow cannot be described adequately by an analytical model at the current
stage of research, so that the permeabilities of planar textile reinforcements like woven or non-crimped fabrics is usually obtained from flow measurements. A variety
of experimental set-ups were developed, which allow the tracking of the fluid flow
through the textile reinforcement. The permeability is derived from the flow data by
applying D´Arcy´s law. Most of these test-rigs allow the determination of the in-plane
flow characteristics only, because they are dominant in the most classical processing
techniques. But the simulation of these processes produces still significant errors,
which result from neglecting the out-of-plane flow. Since new liquid composite moulding
processes like SCRIMP™ or resin film infusion were developed, the knowledge of
the permeability in thickness direction becomes as important as the in-plane charac teristics so that researchers started to measure flow in thickness direction and developed
flow models which include the principle permeability in thickness direction. The
main arising difficulties are the measuring and the modelling for the calculation of the
permeability from flow front data. The objective of this work is to overcome these
problems by the development of a test-rig for the measure of the flow in thickness
direction and by determining a transformation rule, which addresses the unsolved
geometric boundary condition at the injection port.
After investigating the existing instrumentation for measuring flow in thickness direction
a new sensor concept is developed on the basis of ultrasound transmission,
which enables a steady collection of the actual position of a flow front. The applicability
of this test-rig was tested within the measure of the flow through different woven
and non-crimped fabrics. The permeability values, which were obtained from the flow
data with the aid of the improved analytic model, were validated by two-dimensional
radial flow experiments.
Characterization of neuronal activity in the auditory brainstem of rats: An optical imaging approach
(2004)
In this doctoral thesis, several aspects of neuronal activity in the rat superior olivary complex (SOC), an auditory brainstem structure, were analyzed using optical imaging with voltage-sensitive dyes (VSD). The thesis is divided into 5 Chapters. Chapter 1 is a general introduction, which gives an overview of the auditory brainstem and VSD imaging. In Chapter 2, an optical imaging method for the SOC was standardized, using the VSD RH795. To do so, the following factors were optimized: (1) An extracellular potassium concentration of 5 mM is necessary during the incubation and recording to observe synaptically evoked responses in the SOC. (2) Employing different power supplies reduced the noise. (3) Averaging of 10 subsequent trials yielded a better signal-to-noise ratio. (4) RH795 of 100 µM with 50 min prewash was optimal to image SOC slices for more than one hour. (5) Stimulus-evoked optical signals were TTX sensitive, revealing action potential-driven input. (6) Synaptically evoked optical signals were characterized to be composed of pre- and postsynaptic components. (7) Optical signals were well correlated with anatomical structures. Overall, this method allows the comparative measurement of electrical activity of cell ensembles with high spatio-temporal resolution. In Chapter 3, the nature of functional inputs to the lateral superior olive (LSO), the medial superior olive (MSO), and the superior paraolivary nucleus (SPN) were analyzed using the glycine receptor blocker strychnine and the AMPA/kainate receptor blocker CNQX. In the LSO, the known glutamatergic inputs from the ipsilateral, and the glycinergic inputs from the ipsilateral and contralateral sides, were confirmed. Furthermore, a CNQX-sensitive input from the contralateral was identified. In the MSO, the glutamatergic and glycinergic inputs from the ipsilateral and contralateral sides were corroborated. In the SPN, besides the known glycinergic input from the contralateral, I found a glycinergic input from the ipsilateral and I also identified CNQX-sensitive inputs from the contralateral and ipsilateral sides. Together, my results thus corroborate findings obtained with different preparations and methods, and provide additional information on the pharmacological nature of the inputs. In Chapter 4, the development of glycinergic inhibition for the LSO, the MSO, the SPN, and the medial nucleus of the trapezoid body (MNTB) was studied by characterizing the polarity of strychnine-sensitive responses. In the LSO, the high frequency region displayed a shift in the polarity at P4, whereas the low frequency region displayed at P6. In the MSO, both the regions displayed the shift at P5. The SPN displayed a shift in the polarity at E18-20 without any regional differences. The MNTB lacked a shift between P3-10. Together, these results demonstrate a differential timing in the development of glycinergic inhibition in these nuclei. In Chapter 5, the role of the MSO in processing bilateral time differences (t) was investigated. This was done by stimulating ipsilateral and contralateral inputs to the MSO with different t values. In preliminary experiments, the postsynaptic responses showed a differential pattern in the spread of activity upon different t values. This data demonstrates a possible presence of delay lines as proposed by Jeffress in the interaural time difference model of sound localization. In conclusion, this study demonstrates the usage of VSD imaging to analyze the neuronal activity in auditory brainstem slices. Moreover, this study expands the knowledge of the inputs to the SOC, and has identified one glycinergic and three AMPA/kainate glutamatergic novel inputs to the SOC nuclei.
The present thesis deals with a novel air interface concept for beyond 3G mobile radio systems. Signals received at a certain reference cell in a cellular system which originate in neighboring cells of the same cellular system are undesired and constitute the intercell interference. Due to intercell interference, the spectrum capacity of cellular systems is limited and therefore the reduction of intercell interference is an important goal in the design of future mobile radio systems. In the present thesis, a novel service area based air interface concept is investigated in which interference is combated by joint detection and joint transmission, providing an increased spectrum capacity as compared to state-of-the-art cellular systems. Various algorithms are studied, with the aid of which intra service area interference can be combated. In the uplink transmission, by optimum joint detection the probability of erroneous decision is minimized. Alternatively, suboptimum joint detection algorithms can be applied offering reduced complexity. By linear receive zero-forcing joint detection interference in a service area is eliminated, while by linear minimum mean square error joint detection a trade-off is performed between interference elimination and noise enhancement. Moreover, iterative joint detection is investigated and it is shown that convergence of the data estimates of iterative joint detection without data estimate refinement towards the data estimates of linear joint detection can be achieved. Iterative joint detection can be further enhanced by the refinement of the data estimates in each iteration. For the downlink transmission, the reciprocity of uplink and downlink channels is used by joint transmission eliminating the need for channel estimation and therefore allowing for simple mobile terminals. A novel algorithm for optimum joint transmission is presented and it is shown how transmit signals can be designed which result in the minimum possible average bit error probability at the mobile terminals. By linear transmit zero-forcing joint transmission interference in the downlink transmission is eliminated, whereas by iterative joint transmission transmit signals are constructed in an iterative manner. In a next step, the performance of joint detection and joint transmission in service area based systems is investigated. It is shown that the price to be paid for the interference suppression in service area based systems is the suboptimum use of the receive energy in the uplink transmission and of the transmit energy in the downlink transmission, with respect to the single user reference system. In the case of receive zero-forcing joint detection in the uplink and transmit zero-forcing joint transmission in the downlink, i.e., in the case of linear unbiased data transmission, it is shown that the same price, quantified by the energy efficiency, has to be paid for interference elimination in both uplink and downlink. Finally it is shown that if the system load is fixed, the number of active mobile terminals in a SA and hence the spectrum capacity can be increased without any significant reduction in the average energy efficiency of the data transmission.
Entwurf und Optimierung neuer Versuchsanordnungen zur Charakterisierung der Haftung an Grenzflächen
(2004)
Die Beurteilung der mechanischen Haftungsqualität an Grenzflächen ist eine entscheidende Voraussetzung zur aktiven Gestaltung von heterogenen Werkstoffen. Die vorliegende Arbeit zeigt neue Wege für den Entwurf und die Optimierung der dazu nötigen Testverfahren auf. Ausgehend von der zu messenden Größe muß eine Versuchsanordnung
oder eine Probengeometrie entworfen werden, die aufgrund ihrer Konzeption die zu einer verläßlichen Messung notwendigen Voraussetzungen schafft. Mit Hilfe von numerischen Verfahren können auch komplizierte Probengeometrien analysiert und optimiert und die Anwendbarkeit von einfachen Auswerteverfahren überprüft werden.
Ziel ist eine einfache Formel zur Auswertung, die die komplizierte Geometrie nur in Form von einmalig zu bestimmenden Formfaktoren enthält.
Diese Grundidee wird in der vorliegenden Arbeit anhand von drei verschiedenen Versuchsanordnungen ausgeführt, jede wird umfassend analysiert und auch experimentell auf ihre Durchführbarkeit überprüft.
Ausgehend vom BROUTMAN-Versuch (Faser-Matrix-Grenzfläche) beschreibt Kapitel 2 eine Probengeometrie, die eine homogene Grenzflächenbelastung durch eine geeignete Kerbung der Probe aus der äußeren Zugbelastung erzeugt. Die gleichförmige Zugbelastung ist die Voraussetzung für die Anwendbarkeit des Festigkeitskonzeptes.
Zur Berechnung der Festigkeit aus den experimentellen Daten wird eine Näherungsformel abgeleitet, die die Probengeometrie nur als Formfaktoren enthält. Die optimale Probengeometrie und die zugehörigen Formfaktoren folgen aus einer Parameterstudie mit Hilfe der Methode der Finiten Elemente.
Ein experimenteller Vergleich des ursprünglichen BROUTMAN-Versuchs mit dem vorgeschlagenen Zugversuch zeigt die prinzipielle Anwendbarkeit der Versuchsanordungen und des Festigkeitskonzeptes. Der Vergleich stützt weiterhin das Gesamtkonzept, denn die Herstellung der Probenkörper beider Versuchstypen erfolgt sehr ähnlich,während die Grenzflächenbelastung auf sehr unterschiedliche Weise erzeugt wird. Sie stellen deshalb zwei verschiedene Methoden zur Messung derselben Größe dar. In einer zweiseitig gekerbten Zugprobe entsteht durch die Kerbe eine Zugspannung quer zur Hauptbelastungsrichtung. Besteht der Probenkörper aus zwei einseitig gekerbten, beispielsweise durch Kleben zusammengefügten Hälften, so entsteht ebenfalls eine gleichförmige Zugbelastung eines ausgedehnten Bereiches der Grenzfläche.
Diese Idee wird im Kapitel 3 anhand einer Meßreihe aus gleichen Hälften untersucht.
Ein Finite-Elemente-Modell dient außerdem dazu, die optimale Geometrie für einen Probenkörper aus zwei einseitig gekerbten Teilen verschiedenen Materials zu ermitteln.
Es zeigt auch einen weiteren Vorteil dieser Probenform, denn plastische Deformationen beginnen stets im Kerbgrund, nicht an der Grenzfläche. Plastizität beeinflußt die Ergebnisse deshalb weniger, sie bleiben vergleichbar, auch wenn bei einigen Materialsystemen
teilweise plastische Deformationen auftreten.
Treten dagegen vor dem Grenzflächenversagen ausgedehnte plastische Deformationen in der Umgebung der Grenzfläche auf, so entsteht dadurch ein komplexer Spannungszustand, dem das Festigkeitskonzept kaum Rechnung tragen kann. Weiterhin erfolgt Versagen dann zumeist als fortschreitender Riß, so daß ein bruchmechanisches Konzept unumgänglich ist. In dieser Situation wird bei Proben aus homogenem Material mit Anfangsriß das Konzept der realen Brucharbeit bereits erfolgreich angewendet.
Dieses Konzept beschreibt aber auch zufriedenstellend das Versagen von Grenzflächen zwischen unterschiedlichen Materialien, wie anhand einer Versuchsreihe und umfangreichen numerischen Rechnungen im Kapitel 4 gezeigt wird. Das numerische Modell umfaßt ein elastisch-plastisches Materialgesetz mit Verfestigung, Rißausbreitung unter Belastung und ein an die Energiefreisetzungsrate angelehntes Energie-Kriterium
zur Simulation des Rißwachstums. Es geht damit weit über die meisten aus der Literatur bekannten Simulationen hinaus.
The hypoxia inducible factor-1 (HIF-1), a heterodimer composed of HIF-1alpha and HIF-1beta, is activated in response to low oxygen tension and serves as the master regulator for cells to adapt to hypoxia. HIF-1 is usually considered to be regulated via degradation of its a-subunit. Recent findings, however, point to the existence of alternative mechanisms of HIF-1 regulation which appear to be important for down-regulating HIF-1 under prolonged and severe oxygen depletion. The aims of my Ph.D. thesis, therefore, were to further elucidate mechanisms involved in such down-regulation of HIF-1. The first part of the thesis addresses the impact of the severity and duration of oxygen depletion on HIF-1alpha protein accumulation and HIF-1 transcriptional activity. A special focus was put on the influence of the transcription factor p53 on HIF-1. I found that p53 only accumulates under prolonged anoxia (but not hypoxia), thus limiting its influence on HIF-1 to severe hypoxic conditions. At low expression levels, p53 inhibits HIF-1 transactivity. I attributed this effect to a competition between p53 and HIF-1alpha for binding to the transcriptional co-factor p300, since p300 overexpression reverses this inhibition. This assumption is corroborated by competitive binding of IVTT-generated p53 and HIF-1alpha to the CH1-domain of p300 in vitro. High p53 expression, on the other hand, affects HIF-1alpha protein negatively, i.e., p53 provokes pVHL-independent degradation of HIF-1alpha. Therefore, I conclude that low p53 expression attenuates HIF-1 transactivation by competing for p300, while high p53 expression negatively affects HIF-1alpha protein, thereby eliminating HIF-1 transactivity. Thus, once p53 becomes activated under prolonged anoxia, it contributes to terminating HIF-1 responses. In the second part of my study, I intended to further characterize the effects induced by prolonged periods of low oxygen, i.e., hypoxia, as compared to anoxia, with respect to alterations in HIF-1alpha mRNA. Prolonged anoxia, but not hypoxia, showed pronounced effects on HIF-1alpha mRNA. Long-term anoxia induced destabilization of HIF-1alpha mRNA, which manifests itself in a dramatic reduction of the half-life. The mechanistic background points to natural anti-sense HIF-1alpha mRNA, which is induced in a HIF-1-dependent manner, and additional factors, which most likely influence HIF-1alpha mRNA indirectly via anti-sense HIF-1alpha mRNA mediated trans-effects. In summary, the data provide new information concerning the impact of p53 on HIF-1, which might be of importance for the decision between pro- and anti-apoptotic mechanisms depending upon the severity and duration of hypoxia. Furthermore, the results of this project give further insights into a novel mechanism of HIF-1 regulation, namely mRNA down-regulation under prolonged anoxic incubations. These mechanisms appear to be activated only in response to prolonged anoxia, but not to hypoxia. These considerations regarding HIF-1 regulation should be taken into account when prolonged incubations to hypoxic or anoxic conditions are analyzed at the level of HIF-1 stability regulation.
In the filling process of a car tank, the formation of foam plays an unwanted role, as it may prevent the tank from being completely filled or at least delay the filling. Therefore it is of interest to optimize the geometry of the tank using numerical simulation in such a way that the influence of the foam is minimized. In this dissertation, we analyze the behaviour of the foam mathematically on the mezoscopic scale, that is for single lamellae. The most important goals are on the one hand to gain a deeper understanding of the interaction of the relevant physical effects, on the other hand to obtain a model for the simulation of the decay of a lamella which can be integrated in a global foam model. In the first part of this work, we give a short introduction into the physical properties of foam and find that the Marangoni effect is the main cause for its stability. We then develop a mathematical model for the simulation of the dynamical behaviour of a lamella based on an asymptotic analysis using the special geometry of the lamella. The result is a system of nonlinear partial differential equations (PDE) of third order in two spatial and one time dimension. In the second part, we analyze this system mathematically and prove an existence and uniqueness result for a simplified case. For some special parameter domains the system can be further simplified, and in some cases explicit solutions can be derived. In the last part of the dissertation, we solve the system using a finite element approach and discuss the results in detail.
Im Mittelpunkt dieser Arbeit standen die Synthese und Charakterisierung neuartiger basischer Feststoffkatalysatoren. Für die Herstellung dieser neuen Materialien wurden Zeolithe, mesoporöse Molekularsiebe sowie mikroporöse und amorphe Aluminiumphosphate bei Temperaturen von 700 °C bis 850 °C im Ammoniakstrom behandelt. Die Charakterisierung erfolgte mittels Röntgen-Pulverdiffraktometrie, Stickstoffadsorption, Thermogravimetrie/Massenspektrometrie, temperaturprogrammierter Desorption von Pyrrol und DRIFT-spektroskopischen Untersuchungen. Die katalytischen Eigenschaften wurden mit der Knoevenagel-Kondensation von Benzaldehyd mit Malonsäuredinitril bzw. Cyanessigsäureethylester sowie der Umsetzung von Limonen in der Gasphase getestet. Als Referenzmaterial wurde Zeolith NaY, der mit verschiedenen Kationen ausgetauscht bzw. mit Cäsiumacetat imprägniert wurde, verwendet. Sowohl die Röntgen-Pulverdiffraktogramme als auch die Bestimmung der spezifischen Oberflächen durch Stickstoffadsorption ergaben, dass nach der Ammoniakbehandlung die Struktur der verwendeten Katalysatoren im Wesentlichen erhalten blieb. Anhand von DRIFT-Spektren, die während der Ammoniakbehandlung aufgenommen wurden, konnte nachgewiesen werden, dass ein Einbau von Stickstoff in die Gerüste der Zeolithe, mesoporösen Molekularsiebe und Aluminiumphosphate erfolgte. Mit Hilfe der temperaturprogrammierten Desorption von Pyrrol konnten verschiedene basische Zentren bei den einzelnen Katalysatoren detektiert werden. Durch die Nitridierung wurde bei fast allen Katalysatoren eine Veränderung der Adsorptionseigenschaften von Pyrrol gemessen, die auf eine größere Anzahl bzw. auf stärker basische Zentren hindeutet. IR-spektroskopische Untersuchungen zur Adsorption von Pyrrol zeigten, dass die Ammoniakbehandlung zu einer Zunahme der Stärke von basischen Zentren führt. Die katalytischen Tests in der Knoevenagel-Kondensation ergaben, dass in fast allen Fällen eine Aktivitätssteigerung des ammoniakbehandelten Katalysators im Vergleich zum unbehandelten Ausgangsmaterial erfolgte. Die Aktivität ist dabei abhängig von den Modifizierungsbedingungen wie z.B. Behandlungsdauer und Behandlungstemperatur, aber auch von den Lagerungsbedingungen. Als weitere Testreaktion wurde die Umsetzung von Limonen gewählt. Anhand von mit Alkalimetall ausgetauschten Zeolithen mit FAU-Struktur konnte gezeigt werden, dass die p-Cymol-Ausbeute ein Maß für die Basizität der Katalysatoren ist. Bei fast allen Katalysatoren wurde eine Steigerung der p-Cymol-Ausbeute infolge der Ammoniakbehandlung gefunden. Neben dem Si:Al-Verhältnis spielen auch die Gegenionen und die Anzahl von Silanolgruppen eine entscheidende Rolle.
Die Nähtechnik in Verbindung mit Harzinfusions- und -injektionstechniken eröffnet
ein erhebliches Gewichts- und Kosteneinsparpotential primär belasteter
Strukturbauteile aus Faser-Kunststoff-Verbundwerkstoffen. Dabei ist es unter
bestimmten Voraussetzungen möglich, durch Vernähungen gezielte Steigerungen
mechanischer Eigenschaften zu erreichen. Ein genaues Verständnis wirksamer
Zusammenhänge bezüglich der Änderung mechanischer Kennwerte verglichen mit
dem unvernähten Verbund ist unverzichtbar, um einen Einsatz dieser Technologie im
zivilen Flugzeugbau voranzubringen.
Im Rahmen dieser Arbeit wird eine breit angelegte experimentelle Parameterstudie
zum Einfluss verschiedener Nähparameter auf Scheiben-Elastizitäts- und
Festigkeitseigenschaften von kohlenstofffaserverstärkten Epoxidharzverbunden unter
Zug- und Druckbelastung durchgeführt. Neben der Stichrichtung, der Garnfeinheit,
dem Nahtabstand und der Stichlänge wurde auch die Belastungsrichtung variiert. Bei
einigen Parametereinstellungen konnten keine Änderungen des Elastizitätsmoduls
oder der Festigkeit in der Laminatebene festgestellt werden, wohingegen in anderen
Fällen Reduktionen oder Steigerungen um bis zu einem Drittel des Kennwerts des
unvernähten Laminats beobachtet wurden. Dabei ist vor allem der Einfluss der
Garnfeinheit dominierend.
Die Fehlstellenausbildung infolge eines Stichs in Abhängigkeit der gewählten
Parameter und der Orientierung der Einzelschicht wurde anhand von Schliffbildern in
der Laminatebene untersucht. Ein erheblicher Einfluss der einzelnen Parameter auf
die Fehlstellenausbildung ist festzustellen, wobei wiederum die Garnfeinheit
dominiert. Anhand der Ergebnisse der Auswertung der Fehlstellenausbildung in den
Einzelschichten wurde ein empirisches Modell generiert, womit charakteristische
Fehlstellengröße n wie die Querschnittsfläche, die Breite und die Länge in
Abhängigkeit der genannten Parameter berechnet werden können.
Darauf aufbauend wurde ein Finite-Elemente-Elementarzellenmodell generiert, mit
welchem Scheiben-Elastizitätsgrößen vernähter Laminate abgeschätzt werden
können. Neben der Berücksichtigung der genannten Nähparameter ist der zentrale
Aspekt hierbei die Beschreibung eines Stichs in Form von Reinharzgebiet und
Faserumlenkungsbereich in jeder Einzelschicht.
Stitching technology in combination with Liquid Composite Molding techniques offers
a possibility to reduce significantly weight and costs of primarily loaded structural
parts made of Fiber Reinforced Polymers. Thereby, it is possible to enhance
mechanical properties simultaneously. It is essential to understand effective
correlations of all important parameters concerning changes in mechanical
characteristics due to additional stitching if stitching technologies have to be
established in the civil aircraft industry.
In this thesis, a broad experimental study on the influence of varying stitching
parameters on the membrane tensile and compressive modulus and strength of
carbon fiber reinforced epoxy laminates is presented. The direction of stitching,
thread diameter, spacing and pitch length as well as the direction of testing had been
varied. In some cases, no changes in modulus and strength could be found due to
the chosen parameters, whereas in other cases reductions or enhancements of up to
30 % compared to the unstitched laminate were observed. Thereby, the thread
diameter shows significant influence on these changes in mechanical properties.
In addition, the stitch and void formation in the thickness direction due to the stitching
parameters was investigated by evaluating micrographs in each layer of the laminate.
Again, the thread diameter showed an outstanding influence on the characteristics of
matrix pure area (void) and fiber disorientation. A mathematical model was evaluated
in order to predict in-plane characteristics of stitches and voids, from which the cross
sectional area, the width and the length of a void due to the chosen stitching
parameters can be derived.
Finally, a Finite Element based unit cell model was established to calculate elastic
constants of stitched FRP laminates. With this model it is possible to consider a stitch
as a matrix pure region and additionally an area of in-plane fiber disorientation
depending on the stitching parameters as introduced above. The model was
validated using the experimental data for tensile and compressive loading.
The outstanding flexibility of this FE unit cell approach is shown in a parametric
study, where different void formations as well as stitching parameters were varied in
a stitched, unidirectional laminate. It was found that three different aspects influence
significantly the in-plane elastic constants of stitched laminates. First of all, the
stitching parameters as well as the laminate characteristics define the shape of the
unit cell including the areas of the stitch and the fiber disorientation. Secondly,
stitching changes the fiber volume fraction in all layers, which causes changes in
elastic properties as well. Thirdly, the type and the direction of loading has to be
considered, because each change in the architecture of the laminate results in
different effects on the in-plane elastic constants namely tensile, compressive or
shear moduli as well as the Poisson´s ratios.
L1 ist ein neuronales Adhäsionsmolekül, das neben Zellen des Nervensystems auf vielen humanen Tumorlinien exprimiert wird. Zusätzlich zu seiner Funktion als Oberflächenmolekül wird L1 durch membranproximale Spaltung in eine lösliche Form überführt, die funktionell aktiv ist. Bei diesem Prozess ist die Metalloproteinase ADAM10 beteiligt. In Tumoren der Ovarien und des Uterus ist die Expression von L1 mit einem fortgeschrittenen Stadium der Erkrankung assoziiert. Das L1-Spaltfragment kann in Tumorlysaten detektiert werden, außerdem korreliert die Anwesenheit von ADAM10 im Tumorgewebe mit löslichem L1 im Serum der Patientinnen. L1 und ADAM10 sind teilweise mit Lipid Rafts assoziiert und kolokalisieren darüber hinaus im Golgi/TGN. Die Aktivierung der Proteinkinase C durch PMA erhöht die L1-Spaltung an der Plasmamembran, während der Entzug von Cholesterin mittels MCD die Spaltung innerhalb der Zelle verstärkt. Zudem führt die Senkung des zellulären Cholesteringehalts zur Freisetzung von Membranvesikeln, die sowohl L1 als auch ADAM10 enthalten. Die ADAM10-vermittelte Spaltung von L1 hält in isolierten Vesikeln an und generiert lösliches L1, welches die Migration von Tumorzellen verstärkt. In Ovarialkarzinomzellen wird die Abspaltung von L1 ebenfalls durch eine Metalloproteinase vermittelt, findet aber kaum an der Oberfläche statt. Durch Überexpression von L1, ADAM10 sowie einer katalytisch-inaktiven Form (ADAM10-DN) kann ein Zusammenhang zwischen ADAM10, der Abgabe von löslichem L1 und dem Migrationsverhalten von Karzinomzellen in vitro belegt werden. Ovarialkarzinomlinien setzen zudem konstitutiv hohe Mengen an Vesikeln frei, die proteolytisch aktiv sind und ebenfalls ADAM10 und L1 enthalten. In Asziten von Tumorpatientinnen kann sowohl vesikuläres als auch lösliches L1 nachgewiesen werden. Die funktionelle Bedeutung der ADAM10-vermittelten Spaltung von L1 für das Migrationsverhalten von Ovarialkarzinomzellen wird in Hinblick auf Tumorprogression sowie mögliche neue Therapieansätze diskutiert.
Streptococcus pneumoniae ist ein human-pathogenes Bakterium, das den Nasopharnyx gesunder Menschen besiedeln kann. Das Bakterium kann sich lokal ausbreiten und zu schweren invasiven Erkrankungen führen, wie der Pneumonie, der Meningitis und der Sepsis. Zahlreiche, vor allem oberflächenlokalisierte Proteine ermöglichen die Kolonisierung und Invasion der Pneumokokken. Von Zysk et al. (2000) wurden über ein Genbankscreening neue Proteine von S. pneumoniae gefunden. Eines davon ist die Serinprotease PrtA, die 2001 von Bethe näher untersucht wurde. PrtA ist eine in der Zellwand der Pneumokokken verankerte Protease, die als Prä-Pro-Protein synthetisiert wird. Im Mausmodell zeigte sich die Virulenz der Protease. Aufgrund der immunogenen Eigenschaften wird PrtA als potentieller Vakzine-Kandidat beschrieben. In der vorliegenden Arbeit sollte die Serinprotease PrtA nativ aufgereinigt und Untersuchungen zur biologischen Funktion durchgeführt werden. Über eine durch ortsspezifische Mutagenese hergestellte Mutante konnte die Protease nativ aus dem Kulturüberstand als ein HisTag-Fusionsprotein aufgereinigt werden. Neben den zwei angenommenen Hauptformen von PrtA mit Molekulargewichten von 240 kDa und 215 kDa konnten weitere Formen des PrtA durch Westernblot-Analysen identifiziert werden. Mehrere PrtA-Fragmente sowie die Identifizierung mehrerer Proteinspots bei einer zweidimensionalen Auftrennung des aufgereinigten PrtA, legen den Schluss nahe, dass es sich bei der Protease um ein instabiles Protein handelt. Diese Autoprozessierung zeigte sich als konzentrationsabhängig. Die genauen Prozessierungsstellen konnten noch nicht geklärt werden. Die Expression der Protease unterliegt einer Regulation. Sowohl auf transkriptionaler wie auf translationaler Ebene zeigte sich eine Beeinflussung der Expression von PrtA durch atmosphärische Bedingungen, sowie durch Glukose. Eine Beteiligung von PrtA am Abbau der in der Arbeit erwähnten Substrate konnte mit den verwendeten Methoden nicht gezeigt werden. Bindungsversuche von Pneumokokken an Bestandteile der extrazellulären Matrix, wie Fibronektin, Kollagen I, III und IV, ließen keine Beteiligung des PrtA an der Bindung an die jeweiligen Proteine erkennen. Einen Hinweis auf die Modifikation eines bakterieneigenen Proteins durch PrtA, ergaben zweidimensionale Untersuchungen des Protein-Expressionsprofils. Das modifizierte Protein konnte bislang noch nicht analysiert werden. Die Identifizierung dieses Proteins würde neue Einblicke in den Aufgabenbereich der Protease liefern.
In dieser Arbeit wird gezeigt, wie durch eine Automatisierung von Software-Entwicklungsaktivitäten sowohl Effizienz- als auch Qualitätsgewinne erzielt und komplexe Aktivitäten beherrschbar gemacht werden können. Dazu wird zunächst eine solide Basis für eine modellbasierte Software-Entwicklung geschaffen. Nach der Identifikation der Probleme der bisher üblicherweise eingesetzten Metamodellierung wird eine verbesserte Multiebenenmodellierung vorgeschlagen, welche die explizite Angabe der Instanziierbarkeit (Tiefe und Automatismus der Instanziierung) der Modellelemente erlaubt und damit eine deutliche Vereinfachung und bessere Verständlichkeit der Metamodelle ermöglicht. Zur operationalen Beschreibung von Modelltransformationen im Kontext dieser Multiebenenmodellierung wird sodann die Aktionssprache AL++ konzipiert. Insbesondere durch die Einführung von Sprachelementen für die Handhabung von Relationen und Attributen und die Aufnahme von Reflexionskonstrukten in die Sprache AL++ werden Transformationen kompakt und generisch beschreibbar. Anwendung finden diese Ansätze in der modellbasierten Entwicklung reaktiver Systeme. Dazu wird eine existierende Entwicklungsmethode erweitert, um eine durchgängige Automatisierung realisieren zu können. Die wichtigste Erweiterung ist dabei die modifizierte Automatenmodellierung, bei welcher erweiterte Endliche Automaten durch die Komposition getrennt modellierter Zustandsübergänge spezifiziert werden, was eine eindeutige Verfolgbarkeit zu den Anforderungen erlaubt. Eingesetzt werden obige Techniken für die statische Analyse von Spezifikationen, wobei insbesondere die automatische Detektion von Feature-Interaktionen (also die Feststellung kritischer Wechselwirkungen zwischen Produktmerkmalen) in dieser Form erstmalig für den Bereich der reaktiven Systeme durchgeführt wird. Daneben werden automatisierte dynamische Analysen auf der Basis generierter Prototypen betrachtet. Die Analyseergebnisse können automatisiert für die Modifikation und Neukonstruktion der Prototypen genutzt werden, womit Software-Entwicklungsexperimente vollständig in einem „virtuellen Labor“ durchgeführt werden können. Wichtigstes experimentelles Ergebnis ist, dass eine statische Parametrisierung einer „intelligenten“ Temperaturregelung möglich ist und daher eine Reduktion der notwendigen Produktmerkmale (und damit der Komplexität) erreicht werden kann. In Fallstudien wird am Ende der Arbeit nachgewiesen, dass alleine durch die automatische Erzeugung von Entwicklungsdokumenten und die konsistente Änderung vorhergehender Dokumente durch die in dieser Arbeit implementierten Werkzeuge ein Effizienzgewinn von 54 % erreicht werden kann. Die Erstellung der eingesetzten Werkzeuge hätte sich dabei bereits nach zwei ähnlichen Projekten bezahlt gemacht.
Inappropriate speed is the most common reason for road traffic accidents world wide. Thus, a necessity for speed management exists. The so-called SUNflower states Sweden, the United Kingdom and the Netherlands - each spending strong effort in traffic safety policies - have great success in reducing mean road speeds and speed variances through speed management. However, the effect is still insufficient for gaining real traffic safety. Thus, there is a discussion to make use of technical in-vehicle devices. One of these technologies called Intelligent Speed Adaptation (ISA) reduces vehicle speeds. This is done either by warning the driver that he is speeding, or activating the accelerator pedal with a counterforce, or reducing the gasoline supply to the motor. The three ways of reducing the speed are called version 1-3. The EC-project for research on speed adaptation policies on European roads (PROSPER) deals with strategic proposals for the implementation of the different ISA-versions. This thesis includes selected results of PROSPER. In this thesis two empiric surveys were done in order to give an overview about the basic conditions (e.g. social, economic, technical aspects) for an ISA implementation in Germany. On one hand, a stakeholder analysis and questionnaire using the Delphi-method has been accomplished in two rounds. On the other hand, a questionnaire with speed offenders has been accomplished, too, in two rounds. In addition, the author created an expert pool consisting of 23 experts representing the most important fields of science and practice in which ISA is involved. The author made phone or personal interviews with most of the experts. 12 experts also produced a detailed publication on their professional point of view towards ISA. The two surveys and the professional comments on ISA led to four possible implementation scenarios for ISA in Germany. However, due to a strong political opposition against ISA it is also thinkable that ISA is not implemented or the implementation process starts after 2015 (i.e. outside the aimed period of time). The scenarios are as follows: A) Implementation of version 1 by market forces with governmental subventions. B) Implementation of version 2 by market forces supported by traffic safety institutions and image-making processes. C) Implementation of a modified version 3 by law for speed offenders instead of cancellation of the driving licence. D) Implementation of various versions in Germany because of a broad implementation of ISA in the SUNflower states. X) Non-implementation of ISA leads to the necessity of alternative speed management measures. The author prefers scenario B because - ceteris paribus - it seems to be the most likely way to implement the technology. As soon as ISA reaches technical maturity, the implementation process has to be accomplished in three steps. 1) Marketing and image making 2) Margin introduction 3) Market penetration This implementation process for ISA by market forces could effect a percentage of at least 15% of all vehicles equipped with ISA before the year 2015.
In traditional portfolio optimization under the threat of a crash the investment horizon or time to maturity is neglected. Developing the so-called crash hedging strategies (which are portfolio strategies which make an investor indifferent to the occurrence of an uncertain (down) jumps of the price of the risky asset) the time to maturity turns out to be essential. The crash hedging strategies are derived as solutions of non-linear differential equations which itself are consequences of an equilibrium strategy. Hereby the situation of changing market coefficients after a possible crash is considered for the case of logarithmic utility as well as for the case of general utility functions. A benefit-cost analysis of the crash hedging strategy is done as well as a comparison of the crash hedging strategy with the optimal portfolio strategies given in traditional crash models. Moreover, it will be shown that the crash hedging strategies optimize the worst-case bound for the expected utility from final wealth subject to some restrictions. Another application is to model crash hedging strategies in situations where both the number and the height of the crash are uncertain but bounded. Taking the additional information of the probability of a possible crash happening into account leads to the development of the q-quantile crash hedging strategy.
Untersuchung des Stoffübergangs bei der Trennung von Kobalt und Nickel durch Reaktivextraktion
(2004)
Die Trennung von Kobalt und Nickel in reine Komponenten ist schwierig auf Grund ihres ähnlichen physiko-chemischen Verhaltens. Die Reaktivextraktion bietet hierfür eine geeignete Prozessvariante. Im Rahmen dieser Arbeit wurde der Stoffübergang bei der Trennung von Kobalt und Nickel aus wässrigen Lösungen mit Hilfe der Reaktivextraktion untersucht. Die bei der Auslegung von Extraktoren wichtigen Kinetikdaten wurden in gängigen Standardapparaturen ermittelt. Neben den Gleichgewichten ? dem treibenden thermodynamischen Gefälle für den Stofftransport ? wurden in Tropfensäulen und Rührzellen kinetische Parameter ermittelt. Die Modellierung der experimentell ermittelten Gleichgewichtsdaten basiert auf einem thermodynamischen Modell, welches den Pitzer Ansatz, für Elektrolytlösungen, und den Ansatz von Hildebrand-Scott für organische Phasen berücksichtigt. Diese Modelle geben die Gleichgewichtsdaten zufriedenstellend wieder. Das Extraktionsverhalten wurde bis zu technisch relevanten Konzentrationen untersucht, der Maximalbeladung des organischen Ionentauschers. Auf Grund dieser eingesetzten Konzentrationen und der damit einhergehenden Vorkontaktierung des Ionentauschers mit Lauge, um einen pH-Wert Abfall bei der Extraktion abzupuffern, kam es zu Stabilitäts-phänomenen, die die Verwendung der Standardapparaturen nur eingeschränkt zulassen. Der Ionentauscher verhält sich bei hohen Vorkontaktierungsstärken als Tensid, bildet unterschiedliche Mizellformen in wässrigen und organischen Phasen, und zeigt einen Phasenzerfall, wie es von Winsor-Systemen bekannt ist. Daher wurde das Phasenverhalten in Abhängigkeit der Tensidkonzentration untersucht, es wurden vier Gebiete identifiziert, in denen das Stoffsystem 1 bis 4 phasig vorliegt. Eine Screening Apparatur wurde entworfen, mit der, bei technisch relevanten Vorkontaktierungen, unabhängig vom Phasenverhalten kinetische Aufschlüsse des Systems gewonnen werden können. Die Kontaktzeit zum Erreichen von 80 % des Gleichgewichtswertes schwankt je nach Konzentration von 20-60 s für Kobalt und Nickel. Über eine Einstellung der Verweilzeit ist es nicht möglich, eine zusätzliche Selektivität über das Gleichgewicht hinaus einzustellen, da bei niedrigen Kontaktzeiten ein Überschwingen der Nickelkonzentration über den Gleichgewichtswert hinaus in der organischen Phase auf Grund von Mizellbildung zu beobachten ist. Für die Kolonnenauslegung eines Reaktivextraktionsprozesses mit Phosphinsäuren ist der auftretende Phasenzerfall bei hohen Vorkontaktierungen unbedingt zu berücksichtigen, um Ablagerungen von Ionentauschersalz an Kolonneneinbauten zu vermeiden.
Liquid composite moulding (LCM) is an efficient process for manufacturing polymer
composite structures. During LCM a liquid thermoset resin is injected into the mould
cavity containing a pre-placed dry fabric preform. In the last step of the process the
resin cures and afterwards the part can be removed from the mould. Due to relative
low injection pressure applied in processing this technique is expected to offer
potential for cost reduction in the fabrication of large parts of complex shape.
However, in practice, much time is spent for optimising processing parameters and
properly designing the mould in order to avoid problems such as void formation and
dry spots. The common trial and error tactic to determine optimised parameters
increases time and costs for an optimal process configuration. Thus simulation will
help to speed up the development process saving cost and time.
When producing double curved parts the angles between warp and weft fibres of the
fabrics change and influence the permeability of the fabric as well as the preferred
direction of flow through the fabric during the injection phase. Further on these
shearing effects increase the fibre volume fractions and therefore less resin is
available in the correspondent areas. This leads to different results of the curing
process in the sheared areas compared to the curing process in the unsheared
areas.
Opposite to the current LCM simulation technique where only the injection process is simulated, this work presents the simulation of the three single processes and
combines them in an appropriate way to improve the simulation results.
First draping simulations are performed. Therefore, the shear behaviour is
investigated. These results are used in the draping simulation in order to obtain the
fibre orientations of the warp and weft fibres. The draping results are verified by
comparing them with the corresponding parameters of parts formed.
In order to use the results of the draping simulation in the flow simulation an interface
is developed that transforms the result files obtained from the draping simulation into
a file format suitable for the flow simulation. The mode of operation of this interface is
illustrated. First a standard file format is generated to combine the shearing angles
and the node locations delivered by PamForm™. A programme is developed that reads the node locations, the shear angles and the fibre orientations at the end of the
draping simulation and creates a new file usable for the flow simulations. Further on
several features are implemented in the new model as for example the automatic
generation of a circular inlet with a defined diameter and the adjustment of the
draping model to the model for the flow simulation concerning the fitting of the
geometry model. In order to consider the changes of permeability and fibre volume
fraction in sheared areas, zones are defined which represent areas of the same fibre
volume fractions and the same permeability. Flow experiments on sheared fabrics
are performed to get information about the flow behaviour. The permeability values of
the sheared fabric are calculated by observing the position of the flow front over time
and the application of Darcy’s law. This material behaviour is implemented into a
commercially available LCM-simulation software which is verified first using a simple
plate with a sheared fabric, then using a double curved structure (hemisphere) with
draped fabric. After the verification based on the hemisphere another part is chosen
to show the ability of the interface to deal with more complicated geometries.
To obtain the input parameters for the cure kinetic model of Kamal-Sourour an epoxy
resin is characterised using DSC. The validity of this model is verified by comparing
the cure process of a flat sheet with a rib with the corresponding simulation results.
To determine the influence of the fibre volume fraction on the maximum temperature,
a cure simulation of the hemisphere with the zone distribution is performed. Cure
Simulation on a flat plate are done to quantify the influence of the thickness of the
part on the maximum temperature in the part.
In der vorliegenden Arbeit wird eine Simulation der Prozesskette der
Harzinjektionsverfahren vorgestellt. Dazu wird der Gesamtprozess in drei
unterschiedliche Einzelprozesse unterteilt: Drapierung, Injektion und Aushärtung.
Die für die gesamte Prozesskette grundlegende Simulation stellt die
Drapiersimulation dar. Diese liefert die Faserorientierungen des drapierten Bauteils,
die für die im Anschluss durchzuführende Injektionssimulation entscheidend sind.
Um die Ergebnisse der Drapiersimulation zur Simulation der Fließvorgänge zu
nutzen, wird eine Schnittstelle entwickelt. Diese wandelt die Ergebnisse der
Drapiersimulation in ein für die Injektionssimulation nutzbares Format um und
berücksichtigt deren spezielle Anforderungen an das Simulationsmodell.
Zur möglichst effizienten Durchführung der Harzinjektionssimulation wird das Modell
in einzelne Zonen mit gleichen Permeabilitätswerten und Faservolumengehalten
unterteilt. Um den Einfluss der Gewebescherung auf das Fließverhalten von Fluiden
zu ermitteln, werden Fließversuche mit gescherten Geweben durchgeführt und
verifiziert.
Die Funktionsweise der Schnittstelle und die Anwendbarkeit der gemessenen
Materialkennwerte werden an einer Kugelhalbschale demonstriert und durch
Versuche verifiziert. Anhand einer Armaturentafel wird der Nutzen der Schnittstelle
für die Fließsimulation komplexer Bauteile gezeigt.
Die Prozesskette wird mit der Simulation der Aushärtevorgänge abgeschlossen.
Dazu wird ein reaktionskinetisches Modell nach Kamal-Sourour für ein ausgewähltes
Epoxidharz erstellt. Anhand einer Rippenstruktur wird die Aushärtesimulation
verifiziert. Durch die Aushärtesimulationen kann der Einfluss des Faservolumengehalts
sowie der Bauteildicke auf die während des Aushärtevorgangs erreichbaren
Maximaltemperaturen ermittelt werden.
Es wurde ein fahrzeugtaugliches SCR-Gesamtsystem auf der Basis von trockenem Harnstoff dargestellt, bei dem die Reduktionsmittelaufbereitung in einem elektrisch beheizten Reaktor erfolgt. Trockener Harnstoff bietet gegenüber der wässrigen Harnstofflösung eine Gewichtsersparnis von 67,5% und eine uneingeschränkte Wintertauglichkeit. Im externen Reaktor wird der Harnstoff unter stets optimalen Reaktionsbedingungen zersetzt. Der Harnstoff wird in Form von runden Pellets in einem Größenspektrum von 1,8-2,0 mm eingesetzt. Die Dosierung erfolgt durch Vereinzeln der Pellets mit einem Zellenraddosierer. Der Harnstoffmengenstrom wird durch Veränderung der Pausenzeit zwischen zwei Einzelportionen angepasst. Mit dem Dosiersystem ist die Reduktionsmittelversorgung im gesamten Motorkennfeld gewährleistet. Der Transport der Pellets vom Dosierer zum Reaktor erfolgt sequenziell durch eine Leitung nach dem Blasrohrprinzip mittels Druckluft. Die Druckluft wird durch einen Kompressor bereitgestellt. Das Förderprinzip ermöglicht einen Pellettransport über mehrere Meter, wobei Krümmungsradien bis 40 mm und vertikale Förderung entgegen der Schwerkraft unproblematisch sind. Der Reaktor besteht aus einer Thermolysekammer mit elektrisch auf 400°C beheizten Wänden und einem nachgeschalteten Hydrolysekatalysator. Die Harnstoffpellets werden in die Kammer eingebracht und thermisch zersetzt. Das für die Hydrolyse benötigte Wasser wird durch einen Abgasteilstrom bereitgestellt, der in die Thermolysekammer eingekoppelt und dort ebenfalls aufgeheizt wird. Die Zersetzungsprodukte Ammoniak und Kohlendioxid werden in den Abgashauptstrom eingebracht. Mit dem Gesamtsystem werden unter optimalen Randbedingungen NOx-Konvertierungsraten über 99% erreicht. Die NOx - und NH3-Bilanz zeigt allerdings, dass der Reduktionsmittelnutzungsgrad lediglich bei etwa 85% liegt. Im Hydrolysekatalysator wird ein Anteil des Ammoniaks oxidiert. Ein weiterer Teil wird durch Nebenreaktionen am SCR-Katalysator verbraucht. Das Verhalten des SCR-Katalysators unter dynamischen Betriebsbedingungen wurde mit Hilfe eines mathematischen Modells diskutiert. Das NH3-Adsorptionsvermögen des SCR-Katalysators nimmt mit steigender Temperatur stark ab. Gleichzeitig wird bei niedrigen Temperaturen bis etwa 250°C ein vergleichsweise hohes NH3-Beladungsniveau benötigt, um maximale NOx-Konvertierung zu erzielen. Bei höheren Temperaturen verläuft die SCR-Reaktion hingegen spontan in einer kurzen Reaktionszone am Katalysatoreintritt. Bei einem Wechsel des Motorbetriebspunktes von niedriger auf hohe Last steigt die Katalysatortemperatur schnell an. Das Adsorptionsvermögen des Katalysators nimmt ab. Wenn die eingespeicherte Reduktionsmittelmenge nicht in der SCR-Reaktion verbraucht wird, kommt es zu NH3-Schlupf. Bei niedrigeren Temperaturen muss daher die NH3-Beladung begrenzt werden. Dies hat allerdings eine verminderte NOx-Konvertierung zur Folge. Der Einfluss verschiedener Parameter auf den NOx-Umsatz und den Reduktionsmittelverbrauch wurde anhand des MVEG-Zyklus diskutiert. Durch kurzzeitige Hochdosierung und anschließende Anpassung der Reduktionsmittelmenge an den momentanen Umsatz wird die beste Ausnutzung des eingebrachten Reduktionsmittels erzielt. Ein optimierter NO2-Anteil bewirkt insbesondere in der Startphase eine höhere NOx-Konvertierungsrate. Ein größerer SCR-Katalysator vermindert die NH3-Schlupfgefahr. Die Reduktionsmittelausnutzung nimmt jedoch ab, so dass ein größerer Reduktionsmittelanteil im Katalysator verbleibt. Durch motornahe Positionierung erfährt der SCR-Katalysator ein höheres Temperaturkollektiv. Der NOx-Umsatz steigt dadurch deutlich. Gleichzeitig ist die im Katalysator verbleibende Reduktionsmittelmenge geringer. Dies erlaubt eine einfache Dosierstrategie, bei der sich die Reduktionsmitteldosierung an der momentanen Stickoxidkonvertierung orientiert. Für das Gesamtsystem wurde eine Betriebsstrategie erarbeitet, die gezielt auf die funktionalen Grenzen der Systemkomponenten abgestimmt ist. Die zugrunde liegende Emissionsminderungsstrategie sieht eine konstante fahrstreckenbezogene NOx-Minderung in allen Betriebszuständen vor. Hierdurch ist es möglich, sowohl alle für die Zertifizierung erforderlichen Abgasgrenzwerte zu unterschreiten, als auch eine deutliche Emissionsminderung außerhalb der prüfrelevanten Fahrzyklen zu erzielen. Gleichzeitig kann für eine definierte Fahrstrecke die mitzuführende Reduktionsmittelmenge genau vorhergesagt werden. Das Gesamtsystem wurde in einem EURO III-Versuchsfahrzeug auf dem Rollenprüfstand sowie im Straßenverkehr betrieben. Im Rahmen der bisherigen Tests konnte die Systemfunktion nachgewiesen werden. Im MVEG-Zyklus wird der EURO IV-NOx-Grenzwert mit vorkonditioniertem SCR-Katalysator knapp unterschritten. Durch eine gezielte Abstimmung des Motors auf die Erfordernisse des Abgasnachbehandlungssystems und eine Optimierung des NO2-Anteils ist eine weitere Absenkung des Emissionsniveaus möglich.
In this thesis we show that the theory of algebraic correspondences introduced by Deuring in the 1930s can be applied to construct non-trivial homomorphisms between the Jacobi groups of hyperelliptic function fields. Concretely, we deduce algorithms to add and multiply correspondences which perform in a reasonable time if the degrees of the associated divisors of the double field are small. Moreover, we show how to compute the differential matrices associated to prime divisors of the double field for arbitrary genus. These matrices give a representation for the homomorphisms or endomorphisms in the additive group (ring) of matrices which is even faithful if the ground field has characteristic zero. As first examples for non-trivial correspondences we investigate multiplication by m endomorphisms. Afterwards we use factorisations of certain bivariate polynomials to construct prime divisors of the double field that are not equivalent to 0 in a coarser sense. Applying the theory of Deuring, these divisors yield homomorphisms between the Jacobi groups of special classes of hyperelliptic function fields. Finally, we generalise the Richelot isogeny to higher genus and by this way derive a class of hyperelliptic function fields given in terms of their defining polynomials which admit non-trivial homomorphisms. These include homomorphisms between the Jacobi groups of hyperelliptic curves of different as well as of equal genus. In addition we provide an explicit method to construct genus 2 function fields the endomorphism ring of which contains a sqrt(2) multiplication with the help of the Cholesky decomposition of a certain matrix.
Im Rahmen dieser Arbeit wurde versucht verschiedene Aspekte der Wirkung von "nicht-dioxinartigen" PCBs in Hepatozyten in vitro aufzuklären und mit einer in vivo-Studie einen Beitrag zur Aufklärung der tumorpromovierenden Wirkung von zwei "nicht-dioxinartigen" PCB-Kongeneren zu leisten. Zur Untersuchung der Beeinflussung der intrazellulären Calcium-Homöostase wurden isolierte Membranfraktionen einer Rattenleber nach dem Einbau von spinmarkierten Fettsäuren mit zwei PCB-Kongeneren unterschiedlicher räumlicher Struktur behandelt und mit Hilfe der Elektronen Spin Resonanz vermessen. Weder das "dioxinartige" PCB 126 noch das "nicht-dioxinartige" PCB 153 zeigten einen direkte Störung der Membranintegrität. Die Bestimmung der intrazellulären Ca2+-Konzentration von Rattenhepatozyten in Primärkultur erfolgte mikrofluorimetrisch nach Beladung der Zellen mit einem Ca2+-sensitiven Farbstoff. Auch hier ergab sich keine Störung der Ca2+-Homöostase nach einer Behandlung mit PCB 153. Die Beeinflussung eines apoptotischen Signalweges, die Signaltransduktion über PI3K/PKB, wurde anhand der Phosphorylierung des proapoptotischen Proteins Bad in Rattenhepatozyten in Primärkultur überprüft. PCB 153 zeigte in niedrigen Konzentrationen eine Phosphorylierung von Bad an Serin 136. Der Gesamtproteinlevel war nach Behandlung mit PCB 153 in einigen Versuchen sehr stark reduziert. Diese Befunde stellen einen wichtigen Ansatzpunkt für eingehendere mechanistische Untersuchungen der tumorpromovierenden Wirkung dieser Substanzen dar, der im Rahmen dieser Arbeit nicht mehr verfolgt werden konnte. Mit einem Caspase-3-Assay konnte in vorliegender Arbeit ein biochemischer Apoptose-Nachweis in primären Hepatozyten etabliert werden. Die Topoisomerase-Inhibitoren Etoposid und Camptothecin zeigten sich zur Aktivierung der Caspase-3 als weniger gut geeignet. Der Einsatz von MNNG als apoptogenem Agens verlief erfolgreich, was durch fluoreszenzmikroskopische Detektion apoptotischer Zellkerne bestätigt werden konnte. Im weiteren Verlauf wurde die Beeinflussung der MNNG-induzierten Caspase-3-Aktivierung durch verschiedene Tumorpromotoren untersucht. Mit Phenobarbital und dem "nicht-dioxinartigen" PCB 153 konnte eine Hemmung der MNNG-induzierten Caspase-3-Aktivität gezeigt werden. Dieser Effekt wurde bei Behandlung mit TCDD und dem "dioxinartigen" PCB 126 jedoch nicht gesehen. Die Überprüfung dieser Ergebnisse in einem weiteren biochemischen Nachweis der Apoptose, der Freisetzung von Cytochrom c aus den Mitochondrien, konnte nicht mehr in ausreichendem Maße durchgeführt werden. In einer an weiblichen Wistar-Ratten durchgeführten Initiations-Promotions-Studie zeigte sich eine schwache tumorpromovierende Wirkung der beiden "nicht-dioxinartigen" PCB-Kongenere 28 und 101. Das promovierende Wachstum wurde anhand zweier charakteristischer Parameter für Präneoplasien der Leber, einer verringerten ATPase-Aktivität und einer erhöhten Expression der GSTP, nach vorangegangener Behandlung mit DEN untersucht. Es konnte für beide Kongenere eine signifikante Zunahme des ATPase-negativen Focusvolumens, nicht aber der Zahl der ATPase-negativen Foci gezeigt werden. GSTP-positive Foci zeigten kein signifikantes promovierendes Wachstum. Nach Behandlung mit PCB 28 war eine Zunahme des relativen Lebergewichts zu verzeichnen. Eine erhöhte DNA-Synthese in GSTP-positiven Zellen konnte nicht gezeigt werden. Eine Analyse der PCB-Gehalte im hepatischen Gewebe der Versuchstiere ergab eine 5-13-fach höhere Akkumulation von PCB 28, möglicherweise resultierend aus einer schnelleren Metabolisierung von PCB 101. Entstehende Metabolite wurden im Rahmen dieses Versuchs jedoch nicht analytisch erfasst. Es zeigte sich eine Induktion der PROD durch PCB 28 und 101, auch die EROD konnte durch beide Kongenere induziert werden, wobei die Induktion durch PCB 28 hier wesentlich höher lag. Da die Induktionshöhe der EROD jedoch sehr gering ist, können die Kongenere nicht als "mixed type inducer" angesehen werden.
Aufgrund der in der Extraktion vorkommenden physikalischen Vorgänge, wie Benetzung oder Koaleszenz, wird die Auslegung von Extraktionsprozessen auch in absehbarer Zukunft nicht ohne Laborversuche und Pilotierung in den entsprechenden Extraktionsapparaten auskommen. Eine Möglichkeit, die Anzahl an zeit- und kostenintensiven Versuchen in Technikumskolonnen zu verringern, bzw. ganz darauf zu verzichten, stellt der Einsatz von Miniplantextraktoren dar, die mit deutlich reduzierten Volumenströmen betrieben werden können. In dieser Arbeit wurde ein gerührter Miniplantextraktor der Bauart Kühni, mit einem Innendurchmesser von 32 mm, bezüglich Hydrodynamik und Stofftransport untersucht. Bei den Untersuchungen kam das für mittlere Grenzflächenspannungen von der EFCE empfohlene Teststoffsystem n-Butylacetat(d)–Wasser mit Aceton als Übergangskomponent zum Einsatz. Die sich in der Kolonne einstellende Hydrodynamik ist maßgeblich vom Koaleszenzverhalten dieses Stoffsystems abhängig. Beim Einsatz von undestilliertem Butylacetat wirkt sich die verschlechterte Koaleszenzneigung des Stoffsystems in der Ausbildung einer extremen, höhenabhängigen Zunahme des Dispersphasenanteils aus. Aufgrund der hohen Anzahl an einzelnen gerührten Compartments, kommt es schon bei moderaten Rührerdrehzahlen im oberen Teil der Kolonne zu Holdup-Werten nahe am Flutpunkt, während im unteren Teil der Kolonne die Tropfendispergierung unzureichend ist. Bei besser koaleszierenden Systemen ist die Holdup- Problematik in dieser Form nicht zu beobachten. Die Erhöhung der Compartmenthöhe erbrachte eine Steigerung der Belastbarkeit. Wird die freie Querschnittsfläche größer als 30% gewählt, so ist die Kolonne ähnlich belastbar wie eine Pilotkolonne mit Nenndurchmesser 150 mm. Bei den Untersuchungen zum Trennverhalten der Kolonne konnten, wie auch schon in den Arbeiten anderer Autoren, mit steigender Belastung Maxima im Verlauf der Trennwirkung beobachtet werden. Dieses atypische Verhalten der Trennleistung wird bei anderen Testgemischen nicht festgestellt. Eine Reduzierung der Compartmenhöhe wirkt sich im untersuchten Fall förderlich auf die Trennleistung aus. Bei optimalen Betriebsbedingungen liegt die Trennleistung des Miniplantextraktors bei ca. 8,5 Ntheo/m, also deutlich über der Trennleistung der Technikumskolonne. Zur Erklärung dieser erhöhten Trennleistung wurden einphasige Tracerexperimente zur Bestimmung des axialen Dispersionskoeffizienten der kontinuierlichen Phase durchgeführt. Es zeigt sich, dass die gemessenen Dispersionskoeffizienten im Schnitt ca. 3 mal kleiner sind, als in einer Technikumskolonne mit einem Nenndurchmesser von 150 mm. Basierend auf diesen Untersuchungen gelingt es, mit dem eindimensionalen Dispersionsmodell, die in der Kolonne gemessenen Konzentrationsverläufe zu beschreiben. Eine Möglichkeit, den dreidimensionalen Charakter der Strömung in einer Extraktionskolonne zu untersuchen, stellen die durchgeführten CFD-Simulationen dar. Sowohl in der Technikumskolonne, als auch im Miniplantextraktor induziert der Rührer eine torusförmige Strömung in einem Compartment. Ein Vergleich simulierter Axialgeschwindigkeiten mit PIV-Messungen, erbrachte eine zufrieden stellende Übereinstimmung. Die Analyse dieser Axialgeschwindigkeiten auf Stauscheibenhöhe in der Technikumskolonne, zeigt in bestimmten Bereichen deutliche Geschwindigkeitsüberhöhungen und Richtungsumkehr. In der Miniplantkolonne tritt dieser Effekt deutlich abgeschwächt auf, wodurch anzunehmen ist, dass diese "Nichtidealität" die Ursache für größere Dispersionskoeffizienten in Technikumskolonnen ist. Die Kombination aus Gittergröße im Miniplantextraktor und die in der Extraktion üblicherweise zu erwartenden Partikelgröße, beschränkt die Zweiphasensimulation auf die Berechnung des axialen Dispersionskoeffizienten der kontinuierlichen Phase. Die Simulation des Dispersionskoeffizienten der kontinuierlichen Phase, erbrachte mit dem Euler-Lagrange-Modell gute Ergebnisse. Analoge Simulationen mit einem vergrößerten Maßstab (Technikumskolonne mit Nennweite 150 mm) führten dagegen mit beiden Modellen zu deutlichen Abweichungen zu realen Dispersionskoeffizienten. Der für die Bestimmung der Umlaufzahl notwendige radiale Durchsatz des vom Rührer geförderten Volumenstroms, konnte mit CFD gut wiedergegeben werden. Die von Fischer experimentell bestimmten NEWTON-Zahlen werden in den Simulationen etwa 20-30% zu groß wiedergegeben.
Gradientenwerkstoffe sind Werkstoffe, deren Zusammensetzung und/oder Mikrostruktur sich in einer oder mehreren räumlichen Richtungen ändert. Daraus ergibt sich die Möglichkeit, funktionelle Bauteile mit unterschiedlichen Materialeigenschaften auf verschiedenen Oberflächen oder Seiten speziell an einzelne Anwendungsfälle anzupassen. Bei der Herstellung der Gradientenwerkstoffe mit einer durchgängigen Matrix ergeben sich weitere besonderen Eigenschaften wie eine kontinuierliche Änderung der Materialeigenschaften. Solche Werkstoffe besitzen gegenüber beschichteten oder sandwichartig aufgebauten Materialien außerdem die Vorteile niedriger innerer Spannungen und sie neigen nicht zu Abplatzeffekten. Im Rahmen des Projekts konnte gezeigt werden, dass die Zentrifugation eine geeignete Methode zur Herstellung Epoxidharz-basierender Gradientenwerkstoffe ist. Bei einer entsprechenden Wahl der Zentrifugationsparameter wie Drehzahl, Dauer der Zentrifugation und Viskosität des Harzes ließen sich kontrolliert unterschiedlichste Füllstoffverteilungen einstellen. Diese umfassten Varianten von der homogenen Verteilung über eine kontinuierliche gradierte Änderung des Füllstoffgehalts bis hin zu einer vollständigen Separation der Probe in einen Reinharzbereich und einen maximal gefüllten Bereich. Es wurde ein Softwaretool entwickelt, das die Füllstoffverteilung in Abhängigkeit aller Zentrifugationsparameter berechnete. Dabei ergab sich eine gute Übereinstimmung der Experimente mit der Simulation. Durch die Zentrifugation ließen sich in den äußeren Probenbereichen wesentlich höhere Füllgrade erzielen, als dies durch reine Vakuummischtechnik möglich gewesen wäre. Bei einigen Füllstoffen und Füllstoffkombinationen zeigten die maximal gefüllten Zonen der Gradientenwerkstoffe eine deutlich höhere Verschleißfestigkeit als die maximal isotrop gefüllten Proben. Diese Verbesserung durch Gradierung ließ sich auch für trockengeschmierte, Graphit-gefüllte Werkstoffe zeigen. Die Verschleißraten der trockengeschmierten Gradientenwerkstoffe verringerten sich gegenüber den ungeschmierten Werkstoffen deutlich. Bei einer geeigneten Wahl der Füllstoffverteilung ließ sich sowohl eine Verbesserung der Verschleißfestigkeit auf der äußeren, verschleißbelasteten Zone der Materialien erzielen, als auch gleichzeitig eine höhere Schlagzähigkeit im Inneren der Probe. Die Verbesserung der Verschleißfestigkeit durch die Gradierung konnte auf eine Bauteilgeometrie übertragen werden. Gleitlager-Innenringe mit einer, durch Zentrifugation hoch gefüllten äußeren Zone, zeigten in Gleitverschleißexperimenten eine höhere Verschleißfestigkeit als vergleichbare isotrope Werkstoffe. Als weiter Demonstrator-Bauteile wurden Laufrollen mit der gleichen Geometrie wie kommerziell erhältliche Rollen hergestellt. Diese Rollen wurden mit einem kontinuierlichen Aramid Gradienten in der polymeren Zone um den Stahlkern gefertigt.
Die vorliegende Arbeit gliedert sich in die drei Themenschwerpunkte FICTION-Technik (Fluorescence-Immunophenotyping and Interphase Cytogenetic as a Tool for Investigation of Neoplasms), SKY-Technik (Spectral Karyotyping) und Kultivierungsverfahren. Mittels der FICTION-Technik konnte gezeigt werden, dass die Trisomie 12 bei 53 untersuchten B-CLL-Patienten mit etwa 11% deutlich seltener auftrat, als in der Literatur beschrieben. Es scheint eine Assoziation zwischen dem Auftreten einer Trisomie 12 und einer atypischen B-CLL vorzuliegen, da drei der sechs Fälle mit Trisomie 12 eine atypische B-CLL Variante darstellten. Bei einem Fall konnte der Trisomie 12 tragende Klon über 13 Monate beobachtet werden und zeigte in diesem Zeitraum keine signifikante Veränderung. Der Klon blieb weitestgehend stabil. Eine aus Vorversuchen von Doris Herrmann vermutete Existenz einer Monosomie 12 bei B-CLL-Patienten (persönliche Miteilung) hat sich nicht bestätigt. Bei allen untersuchten Proben lagen die Zellen mit Monosomie 12 unter dem ermittelten cut off level von 10,2% für die Hybridisierung. Als zweiter Schwerpunkt wurde die Einsatzfähigkeit der SKY-Technik in der Tumorzytogenetik durch die Analyse von 20 Tumorfällen ausgetestet. Unter den 20 untersuchten tumorzytogenetischen Fällen konnte bei 12 der durch G-Bänderung erhobene Befund verbessert und erweitert werden. Bei drei Fällen wurden neue, in der G-Bandenanalyse nicht gefundene Aberrationen identifiziert und in fünf Fällen bestätigte sich der G-Bandenbefund. Die SKY-Technik erwies sich als wertvolle Methode zur weiteren Charakterisierung von komplex aberranten Karyotypen oder zur Identifikation von Markerchromosomen, wobei nicht alle Aberrationen aufklärt werden konnten. Unter den 20 untersuchten Fällen wurde bei zwei myeloischen Erkrankungen neben einer Monosomie 7 die Translokation t(3;21)(q26;q22) gefunden. Möglicherweise kommt diese häufiger als bisher beschrieben in myeloischen Erkrankungen vor, weil sie durch die G-Bandenanalyse nicht sicher erkannt wird. Vorzugsweise scheint sie neben einer Monosomie 7 aufzutreten. In dem Schwerpunkt, der sich mit der Kultivierung von neoplastischen B-Zellen beschäftigte, konnte ein neues Kultivierungsverfahren für B-Zellen entwickelt werden. Eine Kultivierung mit MP-6 Zellen konditioniertem ISCOVE-Medium und dem Phorbolester TPA zeigte in 15 von 20 Proben einen synergistischen Effekt auf die Proliferationssteigerung (um das 1,5-21 fache) gegenüber dem TPA-Standardansatz in RPMI-Medium. Durch eine Metaphasenanalyse von fünf Fällen mit numerischen Mosaikbefunden konnte gezeigt werden, dass das Verhältnis zwischen aberranten und normalen Klonen bei beiden Kultivierungsarten etwa gleich blieb. Eine Lebend-Tot-Bestimmung vor und nach der Kultivierung zeigte, dass nach 72-stündiger Kultivierung in den Kulturen mit dem höchsten Mitoseindex die durchschnittlich Lebendzellzahl am geringsten (ca. 70%) war.
Ochratoxin A (OTA) ist ein nierentoxisches und -kanzerogenes Mykotoxin, das von verschiedenen Aspergillus- und Penicillium-Stämmen gebildet wird. Kontaminationen mit OTA sind vor allem in pflanzlichen Produkten wie Getreide und Getreideprodukte, Kaffee, Traubensaft und Wein, Bier, Nüsse, Gewürze aber auch in Fleisch nachweisbar. Verbraucher nehmen in Deutschland wöchentlich ca. 5 ng/kg KG OTA auf. In subakuten und subchronischen Studien wurde ausgeprägte Nierentoxizität gezeigt, zudem ist OTA als immunsuppressiv, teratogen, neurotoxisch und hepatokanzerogen beschrieben. Eine Beteiligung von OTA an der beim Menschen auftretenden endemischen Balkannephropathie (BEN) wird diskutiert. Der Mechanismus der kanzerogenen Wirkung von OTA ist noch immer unklar. Die in Studien zur Genotoxizität erhaltenen, widersprüchliche Resultate könnten möglicherweise auf sekundäre Mechanismen wie oxidativem Stress zurückzuführen sein. Die Generierung reaktiver Sauerstoffspezies und die Induktion von Lipidperoxidation wurde beobachtet, eine Reihe toxischer Effekte in vitro und in vivo war durch Gabe von Antioxidantien abgeschwächt. Mit verschiedenen Endpunkten (Nekrose, Wachstumshemmung, Apoptose) wurde in Zelllinien (V79, CV-1) und in primären proximalen Tubuluszellen der Ratte (PNZ) die Induktion von Zytotoxizität durch OTA untersucht. OTA zeigte in Kurzzeitinkubations-Experimenten (1 h) kein Potenzial, die Viabilität von Zelllinien und PNZ zu verringern. Nach 24stündiger Inkubation war nur in V79-Zellen die Membranintegrität (Trypanblauausschluss) beeinträchtigt. Eine starke Wachstumshemmung mit IC50-Werten um 2 µmol/L wurde in beiden verwendeten Zelllinien gemessen. Mittels eines immunchemischen Tests und der Durchflusszytometrie wurde bei Konzentrationen über 1 µmol/L OTA (24 h) die Induktion von Apoptose beobachtet. Die in CV-1-Zellen beobachteten Parameter für Zytotoxizität, insbesondere die durchflusszytometrischen Untersuchungen, zeigten, dass die Effekte in einem relativ eng begrenzten, µmolaren Konzentrationsbereich zu beobachten sind, also möglicherweise nicht spezifisch Nekrose oder Apoptose induziert wird. Zu den Mechanismen, über die unspezifisch Nekrose und Apoptose in Zellen induziert werden kann, gehören z.B. oxidativer Stress und DNA-Schädigung. Mit Hilfe des Comet-Assays wurde in den Zelllinien und PNZ die Induktion von (oxidativen) DNA-Schäden durch OTA untersucht. Die DNA-Basisschädigung war nur nach Kurzzeitinkubation (1h) mit sehr hohen OTA-Konzentrationen (> 500 µmol/L) in den Zelllinien bzw. nach 24 h in V79-Zellen erhöht. FPG-sensitive Stellen in der DNA wurden in allen verwendeten in vitro-Testsystemen nachgewiesen. Nach einstündiger Inkubation waren PNZ deutlich sensitiver gegenüber der Induktion von oxidativen DNA-Schäden (ca. Faktor 20) als die Zelllinien. Dies deutet darauf hin, dass die PNZ im Vergleich zu den Zelllinien stoffwechselbedingte Besonderheiten aufweisen, die die erhöhte Sensitivität bedingen. Nach 24stündiger Inkubation mit OTA lagen die Konzentrationen, die in den Zelllinien und den PNZ oxidative DNA-Schäden induzierten in einem vergleichbaren µmolaren Bereich. Der Verlust der erhöhten Sensitivität der PNZ könnte auf eine Umstellung des Stoffwechsels nach der insgesamt 48stündigen Kultivierung zurückzuführen sein. Das gemeinsame Auftreten von oxidativem Stress, Nierentoxizität und Zellproliferation könnten evtl. einen alternativen Mechanismus der Nierenkanzerogenität von OTA bilden. In Kooperation mit Dr. Turesky (NCTR, Jefferson, USA) wurde ein Tierversuch durchgeführt, in dem das DNA-schädigende Potenzial von OTA in Leber und Niere von Ratten, die über vier Wochen mit OTA behandelt worden waren, untersucht wurde. Die mit dem Comet-Assay in den Organen dieser Tiere gefundenen oxidativen DNA-Schäden, die grundsätzlich als prämutagenes Ereignis angesehen werden können, geben also möglicherweise einen ersten mechanistischen Hinweis auf die nierenkanzerogene Wirkung von OTA. Untermauert wird dies durch die beobachtete Abnahme des GSH-Gehaltes, die evtl. auf eine Depletion durch LPO-Produkte zurückzuführen ist. Nach 24stündiger Inkubation wurde eine Erhöhung des GSH-Gehaltes in den inkubierten CV-1-Zellen gemessen, die mit einer GSH-Neusynthese als Gegenreaktion zum oxidativen Stress begründet werden kann. Die in vitro Untersuchungen zeigen, dass die Konzentrationen, die in den Zellen oxidative DNA-Schäden verursachen, etwas niedriger sind (Faktor 5), als die Konzentrationen, die zytotoxische Effekte induzieren. Es kann also nicht ausgeschlossen werden, dass OTA über die Bildung oxidativer DNA-Schäden auch initiierendes Potenzial besitzt. In diesem Zusammenhang wäre zu klären, ob die in der Literatur beschriebene Proteinbiosynthesehemmung sich auf die antioxidative Abwehr in Zellen und Organismen auswirkt, so dass induzierte oxidative DNA-Schäden möglicherweise nicht mehr ausreichend repariert werden können und es so zur Tumorentstehung in vivo kommt.
Die vorliegende Arbeit beschäftigt sich mit der Chemorheologie von Duromeren mit
hybrider und interpenetrierender Struktur. Als Duromere werden fünf verschiedene
Harze untersucht: ein Vinylester-Harz (VE-Harz), ein Vinylester-Urethan-Hybridharz
(VEUH-Harz), ein schlagzähmodifiziertes VEUH-Harz (VEUH/ETBN-Harz), ein Vinylester-
Epoxid-Harz (VE/EP-Harz) und das reine aminhärtende Epoxid (EP-Harz), das
kommerziell als Reinstoff nicht eingesetzt wird, sondern als Verdünnungsmittel dient.
Das Ziel dieser Arbeit besteht darin, die Chemorheologie der genannten Harze zu messen
und zu modellieren.
Einige der untersuchten Harze sind bekannt, aber ihre Kombination, besonders in der
Form des VE/EP-Harzes sind völlig neu, so dass die Harze im Rahmen dieser Arbeit
zunächst untersucht und charakterisiert werden. Im experimentellen Teil der Arbeit
werden zur in situ Messung der Vernetzung die Thermogravimetrie, die Differenz-
Kalorimetrie, die Infrarot-Spektroskopie, die Rheometrie und die Dielektrometrie angewendet.
Es wird nachgewiesen, dass das VE-Harz radikalisch polymerisiert, das
VEUH-Harz und auch das schlagzähmodifizierte VEUH/ETBN-Harz in einer Kombination
aus Polyaddition und radikalischer Polymerisation vernetzen, das VE/EP-Harz in
einer Polyaddition mit überlagerten geringen Anteilen der radikalischen Polymerisation
und das EP-Harz in einer Polyaddition mit einer autokatalytischen Komponente zu Beginn
der Reaktion vernetzt. Anschließend werden die Netzwerke mit Hilfe von Wasseraufnahme,
Dynamisch-Mechanischer Thermoanalyse (DMTA) und Dichtebestimmungen
charakterisiert. Die Wasseraufnahme gibt einen ersten Hinweis auf die Netzwerkstruktur
und zeigt, dass das VE-, das VEUH- und das VEUH/ETBN-Harz sehr ähnliche
Netzwerke zu haben scheinen. Aus den Ergebnissen kann man weiterhin schließen,
dass das VE/EP-Harz ein deutlich weitmaschigeres Netzwerk im Vergleich zu den anderen
untersuchten Harzen hat. Da das EP-Harz während des Versuchs hydrolytisch
degradiert, kann keine Aussage über das Netzwerk getroffen werden. Aus den DMTAMessungen
erkennt man, dass die Glasübergangstemperatur des VE/EP-Harzes wie
erwartet zwischen denen der beiden reinen Komponenten liegt. Der Peak des Verlusttangens
ist deutlich breiter als die Peaks der anderen Harze. Die Dichtemessungen
zeigen, dass die Dichte sowohl des flüssigen als auch des festen VE/EP-Harzes am geringsten ist, die prozentuale Dichtezunahme vom flüssigen zum festen Harz jedoch
am größten ist.
Da die Schrumpfmessung von Harzen während der Vernetzung eine für die Praxis
sehr interessante Größe darstellt, jedoch kein kommerzielles Messgerät zur Verfügung
steht, wird diese Messgröße gesondert behandelt und mit einem in dieser Arbeit entwickelten
Gerät bestimmt. Es wird erfolgreich die Änderung des chemischen Schrumpfes
der Harzproben wie auch ihre thermische Volumenausdehnung gemessen. Abschließend wird ein mathematisches Modell aufgestellt, das die Chemorheologie
des VE-, EP-, und VE/EP-Harzes erfolgreich vorhersagt. Die Entwicklung der Modellgleichungen
beruht auf einer einheitlichen, systematischen Strategie und setzt ausschließlich
bekannte Komponenten ein. Der systematische Einsatz der einzelnen Komponenten
ist neu. Insgesamt ist das Modell in der Lage, die Viskositätsänderung der
Harze, die sie während ihrer Härtung erfahren, sowohl unter isothermen als auch dynamischen
Temperaturbedingungen zu berechenen.
The thesis at hand deals with chemorheology of duromeric materials having hybrid and
interpenetrating structures. Five different resins are investigated: a vinylester resin (VEresin),
a vinylester-urethane resin (VEUH-resin), a toughness modified VEUH-resin
(VEUH/ETBN-resin), a vinylester-epoxy resin (VE/EP-resin) and the pure amin-curing
epoxy (EP-resin). Commercially, the latter is not used on its own but only as solvent.
The aim of this work is to measure the crosslinking behaviour of these resins experimentally
and to simulate it mathematically.
Some of the resins named above are known but their combination, especially in the
form of VE/EP-resin, is completely new. Therefore the resins have to be characterised
first. Thermogravimetry, differential calorimetry, infrared spectroscopy, rheometry and
dielectrometry are used in the experimental part for in situ measurements of the crosslinking.
It is seen that the VE-resin crosslinks by radical polymerisation, the VEUH-resin
and the toughness modified VEUH/ETBN-resin by a combination of polyaddition and
radical polymerisation, the VE/EP-resin by polyaddition with small overlapping effects
caused by radical polymerisation whereas the EP-resin crosslinks by polyaddition with
autocatalytic components in the beginning of the reaction. Thereafter the crosslinked
resins are characterised with the help of water penetration, dynamic mechanical thermoanalysis
(DMTA) and density measurements. Water penetration gives first information
about the network structure; the VE-, the VEUH- and the VEUH/ETBN-resin seem to
have very similar networks. Moreover, it can be concluded from these experiments that
the network of the VE/EP-resin is wider compared to the other resins. Since the EPresin
degradates hydrolytically during the experiment its network cannot be analysed
by this method. The DMTA-experiments show that the glass transition temperature of
the VE/EP-resin is inbetween the glass transition temperatures of its pure components.
The peak of the loss modulus tanδ is clearly wider compared to the other resins. Density
measurements show, that the density of the liquid as well as of the solid VE/EP-resin
is the lowest, whereas the percentage of the density increase during solidification is
highest.
Since shrinkage measurements during crosslinking are very interesting from the industrial
point of view and there is no commercially available instrument at hand, an
instrument is developed within this thesis and shrinkage measurements are discussed
separately. The chemical shrinkage of the resins is successfully measured with this
new method. Also their thermal volume expansion is measured.
Finally, a mathematical modell is presented that simulates the chemorheology of the
VE-, EP-, and VE/EP-resin. The modell for the chemorheology is based on a unified
and systematical approach and uses well known components only. The combination
of the components is new. The modell is able to predict the resins’ viscosity during isothermal and dynamic experiments at the same time. The target of modelling the viscosity
of a resin independent from the time-temperature-profile is still discussed in the
open literature and the results of this thesis provide a contribution to this discussion.
Furthermore the mathematical approach of the chemorheological modell is simple and
only a small number of isothermal experiments is needed to determine the modell’s
parameters. Thus its handling is easy, even in a commercial environment.
Das Plasmid pKAP298 aus Caedibacter taeniospiralis, einem obligaten Parasiten aus Paramecium tetraurelia, wurde in Gänze sequenziert, analysiert und annotiert, mögliche vom Plasmid kodierte Funktionen wurden charakterisiert. Es konnten Plasmid-Fragmente mit Transkriptions-Aktivität identifiziert werden, eine Transkriptions-Aktivitätskarte bildet die Basis zur weiteren Identifizierung der aktiven ORFs. Anhand der Transkriptions-Aktivität und den identifizierten putativ kodierenden ORFs auf dem Plasmid pKAP298 konnten neue Hinweise auf ein wahrscheinlich auf dem Plasmid lokalisiertes Toxin-Gen gegeben werden. Aus Ähnlichkeiten zu schon bekannten Sequenzen konnte die Hypothese, dass pKAP298 aus einem Bakteriophagen evolvierte, gestützt und erweitert werden
Das moderne Wohngebäude zeichnet sich durch einen niedrigen Heizwärmebedarf aus. Mit Zunahme der Sensitivität des Wohngebäudes bezüglich der Solarstrahlung aufgrund neuartiger Systeme wie transparenter Wärmedämmung, Phasenwechselmaterialien oder großer Fensterflächen, erweitert sich der herkömmliche Regelungsansatz zur Einhaltung des behaglichen Raumklimas. Das thermische Gebäudeverhalten definiert sich weitaus komplexer. Es kommen neben der notwendigen Heizung weitere Aktoren (Sonnenschutzeinrichtung, Lüftung) ins Spiel. Die Zunahme der realisierbaren, solaren Erträge bewirken im Winter fossile Energieeinsparungen. Im Sommer sind jedoch ohne geeignete Maßnahmen Überhitzungen die Folge. Mit Hilfe moderner und vernetzter Regelungstechnik können Wirtschaftlichkeit des Systems und Komfort optimiert werden. Hierzu wurden bewährte Simulationswerkzeuge erweitert. Moderne Komponenten wie Phasenwechselmaterialien, transparente Wärmedämmung und Verschattungssysteme auf Basis einer schaltenden Schicht im Glasverbund erfahren eine Modellbildung. Umfangreiche Validierungen zu den Teilmodellen und zum Gesamtmodell zeigen, dass eine realitätsnahe Abbildung erreicht wird. Grundlage dieser Validierungssequenzen waren Feldtestmessungen an bewohnten Gebäuden, sowie Ergebnisse von Systemtestständen. Die Aussagesicherheit des gesamten Gebäudemodells wurde durch eine sogenannte "Cross-Validation" mit anderen etablierten Simulationsprogrammen hergestellt. Mit der Schaffung der realitätsnahen Abbildung eines solaroptimierten Wohngebäudes, welches an eine heizungsunterstützende, solarthermische Anlage gekoppelt ist, wurde die Grundlage zur Entwicklung einer prädiktiven Wärmeflussregelung in Wohngebäuden mit erweitertem thermischen Verhalten gelegt. Eine Untersuchung zum dynamischen Verhalten auf periodische Anregung von Einflussgrößen, zeigt die dominanten Zeitkonstanten des Gebäudesystems auf. Einfallende Solarstrahlung durch Fenster wirkt sich am schnellsten auf die empfundene Raumtemperatur aus. Dies hat Auswirkung auf die prädiktive Regelung. Während im Winter die Solarstrahlung zur Heizungsunterstützung herangezogen werden soll, gilt es, im Sommer die Bewohner vor Überhitzung zu schützen. Damit die Regelung in der Heizperiode an sonnigen Tagen nicht unnötig vorheizt (d. h. frühzeitig abgeschalten wird, da der zukünftige Heizbedarf von der Sonne gedeckt werden kann) und damit Überhitzungen(vor allem im Sommer) vermieden werden können, wurde für das untersuchte Gebäudemodell ein Prognosehorizont für den Prädiktor bestimmt. Mit dem modellbasierten Regelungskonzept wurde ein übergreifendes Wärmemanagementsystem entwickelt, welches mit der Information einer lokalen Wettervorhersage den thermischen Zustand des Gebäudes vorhersagt. Aufgrund des im Regler implementierten, reduzierten Modells, berücksichtigt die Prädiktion die besonderen Eigenschaften der eingesetzten Fassadenkomponenten. Umfangreiche, simulationsgestützte Untersuchungen bewerten das Regelungskonzept. Als Referenzsystem dient ein Gebäude mit herkömmlichem Regelungskonzept.
Mit Hilfe von Trifluormethansulfonsäure gelang die chemische Deglykosylierung von natürlichem Gelonin. Durch die Charakterisierung mit Hilfe von SDS-PAGE, wurden Hinweise auf das Vorliegen der Aminosäurensequenz von Nolan et al. gefunden. Durch Auswertung massenspektrometrischer Daten wurde ein mögliches Glykosylierungsmuster vorgeschlagen. Die Expression von rekombinantem Gelonin in E.coli und anschließende Isolierung mit Hilfe der Nickel-Affinitätschromatographie führte zu einem Produkt, das trotz fehlender Glykosylierung um den Faktor 2 toxischer war als natürliches Gelonin und vergleichbare immunologische Eigenschaften aufwies. Durch molekularbiologische Arbeiten wurde der Expressionsvektor für ein AChR-Fragment (a-Untereinheit, AS 4-181) um die DNA-Information für die Aminosäuren 182-208 erweitert. Eine Expression führte zur Bildung eines nativen Produktes, während die native Isolierung des verkürzten Fragmentes nicht erfolgreich war. Ein rekombinant hergestelltes Fusionsprotein aus Gelonin und einem AChR-Fragment (a-Untereinheit, AS 4-181) konnte in hoher Ausbeute und Reinheit mit Hilfe von Nickel-Affinitätschromatographie isoliert werden. Da eine denaturierende Aufarbeitung notwendig war, wurde eine geeignete Renaturierungsmethode entwickelt. Trotz Optimierung fielen allerdings noch bis zu 80% des Fusionsproteins als falsch-gefaltete, unlösliche Proteinaggregate aus. Durch Einführung einer „Recyclingmethode“ konnte der Proteinverlust deutlich minimiert werden. Beide Domänen zeigten sich nativ gefaltet. Allerdings war das Gelonin-Fragment um den Faktor 11 untoxischer als rekombinantes Gelonin alleine. Das Fusionsprotein wurde in einem Tiermodell der Myasthenia gravis auf seine potentiellen antigenspezifischen immunsuppressiven Eigenschaften gestestet. Nach der Induktion der Erkrankung in Ratten durch Gabe von komplettem AChR, wurde die Erkrankung durch repetitive Nervenstimulation untersucht. Eine Methode die auch bei humaner Myasthenie angewendet wird. Nach der Gabe des Fusionsproteins verschwanden die myasthenen Symptome in der Ratte innerhalb einer Woche. Damit zeigte das Fusionsprotein einen therapeutischen Effekt. Langzeitstudien wurden allerdings nicht durchgeführt.
Die Bindung von F1 an FO in der ATP-Synthase erfolgt über zwei Stiele. Während man davon ausgeht, dass der erste Stiel direkt an der ATP-Synthese beteiligt ist, so ist die Funktion des zweiten Stiels, der u.a. aus der b-Untereinheit besteht, noch recht unklar. Ein erster Schritt die Funktion des zweiten Stiels aufzuklären ist das Verständnis der Struktur der als Dimer auftretenden Untereinheit b. Mit Hilfe der ESR-Spektroskopie sollten neue Erkenntnisse bezüglich der Quartärstruktur von b2 erhalten werden. Die Untersuchungen wurden an einer verkürzten, wasserlöslichen Form von b, die als bsyn oder b24-156 bezeichnet wird, durchgeführt. bsyn lag hierbei alleine bzw. im Komplex mit F1 vor. bsyn konnte so in einem Bereich von 14 Aminosäuren, d.h. von knapp vier Helixumdrehungen (3,6 Aminosäuren pro Umdrehung) untersucht werden. Die Proteine wurden mit IAAT modifiziert und bei 193 K vermessen. Durch Simulation der so erhaltenen Spektren war es möglich Spin-Spin-Abstände zu bestimmen. Desweiteren wurden die bsyn-Mutanten Crosslink-Experimenten unterzogen, bei denen es in Abhängigkeit der relativen Abstände und Orientierung der Cysteine zueinander zur Ausbildung von Disulfidbindungen kommt. So war es möglich, über die Stärke der Crosslinks Rückschlüsse auf die Cystein-Cystein-Abstände zu ziehen.
Bei den "traditionellen" Reduktionsmittelaufbereitungssystemen, die die Abgaswärme zur Zersetzung des Harnstoffs ausnutzen, wird der Harnstoff entweder in Form einer wässrigen Lösung oder in Pulverform direkt vor dem SCR-Katalysator in das Abgassystem eingebracht. Der zudosierte Harnstoff wird im Abgas in zwei Reaktionsschritten (Thermolyse, Hydrolyse) thermisch zersetzt, wobei die Abgastemperatur einen entscheidenden Einfluss auf die Harnstoffzersetzungskinetik besitzt. Bei der Thermolyse entstehen aus dem Harnstoff die Produkte Ammoniak und Isocyansäure, wobei die Isocyansäure mit Wasser bei der Hydrolyse zu Ammoniak und Kohlendioxid reagiert. Wie Versuchsergebnisse demonstrieren, kann die Gesamtperformance von SCR-Katalysatorsystemen verbessert werden, wenn statt Harnstoff gasförmiges Ammoniak in das Abgassystem eingebracht wird, da so der komplette Harnstoffzersetzungsmechanismus entfällt. Dem in dieser Arbeit untersuchten Verfahren zur thermischen Trockenharnstoffzersetzung lag deshalb die Überlegung zu Grunde, den Harnstoffzersetzungsprozess vom Abgassystem zu entkoppeln und in einem externen elektrisch beheizten Reaktor zu realisieren. Ein solches System besitzt den entscheidenden Vorteil, dass die Zersetzungstemperatur und die Verweilzeit für die Reaktion so eingestellt werden können, dass unabhängig vom aktuellen Motorbetriebspunkt immer eine optimale Harnstoffzersetzung gewährleistet wird. Aus den Bruttoumsatzgleichungen für die beiden Reaktionen geht hervor, dass ohne eine Zufuhr von Wasser in den Reaktor nur die Thermolyse ablaufen kann, d.h. es entsteht ein Gemisch aus Ammoniak und Isocyansäure. Aus diesem Grund wird Wasser, das aus dem Verbrennungsprozess des Motors stammt, mit Hilfe eines Abgasteilstroms in den Reaktor eingeleitet. Eine Abschätzung zeigt, dass zu diesem Zweck ein Teilstrom in der Größenordnung von 1 % erforderlich ist. Da die Geschwindigkeit der Hydrolysereaktion in der Gasphase sehr gering ist, wurde der elektrisch beheizten Thermolysezone ein Hydrolysekatalysator nachgeschaltet. Die selektive Reaktion der Isocyansäure zu den Produktstoffen Ammoniak und Kohlendioxid ist für die Funktion des Harnstoffaufbereitungssystems von entscheidender Bedeutung, da ansonsten aus der sehr reaktiven Isocyansäure Polymerisationsprodukte gebildet werden, die zu festen Ablagerungen im System führen. Darüber hinaus hat sich im Rahmen des Entwicklungsprozesses gezeigt, dass die Thermolysezone so gestaltet sein muss, dass der Harnstoff in keinem Fall mit unbeheizten Flächen in Berührung kommen kann. Auf der Grundlage der Ergebnisse von thermogravimetrischen Versuchen wurde eine Heizflächentemperatur von 400 °C gewählt. Bei diesem System entstehen dann idealerweise ausschließlich die Produkte Ammoniak und Kohlendioxid, die mit Hilfe des Abgasteilstroms, der unter anderem auch als Trägergasstrom fungiert, in das Abgassystem eingeleitet werden. Von daher ist es mit einem System vergleichbar, bei dem gasförmiges Ammoniak dosiert wird. Der Harnstoff wird dem Reaktor in Form von Pellets in einem Größenspektrum von 1,8-2 mm zugeführt. Die Dosierung der Pellets erfolgt mit Hilfe eines Zellenraddosierers. Der Transport vom Dosierer zum Reaktor wird mittels Förderluft durch eine Leitung realisiert. Trockener Harnstoff bietet bezüglich der Masse und des Volumens Vorteile gegenüber der wässrigen Harnstofflösung. Darüber hinaus ist eine uneingeschränkte Wintertauglichkeit gewährleistet. Die Betriebsbereitschaft des Reaktors, die durch eine Heizflächentemperatur von 400 °C und eine Temperatur vor dem Hydrolysekatalysator oberhalb von 200 °C gekennzeichnet ist, wird nach 60-80 s erzielt. Im MVEG-Test liegt die mittlere gemessene Heizleistung im Bereich von 180 W. Anhand einer NOx-Umsatz- und NH3-Bilanz konnte gezeigt werden, dass der Harnstoff im Reaktor in die gewünschten Produkte NH3 und CO2 überführt wird. Mit dem Gesamtsystem werden sowohl bei kleinen als auch bei großen Dosiermengen gute Konvertierungsergebnisse erzielt. Unter optimalen Randbedingungen sind im Bereich der NH3-Schlupfgrenze NOx-Umsätze >95 % realisierbar. Insbesondere bei niedrigen Abgastemperaturen werden die Vorteile gegenüber der "klassischen" Flüssigdosierung deutlich. Die Betriebssicherheit des Gesamtsystems konnte durch einen 100 h-Dauertest nachgewiesen werden. Das Gesamtsystem wurde an einem Versuchsfahrzeug (Audi A8) appliziert. Im Rahmen des bisherigen Testprogramms konnte die Systemfunktion nachgewiesen werden. Der EURO IV Grenzwert wird erreicht. Zur Aktivitätssteigerung müssen vor allem die Abgastemperatur angehoben und der NO2-Verlauf im Zyklus optimiert werden. Zusätzlich muss die Dosierstrategie so optimiert werden, dass am Umsatz und Schlupfrisiko orientiert immer ein optimaler NH3-Füllstand im Katalysator vorliegt.
The fact that long fibre reinforced thermoplastic composites (LFT) have higher tensile
strength, modulus and even toughness, compared to short fibre reinforced
thermoplastics with the same fibre loading has been well documented in literature.
These are the underlying factors that have made LFT materials one of the most
rapidly growing sectors of plastics industry. New developments in manufacturing of
LFT composites have led to improvements in mechanical properties and price
reduction, which has made these materials an attractive choice as a replacement for
metals in automobile parts and other similar applications. However, there are still
several open scientific questions concerning the material selection leading to the
optimal property combinations. The present work is an attempt to clarify some of
these questions. The target was to develop tools that can be used to modify, or to
“tailor”, the properties of LFT composite materials, according to the requirements of
automobile and other applications.
The present study consisted of three separate case studies, focusing on the current
scientific issues on LFT material systems. The first part of this work was focused on
LGF reinforced thermoplastic styrenic resins. The target was to find suitable maleic
acid anhydride (MAH) based coupling agents in order to improve the fibre-matrix
interfacial strength, and, in this way, to develop an LGF concentrate suitable for
thermoplastic styrenic resins. It was shown that the mechanical properties of LGF
reinforced “styrenics” were considerably improved when a small amount of MAH
functionalised polymer was added to the matrix. This could be explained by the better fibre-matrix adhesion, revealed by scanning electron microscopy of fracture surfaces.
A novel LGF concentrate concept showed that one particular base material can be
used to produce parts with different mechanical and thermal properties by diluting the
fibre content with different types of thermoplastic styrenic resins. Therefore, this
concept allows a flexible production of parts, and it can be used in the manufacturing
of interior parts for automobile components.The second material system dealt with so called hybrid composites, consisting of
long glass fibre reinforced polypropylene (LGF-PP) and mineral fillers like calcium
carbonate and talcum. The aim was to get more information about the fracture
behaviour of such hybrid composites under tensile and impact loading, and to
observe the influence of the fillers on properties. It was found that, in general, the
addition of fillers in LGF-PP, increased stiffness but the strength and fracture
toughness were decreased. However, calcium carbonate and talcum fillers resulted
in different mechanical properties, when added to LGF-PP: better mechanical
properties were achieved by using talcum, compared to calcium carbonate. This
phenomenon could be explained by the different nucleation effect of these fillers,
which resulted in a different crystalline morphology of polypropylene, and by the
particle orientation during the processing when talc was used. Furthermore, the
acoustic emission study revealed that the fracture mode of LGF-PP changed when
calcium carbonate was added. The characteristic acoustic signals revealed that the
addition of filler led to the fibre debonding at an earlier stage of fracture sequence
when compared to unfilled LGF-PP.
In the third material system, the target was to develop a novel long glass fibre
reinforced composite material based on the blend of polyamide with thermoset
resins. In this study a blend of polyamide-66 (PA66) and phenol formaldehyde resin
(PFR) was used. The chemical structure of the PA66-PFR resin was analysed by
using small molecular weight analogues corresponding to PA66 and PFR
components, as well as by carrying out experiments using the macromolecular
system. Theoretical calculations and experiments showed that there exists a strong
hydrogen bonding between the carboxylic groups of PA66 and the hydroxylic groups
of PFR, exceeding even the strength of amide-water hydrogen bonds. This was
shown to lead to the miscible blends, when PFR was not crosslinked. It was also
found that the morphology of such thermoplastic-thermoset blends can be controlled
by altering ratio of blend components (PA66, PFR and crosslinking agent). In the
next phase, PA66-PFR blends were reinforced by long glass fibres. The studies
showed that the water absorption of the blend samples was considerably decreased,
which was also reflected in higher mechanical properties at equilibrium state.
Wie man aus zahlreichen Untersuchungen und Anwendungsbeispielen entnehmen
kann, besitzen langfaserverstärkte Thermoplaste (LFT) eine bessere Zugfestigkeit,
Biege- und Schlagzähigkeit im Vergleich zu kurzfaserverstärkten Thermoplasten. Die
Vorteile in den mechanischen Eigenschaften haben die LFT zu einem
schnellwachsenden Bereich in der Kunststoffindustrie gemacht. Neue Entwicklungen
in Bereich der Herstellung von LFT haben für zusätzliche Verbesserungen der
mechanischen Eigenschaften sowie eine Preisreduzierung der Materialien in den
vergangenen Jahren gesorgt, was die LFT zu einer attraktiven Wahl u.a. als Ersatz
von Metallen in Automobilteilen macht. Es stellen sich allerdings immer noch einige
offene wissenschaftliche Fragen in Bezug auf z.B. die Materialbeschaffenheit, um
optimale Eigenschaftskombinationen zu erreichen. Die vorliegende Arbeit versucht,
einige dieser Fragen zu beantworten. Ziel war es, Vorgehensweisen zu entwickeln,
mit denen man die Eigenschaften von LFT gezielt beeinflussen und so den
Anforderungen von Automobilen oder anderen Anwendungen anpassen oder
„maßschneidern“ kann.
Die vorliegende Arbeit besteht aus drei Teilen, welche sich auf unterschiedliche
Materialsysteme, angepasst an den aktuellen Bedarf und das Interesse der Industrie,
konzentrieren.
Der erste Teil der Arbeit richtet sich auf die Eigenschaftsoptimierung von
langglasfaserverstärkten (LGF) thermoplastischen Styrolcopolymeren und von
Blends aus diesen Materialien. Es wurden passende, auf Maleinsäureanhydride
(MAH) basierende Kopplungsmittel gefunden, um die Faser-Matrix-Haftung zu
optimieren. Weiterhin wurde ein LGF Konzentrat entwickelt, welches mit
verschiedenen thermoplastischen Styrolcopolymeren kompatibel ist und somit als
„Verstärkungsadditiv“ eingesetzt werden kann.Das Konzept für ein neues LGF-Konzentrat auf Basis des kompatiblen
Materialsystems konzentriert sich insbesondere darauf, dass ein Basismaterial für
die Herstellung von Bauteilen bereit gestellt werden kann, mit dessen Hilfe gezielt
verschiedene mechanische und thermomechanischen Eigenschaften durch das
Zumischen von verschiedenen Styrolcopoylmeren und Blends verbessert werden
können. Dieses Konzept ermöglicht eine sehr flexible Produktion von Bauteilen und
wird seine Anwendung bei der Herstellung von Bauteilen u.a. im Interieur von Autos
finden.
Das zweite Materialsystem basiert auf sogenannten hybriden Verbundwerkstoffen,
welche aus Langglasfasern und mineralischen Füllstoffen wie Kalziumkarbonat und
Talkum in einer Polypropylen (PP) - Matrix zusammengesetzt sind. Ziel war es, durch
detaillierte bruchmechanische Analysen genaue Informationen über das
Bruchverhalten dieser hybriden Verbundwerkstoffe bei Zug- und Schlagbelastung zu
bekommen, um dann die Unterschiede zwischen den verschiedenen Füllstoffen in
Bezug auf ihre Eigenschaften zu dokumentieren. Es konnte beobachtet werden, dass
bei Zugabe der Füllstoffe zum LGF-PP normalerweise die Steifigkeit weiter
verbessert wurde, jedoch die Festigkeit und Schlagzähigkeit abnahmen. Weiterhin
zeigten die verschiedenen Füllstoffe wie Kalziumkarbonat und Talkum
unterschiedliche mechanische Eigenschaften auf, wenn sie zusammen mit LGF
Verstärkung eingesetzt wurden: Bei der Zugabe von Talkum wurde u.a. eine deutlich
bessere Schlagzähigkeit als bei der Zugabe von Kalziumkarbonat festgestellt. Dieses
Phänomen konnte durch das unterschiedliche Nukleierungsverhalten des PPs erklärt
werden, welches in einer unterschiedlichen Kristallmorphologie von Polypropylen
resultierte. Weiterhin konnte man durch Messungen der akustischen Emmissionen
während der Zugbelastung eines bruchmechanischen Versuchskörpers aufzeigen,
dass die höhere Bruchzähigkeit von LGF-PP ohne Füllstoffe daraus resultiert, dass
Faser-Pullout schon bei geringeren Kräften vorhanden war.
In this thesis we propose an efficient method to compute the automorphism group of an arbitrary hyperelliptic function field over a given constant field of odd characteristic as well as over its algebraic extensions. Beside theoretical applications, knowing the automorphism group also is useful in cryptography: The Jacobians of hyperelliptic curves have been suggested by Koblitz as groups for cryptographic purposes, because the discrete logarithm is believed to be hard in this kind of groups. In order to obtain "secure" Jacobians, it is necessary to prevent attacks like Pohlig/Hellman's and Duursma/Gaudry/Morain's. The latter is only feasible, if the corresponding function field has an automorphism of large order. According to a theorem by Madan, automorphisms seem to allow the Pohlig/Hellman attack, too. Hence, the function field of a secure Jacobian will most likely have trivial automorphism group. In other words: Computing the automorphism group of a hyperelliptic function field promises to be a quick test for insecure Jacobians. Let us outline our algorithm for computing the automorphism group Aut(F/k) of a hyperelliptic function field F/k. It is well known that Aut(F/k) is finite. For each possible subgroup U of Aut(F/k), Rolf Brandt has given a normal form for F if k is algebraically closed. Hence our problem reduces to deciding, whether a given hyperelliptic function field F=k(x,y), y^2=D_x has a defining equation of the form given by Brandt. This question can be answered using theorem III.18: We have F=k(t,u), u^2=D_t iff x is a fraction of linear polynomials in t and y=pu, where the factor p is a rational function w.r.t. t which can be determined explicitly from the coefficients of x. This condition can be checked efficiently using Gröbner basis techniques. With additional effort, it is also possible to compute Aut(F/k) if k is not algebraically closed. Investigating a huge number of examples one gets the impression that the above motivation of getting a quick test for insecure Jacobians is partially fulfilled: The computation of automorphism groups is quite fast using the suggested algorithm. Furthermore, fields with nontrivial automorphism groups seem to have insecure Jacobians. Only fields of small characteristic seem to have a reasonable chance of having nontrivial automorphisms. Hence, from a cryptographic point of view, computing Aut(F/k) seems to make sense whenever k has small characteristic.
In this thesis, the enhanced Galerkin (eG) finite element method in time is presented. The eG method leads to higher order accurate energy and momentum conserving time integrators for the underlying finite-dimensional Hamiltonian systems. This thesis is concerned with particle dynamics and semi-discrete nonlinear elastodynamics. The conservation is generally related to the collocation property of the eG method. The momentum conservation renders the Gaussian quadrature and the energy conservation is obtained by using a new projection technique. An objective time discretisation of the used strain measures avoids artificial strains for large superimposed rigid body motions. The numerical examples show the well long term performance in the presence of stiffness as well as for calculating large-strain motions.
Der Einsatz von Monotrimethylsilylcyclopentadien als Ligandensystem bei der Cothermolyse von [{(h5-Cpˉ)(CO)3Mo}2] mit weißem Phosphor liefert ein mit der bissilylierten Spezies vergleichbares Produktbild. Allerdings können bei der Aufarbeitung nur zwei neue phosphorhaltige Produkte isoliert werden. [{(h5-Cpˉ)Mo}2(m-h6:6-P6)] (3) zeichnet sich, wie für diese Art von Tripeldecker typisch, durch eine sowohl hohe thermische Stabilität als auch nur geringe Empfindlichkeit gegenüber Luftsauerstoff aus. Von Verbindung 3 konnte eine Röntgenstrukturanalyse angefertigt werden. [{(h5-Cpˉ)Mo}2(m-h6:6-P6)] (3) ist im Gegensatz zu dem bissilylierten Analogon nicht symmetrisch aufgebaut. Der Winkel zwischen Mo(1)-P6 Zent.-Mo(2) beträgt 149.8° und die drei Decks weichen von der Parallelität ab. Aufgrund der Eigenschaft von [{(h5-Cpˉ)(CO)2Mo}(h3-P3)] (2), sich unter thermischen und photolytischen Bedingungen in Komplex 3 umzuwandeln, eignete sich diese Verbindung nicht als Edukt für weitere Reaktionen. Eine Übertragung der Ergebnisse auf Wolfram gelang vermutlich aufgrund der geringen Reaktivität von W(CO)6 nicht. Die cothermolytische Umsetzung des pseudo-Tripeldecker-Komplexes [{CpRFe}2(µ-η4:4-P4)] (J) mit einer äquimolaren Menge an Alkin liefert, abhängig vom Substituentenmuster, ein mit dem des Butterfly-Komplexes [{CpRFe(CO)2}2(µ-η1:1-P4)] vergleichbares Produktbild an Polyphospholyl-Verbindungen, das sich allerdings in einigen Punkten signifikant unterscheidet. Bei der Verwendung von unsymmetrisch substituierten Alkinen werden im Gegensatz zu Verbindung [{CpRFe(CO)2}2(µ-η1:1-P4)] ausschließlich Sandwichkomplexe des Typs [{CpRFe}(η5-(P3(C2R´H))] mit einem η5-koordinierten 1,2,3-Triphospholylliganden in guten Ausbeuten gebildet.Wird dagegen ein symmetrisch substituiertes Alkin eingesetzt, so wird neben dem korrespondierenden Triphospholylkomplex auch das Monophosphaferrocen [Cp=Fe (η5-P(C2Ph2)2)] (8) gebildet. Da dieses Produktbild nur im Falle des Komplexes [{Cp=Fe}2(µ-η4:4-P4)] und des Alkins Tolan festzustellen ist, kann diese Tendenz nicht verallgemeinert werden. Das Produktbild der Cothermolyse von [Cpˉ´Fe(η5-P5)] (N) mit [Cpˉ´Co(CO)2] (O) ähnelt sehr stark dem der bissilylierten Analoga. So werden bei der thermischen Reaktion von [Cp=Fe(η5-P5)] mit [Cp=Co(CO)2] die zu den Verbindungen 11, 12, 13, 14 und 15 im Grundgerüst identischen mehrkernigen Bis(trimethylsilyl)cyclopentadienyl-Komplexe gebildet. Verbindung [{Cpˉ´Co}{{Cpˉ´Fe}2(µ-CO)}(µ3-P)2] (16) stellt allerdings einen neuen Vertreter der Reihe mehrkerniger phosphorhaltiger Eisen-Cobalt-Cluster dar. Die Röntgen-strukturanalyse von 16 zeigt einen trigonal bipyramidalen Aufbau des Komplexes, bei dem zwei Eisen- und ein Cobaltatom die Basis und zwei Phosphoratome die Spitzen über und unter der Dreiecksfläche bilden. Die Eisenkerne werden von einer Carbonylgruppe verbrückt und die 18 VE-Regel damit erfüllt. [{Cpˉ´Co}{{Cpˉ´Fe}2(µ-CO)}(µ3-P)2] (16) ist bisher der einzige bekannte hetero-bimetallische Phosphorkomplex mit einer solchen Struktur.
Im Informationszeitalter haben die Menschen überall und jederzeit Zugang zu einer kontinuierlich ansteigenden Fülle von Informationen. Hierzu trägt vor allem die explosionsartig wachsende globale Vernetzung der Welt, insbesondere das Internet, maßgeblich bei. Die Transformation der verfügbaren Informationen in Wissen sowie die effiziente Nutzung dieses Wissens stellen dabei entscheidende Faktoren für den Erfolg eines Unternehmens oder eines Einzelnen dar. Es stellt sich also die Frage: Leben wir im Informationszeitalter? Diese Frage erinnert an die von Immanuel Kant in [65] gestellte Frage "Leben wir jetzt in einem aufgeklärten Zeitalter?" und dessen Antwort "Nein, aber wohl in einem Zeitalter der Aufklärung.". Entsprechend lässt sich auch die Frage "Leben wir in einem informierten Zeitalter?" mit "Nein, aber wohl in einem Zeitalter der Information" beantworten (vergleiche [14]). Das Problem, dass sich die überwältigende Fülle an Information ohne geeignete Hilfsmittel vom Menschen nicht oder nur schwer beherrschen lässt, hat im Laufe des letzten Jahrzehnts maßgeblich zur Entwicklung des äußerst dynamischen Forschungs- und Anwendungsgebietes der Visualisierung als Teilgebiet der Computergrafik beigetragen. Der Grund hierfür liegt in der Tatsache, dass der Mensch wesentlich besser mit visuellen Eindrücken als mit abstrakten Zahlen oder Fakten umgehen kann. Die Erkennung von Mustern in Daten (z. B. Gruppierungen und Häufungen) wird durch die Visualisierung stark vereinfacht und lässt vielmals Zusammenhänge zwischen Daten überhaupt erst greifbar werden. Unter computergestützter Visualisierung versteht man die in der Regel interaktive grafische Umsetzung von Daten. Handelt es sich dabei um physikalische Daten (z. B. entstanden durch Messvorgänge), so spricht man von Scientific Visualization. Handelt es sich eher um abstrakte bzw. nicht-physikalische Daten, so ordnet man die entsprechenden Verfahren der Information Visualization zu. Beide Teilgebiete der Visualisierung verfolgen jedoch das gemeinsame Ziel, Informationen dem Menschen sichtbar und verständlich zu machen und verwenden hierzu geeignete visuelle Paradigmen, häufig verbunden mit entsprechenden Interaktionsmöglichkeiten. Die vorliegende wissenschaftliche Arbeit ist in den Bereich der angewandten Computergrafik, speziell der interaktiven Visualisierung, einzuordnen. Die primären Ziele lagen dabei in der Übertragung des Begriffes kontextsensitiv auf den Bereich der Visualisierung zur Sicherstellung effizienter und kontextsensitiver Visualisierungsapplikationen sowie die Anwendung in aktuellen praktischen Aufgabenstellungen. Die Umsetzung einer kontextsensitiven Visualisierung gelingt im Rahmen dieser Arbeit durch die zukunftsweisende Kopplung von Visualisierungspipeline und Agententechnologie. Basierend auf der Identifikation zentraler Szenarien der kontextsensitiven Visualisierung wird eine agentenbasierte Visualisierungskontrolle durch intelligente Überwachung und Regelung der Visualisierungspipeline vorgestellt. Nach einer Zusammenfassung der relevanten Grundlagen aus den Gebieten der Visualisierung und der Agententechnologie folgen eine theoretische Klassifizierung und ein Überblick über existierende Systeme und Anwendungen aus beiden Bereichen. Anschließend wird das im Rahmen dieser Arbeit erarbeitete Paradigma der kontextsensitiven Visualisierung vorgestellt und die praktische, komponentenbasierte Umsetzung erläutert. Einen nicht unerheblichen Anteil der Arbeit machen drei innovative, auf der kontextsensitiven Visualisierung basierende Visualisierungsapplikationen aus, welche die Möglichkeiten und die Funktionsfähigkeit der entwickelten Architektur aufzeigen. Die Entwicklung einer plattformunabhängigen interaktiven Visualisierung beschäftigt sich insbesondere mit dem Auffinden der aktuell maximal möglichen Performance durch Abwägung der gegenläufigen Hauptparameter Qualität und Interaktivität und behandelt damit vor allem den System- und Interaktionskontext. Der Gedanke der plattformunabhängigen interaktiven Visualisierung wird anschließend auf mobile Informationssysteme ausgeweitet. Hier ist neben den Performanceaspekten vor allem die Art des Ausgabemediums, d. h. der Darstellungskontext, ein entscheidender Faktor. Die dritte Anwendung stellt eine agentenbasierte Applikation für die Bekleidungsindustrie in Form eines interaktiven Individual-Katalogs dar und behandelt insbesondere den Daten- und den Benutzerkontext. Eine kurze Zusammenfassung sowie ein Ausblick auf geplante zukünftige Entwicklungen runden letztlich die Betrachtungen ab.
Der Glucocorticoid-Rezeptor (GR), der zu den Steroidhormon-Rezeptoren zählt, reguliert physiologische Prozesse durch Aktivierung und Repression spezifischer Zielgene. Der ligandengebundene Rezeptor aktiviert die Genexpression, indem er als Dimer an spezifische DNA-Sequenzen (glucocorticoid response element, GRE) bindet. Der GR reprimiert seine Zielgene entweder durch Bindung an negative GREs (nGREs, Cis-Repression) oder durch DNA-unabhängige Bindung an andere Transkriptionsfaktoren wie AP-1 oder NF-(kappa)B (Trans-Repression). Glucocorticoide sind sehr effektive Medikamente für die Behandlung entzündlicher Erkrankungen. Langzeittherapie mit Glucocorticoiden ist jedoch problematisch wegen der auftretenden Nebenwirkungen. Bisher ging man davon aus, dass die anti-inflammatorischen Wirkungen der Glucocorticoide weitgehend über den Mechanismus der Trans-Repression reguliert werden, wohingegen die Nebenwirkungen vor allem durch DNA-bindungsabhängige Aktivierung (GRE) und Repression (nGRE) von Zielgenen vermittelt werden. In der vorliegenden Arbeit wurde die DNA-bindungsabhängige Cis-Repression untersucht. Dabei wurden sowohl neue nGRE-Bindungselemente identifiziert, als auch bereits bekannte Elemente hinsichtlich der involvierten Kofaktoren näher charakterisiert. Es wurde mit Hilfe des ABCD-Bindungstests die Affinität des GR zum DNA-Element in Abhängigkeit vom Ligandenbindungsstatus (Agonist, Antagonist, ohne Ligand) des Rezeptors untersucht. Der Rezeptor bindet das Konsensus-DNA-Element in vitro weitgehend unabhängig von dem eingesetzten Liganden. Der ABCD-Bindungstest wurde außerdem eingesetzt, um GR-Kofaktoren mittels Western Blot und Massenspektrometrie zu identifizieren. Der Korepressor N-CoR (nuclear receptor corepressor) bindet den GR-DNA-Komplex in vitro in Abhängigkeit vom Ligandenbindungsstatus. Massenspektrometrisch konnten mit dieser Methode Proteine wie Hsp90, Hsp70 und (beta)-Tubulin identifiziert werden. Die Konsensussequenz von nGREs weist erhebliche Unterschiede zu der klassischen GRE-Sequenz auf. Es konnte in vitro gezeigt werden, dass der GR zu nGREs eine deutlich niedrigere Bindungsaffinität hat als zu GREs. Derzeit geht man davon aus, dass die DNA die Konformation des Rezeptors durch allosterische Effekte moduliert. Mit Hilfe des partiellen Proteaseverdaus konnte ein Hinweis dafür erbracht werden, dass der Glucocorticoid-Rezeptor auf einem positive GRE in einer anderen Konformation vorliegt als auf einem negativen GRE, was in einem unterschiedlichen Bandenmuster resultiert. Die mRNA-Expressionsanalyse (Affimetrix) von T-Zellen aus GRwt- bzw. GRdim/dim-Mäusen ergab eine bisher unerwartete Rolle der DNA-abhängigen GR-Genregulation in der inflammatorischen Immunantwort (G. Schütz und P. Krammer, DKFZ). In der vorliegenden Arbeit wurden die Gene FasLigand (CD95L) und SOCS-3 bezüglich vorhandener nGREs sowohl in silico als auch in vitro analysiert. Die GR-vermittelte Repression des FasL spielt bei dem aktivierungs-induzierten Zelltod (AICD) eine Rolle. SOCS-3 blockiert die Wirkung von Zytokinen durch Inhibierung des JAK/STAT-Signaltransduktionsweges und ist in die Regulation der HPA-(hypothalamic-pituitary-adrenal) Achse eingebunden. Um die Hinweise der mRNA-Expressionsanalyse zu bestätigen, wurden Luciferase-Reportergentests mit FasL- bzw. SOCS-3-Promotorkonstrukten bei Kotransfektion von GRwt oder GRdim durchgeführt. Im Vergleich mit bereits charakterisierten Promotoren konnte sowohl für FasL als auch für SOCS-3 der Mechanismus der Cis-Repression nachgewiesen werden. Negative GREs zeigen im Gegensatz zu positiven GREs keine gute Konservierung der DNA-Sequenz. Um potenzielle nGREs in den neuen Zielgenen in silico zu charakterisieren, wurde durch Analyse bereits charakterisierter nGREs ein Suchmuster entwickelt. Die ermittelten DNA-Bereiche wurden im ABCD-Bindungstest auf ihre Affinität zum GR überprüft. Für den FasL-Promotor konnten drei potenzielle GR-Bindungselemente ermittelt werden. Zwei dieser Bindungsstellen binden den GR im Kontext der Zelle (Chromatin-Immunpräzipitation, N. Novac, AG Heinzel). Für den SOCS-3-Promotor wurden zwei GR-Bindungsstellen charakterisiert. In der vorliegenden Arbeit konnte durch die Ermittlung neuer negativer Bindungselemente des GR ein Hinweis dafür erbracht werden, dass nGREs auch im Kontext der Immunsuppression eine Rolle spielen, und dass der Korepressor N-CoR möglicherweise bei der Cis-Repression von Bedeutung ist.
In my doctoral thesis, I present new information about the developmental expression pattern of the potassium chloride cotransporter KCC2 in the rat auditory brain stem and the morphometrical effects caused by KCC2 gene silencing in mice. The thesis is divided into 3 Chapters. Chapter 1 is a general introduction which gives a brief outline of the primary ascending auditory pathway in mammals. Also, it provides information about the presence of a large number of inhibitory inputs in the auditory system and how these inputs develop; the involvement of inhibition in the acoustic processing is mentioned. In addition, the role of the KCC2 cotransporter in the shift of GABA/glycine transmission, and thus, in maintaining the normal level of inhibition in the mature brain, is described. The focus of Chapter 2 was to investigate the KCC2 immunofluorescent signal from postnatal day (P) 0 to P60 in four major nuclei of the rats superior olivary complex (SOC), namely the medial nucleus of the trapezoid body (MNTB), the medial superior olive (MSO), the lateral superior olive (LSO), and the superior paraolivary nucleus (SPN). The lack of a correlation between the continuous presence of KCC2 mRNA/protein in the postnatal rat brain stem on one side, and the shift in GABA/glycinergic polarity (i.e. KCC2 functionality) on the other side, prompted me to search for a specific cellular expression pattern of the KCC2 protein that might correlate with the switch in GABA/glycine signalling. To do so, the KCC2 immunoreactivity was analysed using high-resolution confocal microscopy in three cellular regions of interest: the soma surface, the soma interior, and the neuropil. In the soma surface, I observed an increase of the KCC2 immunofluorescent signal intensity, yet with a moderate magnitude (1.1 to 1.6-fold). Therefore, I conclude that the change in the soma surface signal is only of minor importance and does not explain the change in KCC2 functionality. The KCC2 signal intensity in the soma interior decreased in all nuclei (1.4 to 2-fold) with the exception of the MNTB where no statistically significant change was found. The decrease in the soma interior was probably related to the increase in the soma surface immunoreactivity and the proposed (weak) intracellular trafficking process of the KCC2 protein. The main developmental reorganization (in qualitative as well as in quantitative aspects) of the KCC2 immunofluorescence in the SOC nuclei was observed in the neuropil. The signal changed its pattern from a diffusely stained neuropil early in development (P0-P4) to a crisp and membrane-confined signal later on (P8-P60), with single dendrites becoming apparent. The exception was found in the MNTB, where the neuropil became almost unlabeled. Quantification revealed a statistically significant decrease (2.2 to 3.8-fold) in the neuropil immunoreactivity in all four nuclei, although the remaining KCC2-stained dendrites became thicker and the signal became stronger. I suppose that, at least in part, the neuropil reorganization can be explained by an age-related reduction of dendritic branches via a pruning mechanism and with the absence of an abnormal Cl- load via extrasynaptic GABAA receptors. This is consistent with the proposed additional role of KCC2, namely to maintain the cellular ionic homeostasis and to prevent dendritic swelling (Gulyás et al., 2001). In conclusion, neither the increase in the KCC2 soma surface signal intensity, nor the reorganization in the neuropil can be strictly related to the developmental switch in the GABA/glycine polarity and the onset of KCC2 function, although some correlation (the appearance of a specific membrane-confined dendritic pattern) between structure and function was found. Further implication of different molecular methods, regarding the proposed posttranslational modification of KCC2, will shed light upon the question of what leads to the functional activation of the cotransporter. In Chapter 3, the advantage of loss-of-function KCC2 mice made it possible, via manipulating the duration of the depolarizing phase of GABA/glycine transmission, to analyse the effect of disturbed Cl- regulation and, thus, the effect of disrupted GABA/glycine neurotransmission (lack of inhibition). I asked the following question: how important is the Cl- homeostasis to maintain general aspects (brain weight) and specific aspects (nucleus volume, neuron number, and soma cross-sectional area) of brain development? Brain stem slices from KCC2 knock-out animals (-/-), with a trace amount of transporter (~5%), as well as from wild type animals (+/+) at P3 and P12 were stained for Nissl substance and the analyses were performed with the help of basic morphometrical and stereological methods. In KCC2 (-/-) animals, body growth impairment was observed, in part related to the seizure activity preventing normal feeding (Woo et al., 2002). However, their brains, in terms of brain weight, were less affected. Therefore, I conclude that Cl- homeostasis is not essential per se to maintain the brain weight. Four auditory nuclei (MNTB, MSO, LSO, and ventral cochlear nucleus (VCN)), were compared with respect to the KCC2 null mutation. The SOC nuclei were not influenced by the lack of KCC2 at P3 considering the morphometric parameters. A difference in the number of neurons occurred in the VCN at P3. I suggest to perform additional immunohistochemical studies of glial presence related to its involvement in the structural and functional support of the neurons and their survival. At P12, the volume of the auditory nuclei in KCC2 (-/-) animals was smaller than in (+/+) animals. However, this is likely to be an epiphenomenon since the brain weight increase was also impaired with the same magnitude. Therefore, I suppose that the Cl- homeostasis is not crucial for the nucleus volume increase in the VCN, the MNTB and the MSO during development. An exception was found for the LSO. Regarding the other morphometric parameters at P12, the four nuclei behaved in a different way: (1) in the VCN, after P3, no parameter underwent a disproportional change due to impaired Cl- homeostasis; (2) the MNTB and the LSO showed less pronounced neuropil in mutants in comparison to age-matched controls and two reasons were proposed: first, the depolarizing GABA/glycine transmission in mutants may contribute to excessive Ca2+ load, excitotoxicity and dendrite damage; second, a decrease of some trophic factors may prevent dendrite development in addition to impaired normal body growth; (3) the MSO neurons in P12 (-/-) animals had smaller soma cross-sectional area than in P12 (+/+) animals. I conclude that the normal Cl- homeostasis is required in the MSO at older ages (P12) to achieve and maintain a proper soma size; (4) the lack of KCC2 did not prevent the process of neuronal differentiation in the VCN and the MNTB during development in both mutant and control animals. In conclusion, the various auditory nuclei have to be discussed independently regarding the influence of Cl- homeostasis on some morphometric parameters. Presumably, this is related to the different time of the shift in the GABA/glycine polarity i.e., the onset of KCC2 function (Srinivasan et al., 2004a). Taken together, my thesis accumulated data about the immunohistological expression pattern of KCC2 in various auditory brain stem nuclei and the influence of impaired Cl- homeostasis on some morphometric features in these nuclei. This information will be helpful for further investigations involved to discover the mechanisms and the events that govern the inhibition and the inhibitory pathway in the central auditory system.
Im Hinblick auf die Gewichtsreduktion am Gesamtfahrzeug zur Verbesserung der Fahrdy-namik und zur Reduktion des Kraftstoffverbrauchs wurde ein Vierzylinder-Kurbelgehäuse auf Basis des leichten Konstruktionswerkstoffs Magnesium konzipiert und konstruiert. Unter der Zielvorgabe einer spezifischen Leistung von mindestens 65 kW/l lag der Fokus auf einer zum Serienmotor mindestens gleichwertigen Belastbarkeit und Akustik und auf der Behebung der Kriech- und Korrosionsproblematik von Magnesium. Durch die Kombination verschiedener Leichtbauprinzipien wie Konzept-, Gestalt- und Ver-bundleichtbau, ist es mittels lokalem Werkstoffengineering gelungen, die Nachteile des Mag-nesiums zu kompensieren und seine Vorteile bestmöglich zu nutzen. Das Ergebnis ist ein zur Aluminiumbasis um ca. 6,5kg und zur Graugussbasis um ca. 23kg leichteres Magnesi-um-Hybrid-Zylinderkurbelgehäuse. Die short-skirt Bauweise in Verbindung mit einem zur Ölwanne nahezu komplett geschlossenen Bedplate ergibt ein hochsteifes Kurbelgehäuse mit einer im Vergleich zum Serien-Aluminium-ZKG höheren Belastbarkeit. Das flexible Kurbel-gehäusekonzept ermöglicht es ausserdem, auf Basis des für Magnesium sehr wirtschaftli-chen Druckgussverfahrens, Zylinderkurbelgehäuse sowohl in open-deck als auch in closed-deck-Bauweise herzustellen. Kernstück des neuen Motorblocks ist ein multifunktionaler, 3,8kg leichter Zylindereinsatz aus Aluminium, der die Funktion der Zylinderlaufbahn, der Zylinderkopf- und Hauptlagerver-schraubung sowie der Kühlwasserführung übernimmt. Zur Verbesserung der Verbundeigen-schaften zwischen dem Zylindereinsatz und dem umgebenden Magnesium wurden umfang-reiche Gießversuche und metallographische Untersuchungen durchgeführt. Eine durch Plasmaspritzen aufgebrachte AlSi12-Beschichtung erzielte schließlich die besten Ergebnisse in Bezug auf ertragbare Zug- und Schubbelastungen in der Verbundzone. Zur Absicherung des Herstellungsprozesses wurden mit der Finite Elemente Methode ver-schiedene Abstützvarianten des closed-deck-Zylindereinsatzes für das prozesssichere Ein-gießen im Druckguss untersucht. Die Befüllung des Einsatzes mit Sand erwies sich dabei als die robusteste Lösung und wurde später in den Gießversuchen umgesetzt. Der Festigkeitsnachweis für das Magnesium-Hybrid-Zylinderkurbelgehäuse wurde mit Hilfe der Finite Elemente Methode unter Einbeziehung der Ergebnisse der metallographischen Untersuchungen sowie unter Berücksichtigung nichtlinearer Werkstoffkennwerte und der Kriechproblematik von Magnesium erbracht. Ausgangspunkt für den Festigkeitsnachweis waren Eigenspannungsberechnungen, die das Abkühlen der Gussteile aus der Gießhitze, eine Warmauslagerung und die Bearbeitung der wichtigsten Funktionsflächen beinhaltete. Der Nachweis für die Dauerhaltbarkeit der Lagerstühle des Kurbelgehäuses wurde erbracht. Parameterstudien zeigten dabei einen positiven Einfluss der Eigenspannungen und eine geringe Sensitivität der Konstruktion in Bezug auf Reibungsvariationen zwischen Umguss und Eingussteilen. Kriechdehnungen im Bereich der Hauptlagerverschraubungen führten allerdings bei Verwendung der Standard Magnesiumlegierung AZ91 nach 500 Stunden bei 150°C zu einem Abfall der Schraubenvorspannkräfte um bis zu 75%. Es konnte gezeigt wer-den, dass dieses Problem bei Verwendung von kriechfesteren Legierungen (z.B. MRI 153M) mit ca. 10-20fach besserer Kriechfestigkeit bzw. Relaxationsbeständigkeit behoben werden kann. Der rechnerisch erbrachte Nachweis für die Dauerhaltbarkeit des Zylinderkurbelgehäuses konnte kurz vor Fertigstellung dieser Arbeit in einem Motorversuch (Polyzyklischer Dauer-lauf, 100h) bestätigt werden. Der Motor zeigte nach Ende der Laufzeit keine Auffälligkeiten und konnte weiter betrieben werden.
Integrin alpha6beta4 und Proteinkinase C in epidermaler Differenzierung und Haut-Carcinogenese
(2004)
Schlüsselereignisse bei der epidermalen Differenzierung sind das Ablösen der Basalzellen von der Basalmembran und ihre Aufwärtswanderung synchron zur terminalen Differenzierung mit dem Endstadium der Hornschuppen, die die äußerste Barriere bilden. Zellrezeptoren, die bei der Auslösung dieses Prozesses eine wichtige Rolle spielen, sind die Integrine, die einen erheblichen Anteil an der Gewebeorganisation haben. Andererseits sind Integrine auch maßgeblich an der zellulären Signaltransduktion beteiligt. Als Hauptkomponente der Hemidesmososmen, die die Basalzellen mit der darunter liegenden Basalmembran verbinden, kommt Integrin alpha6beta4 eine herausragende Funktion zu. Über seine cytoplasmatischen Domänen interagiert alpha6beta4 mit PKCalpha und PKCdelta, und wird dabei seinerseits modifiziert. Grundlegende Änderungen in der Integrin-Expression und -Verteilung werden bei der Tumorigenese beobachtet. Auffallend bei Hautcarcinomen sind vor allem die Dislokation und Überexpression von Integrin alpha6beta4, was weitreichende Konsequenzen für die PKC-Signaltransduktion hat. Ziel dieser Arbeit war daher die Analyse der Rolle von PKCalpha, PKCdelta und Integrin alpha6beta4 in Keratinozyten und deren mögliche Bedeutung bei der Tumorentstehung. Dabei sollte die Funktion von PKCalpha, PKCdelta und Integrin alpha6beta4 bei der Regulation von Zell-Matrix-Interaktionen, Migration und Differenzierung untersucht werden. Hierfür wurden normale humane primäre Keratinozyten und die humane Keratinozyten-Zell-Linie HaCaT, eine immortale „prämaligne“ Zelle, mit adenoviralen Konstrukten für PKCalpha, PKCdelta, für die Integrin alpha6-Kette und für beta-Gal als Negativkontrolle infiziert. Reproduzierbare Infektionen mit hohen Infektionseffizienzen und die langsam abnehmende Synthese der exogenen Proteine erlaubten funktionelle Analysen in zweidimensionalen Kulturen, als auch in der komplexeren, physiologischen, dreidimensionalen organotypischen Kokultur (OTK). In zweidimensionalen Kulturen erhöhte PKCdelta die Migrationsaktivität der Zellen, vermutlich durch reduzierte Adhäsion an Laminin-5. Erhöhte Integrin alpha6 Level dagegen veränderten das Wachstumsverhalten dramatisch, was schließlich zu einem massiven Absterben der Zellen führte. Daher entwickelten sich in OTKs von alpha6 Zellen nur atrophische Epithelien. Differenzierungsmarker konnten, wahrscheinlich aufgrund der verminderten Lebenszeit der Zellen, nicht detektiert werden. Das Fehlen einer kompensierenden Hochregulation der Integrin beta4-Kette, die in überlebenden Maus-Keratinozyten beobachtet wurde, wird als Ursache für den Zelltod im humanen System angesehen. HaCaT-Zellen sind im Allgemeinen in der Lage ein Epithel vergleichbar der Epidermis zu bilden, obwohl sie bestimmte Differenzierungs-Defizite zeigen. So verläuft die Entwicklung stratifizierter Epithelien langsamer als bei normalen Keratinozyten und ist charakterisiert durch das Vorhandensein eines parakeratotischen Stratum corneums, was auf eine unvollständige Differenzierung hinweist. PKCalpha und PKCdelta überexprimierende Zellen dagegen bildeten gut differenzierte Epithelien, die denen normaler Keratinozyten ähnelten. Differenzierungsmarker und Basalmembrankomponenten wurden regulär exprimiert. Bei normalen Keratinozyten hatte die adenovirale Überexpression der PKC Isoformen keinen stimulierenden Einfluss auf Epithelwachstum und Stratifizierung. Die Überexpression der beiden PKC-Isoformen schien somit die bei HaCaT veränderte bzw. nicht ausreichende Interaktion mit Fibroblasten zu verbessern, was letztendlich zu einer normalisierten Differenzierung und Stratifizierung führte.
Die obligat endocytisch in Paramecium lebenden bakteriellen Symbionten der Gattung Caedibacter können bislang weder außerhalb ihrer Wirtszellen kultiviert noch genetisch transformiert werden. Entsprechend limitiert sind unsere Möglichkeiten der Erforschung oder gar Nutzung dieser Bakterien. Im Rahmen der vorliegenden Arbeit wurden Methoden zur Isolierung der Endosymbionten aus Paramecien etabliert und Strategien zur genetischen Transformation von Paramecium-Endosymbionten getestet. Es zeigte sich, dass eine Transformation außerhalb der Wirtszellen nicht möglich ist, da die Bakterien nicht in vitro selektiert werden können und eine Reinfektion der Symbionten entsprechender aposymbiontischer Wirtszellen auf dem vermuteten Infektionsweg scheiterte. Die Transformation der Endosymbionten sollte daher direkt in den Paramecien erfolgen. Es wurden Verfahren entwickelt, mit deren Hilfe die Transformation der Endosymbionten mittels Elektroporation bzw. Partikelbombardement innerhalb der Wirtszellen getestet wurde. Die zu diesen Versuchen eingesetzten Plasmide verfügten über verschiedene Replika mit nachweislich weitem Wirtsspektrum. Als Markergene dienten zum einen ein Streptomycinresistenz-Gen und zum anderen zwei Varianten des Green Fluorescent Protein. Es zeigte sich, dass die Transformation von Caedibacter derzeit noch nicht möglich ist. Weiterhin wurde untersucht, ob der Promotor des RebC-Locus aus Caedibacter für eine Kontrolle einer heterologen Genexpression unter natürlichen Bedingungen in Frage kommt. Durch Studien mit Hilfe von Promotorsonden-Vektoren, in die die entsprechende Sequenz vor ein GFP-Gen kloniert wurde, konnte in E. coli gemessen werden, inwieweit unterschiedliche physiologische Stressbedingungen zu einer Aktivierung des RebC-Promotors führen. Die Promotorstudien erfolgten nach zwei unterschiedlichen Verfahren. Unter den getesteten Stressfaktoren bewirkten Hunger und Hitzeschock die stärkste Aktivierung des untersuchten Promotors. Die erhaltenen Ergebnisse liefern einen Hinweis darauf, dass die R-Körpersynthese in Caedibacter in der Natur unter Mangel- bzw. Stressbedingungen erfolgt.
Bei Frauen ist Brustkrebs mit einem Viertel aller Krebserkrankungen die am häufigsten diagnostizierte Krebsart, während die Inzidenz bei Männern wesentlich geringer ist. Nur 10-15% aller Brustkrebserkrankungen können auf familiär prädisponierende Faktoren wie BRCA1 und BRCA2 zurückgeführt werden. Eine genetische Prädisposition bei hereditärem männlichem Brustkrebs wird für BRCA2 bestätigt. Funktionelle Analysen geben Grund zur Annahme, dass BRCA2 eine duale Rolle besitzt. Neben der Caretaker-Funktion für genomische Stabilität, ist auch eine Gatekeeper-Funktion bei der Transkriptionsregulation beschrieben. Die Basis dieser Arbeit beruht auf der Beobachtung, dass männliche BRCA2-Mutationsträger von 3 verschiedenen Familien mit hereditärem Brustkrebs auffällige chromosomale Veränderungen der Region 9p23-24 aufweisen. Vorarbeiten ließen einen kausalen Zusammenhang zwischen BRCA2-Mutation und 9p-Veränderung möglich erscheinen. Das Ziel der Arbeit bestand darin, durch molekularbiologische Methoden die Bruchpunkte in 9p23-24 bei BRCA2-Mutationsträgern unabhängiger Familien zu identifizieren und damit einen weiteren Hinweis auf die Entstehung dieser Instabilität zu geben. In dieser Arbeit konnten mittels FISH, PFGE und bioinformatischer Techniken sowohl Inversionen als auch Duplikationen festgestellt werden. Eine überlappende Inversion zeigte sich hierbei deutlich bei allen untersuchten Mutationsträgern. Mit einer FISH-Analyse konnte bei den Mutationsträgern der Familien 1 bis 3 eine Inversion im Bereich der STS-Marker D9S267 und D9S775 detektiert werden. Ferner konnte durch Interphasen-FISH eine Duplikation im Bruchpunktbereich um den STS-Marker D9S268 identifiziert werden. Southern-Analysen konnten Bruchpunkte in den Mutationsträgern der Familien 1 und 2 mittels der Enzyme EcoRI und SacI bestätigen. In dieser Arbeit konnte weiterhin gezeigt werden, dass sich die Inversionsbruchpunkte der Mutationsträger 3.3, 3.4 und 3.5 von Familie 1 in der unmittelbaren Nähe von low-copy repeats befinden, deren Größe 5kb-8kb beträgt. Die identifizierte Inversion überspannt im Wesentlichen die Gene TYRP1 und mPDZ. Bei dem durch die Inversion direkt betroffenen Gen handelt es sich um das mPDZ-Gen. Das Protein besitzt 13 PDZ-Domänen, deren Interaktionspartner beschrieben sind. Die Genexpression beider Gene konnte in lymphoblastoiden Zellen nachgewiesen werden. Die Erkenntnisse erlauben die Schlussfolgerung, dass Repeat-Sequenzen in der Umgebung der Bruchpunkte bei der Entstehung von Rearrangements auch in diesen BRCA2-Mutationsträgern eine große Rolle spielen.
The work presented here supports the industrial use of natural fibre reinforced composite
materials under mass production circumstances. Potentials for optimising the
materials’ properties are offered and evaluated with regard to their effect on the
process chain material – coupling agent – processing. The possibility to use these
materials in mass production applications are improved by optimising each partial
stage.
Throughout the world there exists a great variety of suitable applications for this
group of composites affecting the raw materials choice. The Europe’s market is
stamped by the requirements of the automotive industry, the important markets of
Japan and the USA are dominated by civil engineering and landscaping applications.
A yearly increase of 18 % in Europe, 25 % in Japan and 14 % in the US is expected.
The US market offers the largest market volume of more than 480000 t exceeding
the European Market for nearly five times.
To enhance the fields of application for natural fibre reinforced thermoplastics the
common techniques of the film-stacking and the compression moulding process are
used to manufacture optimised composites based on polypropylene and bast (hemp,
flax) as well as leaf (sisal) and wood (spruce) fibres. Therefore new semi finished
parts for the compression moulding process had to be developed.
Within the manufacturing of natural fibre reinforced polypropylene using the filmstacking
process material and process parameters were identified to transfer the
gathered knowledge to the compression moulding process. It has been seen that
most problems are caused by the organic origin of the fibres. Especially the addiction
of the fibres to decompose when treated with higher temperatures under pressure
hampers their use in thermoplastic composites.
By investigating wood fibres as reinforcements, which differ from bast fibres in their
chemical composition the influence of the process parameters temperature and pressure
on the composite properties were evaluated and verified for hemp fibre reinforced
polypropylene. The minimum process time was observed and in order to enhance
the fibre-matrix-adhesion by using coupling agents the diffusion of the coupling
agent molecules was determined theoretically. Therefore a model was evaluated dealing with the maximum mass flow of coupling agent being transferred in the
fibre-matrix-interface because of mass transfer mechanisms.
In order to optimise the wetting of the fibres with the matrix different possibilities to
modify the fibres were investigated. Drying the fibres prior to the manufacturing of the
composite is an easy and effective way to improve the fibre-matrix-adhesion. The
tensile strength of all composites rose conspicuously. The removal of dust and water
soluble substances by washing led to a higher tensile strength only with the sisal fibre
reinforced composite. Washing the other fibres led to decreasing fibre wetting.
Fibre substances like lignin and pectin were removed using the mercerisation technique.
Composites made from these chemically retted fibres show the more disintegrated
fibre structure and a worse wet ability of the fibre surface with the polypropylene.
Hence the tensile and bending strength was not enhanced. The Charpy impact
strength of the composite raised distinctly.
The use of coupling agents based on maleic acid crafted polypropylene led to an increasing
tensile strength up to 58 % compared to the composite manufactured with
pre-dried fibres. The bending strength raised about 109 %. The Charpy decreased
about 60 to 80 %. Flax fibre reinforced composites showed the highest tensile
strength, sisal fibre reinforced composites offered the highest Charpy. No differences
between copolymeric and homopolymeric polypropylene when using PP-MAH as
coupling agents were determined.
The kind of application of the coupling agent in the compound has an major effect on
the amount of coupling agent to be added. The closer the coupling agent is brought
to the fibres surface at the beginning of the impregnation step the less amount has to
be used. If using an aqueous suspension the least amount had to be added as the
coupling agent remains directly on the fibre surface after drying. Mixing the coupling
agent with the polypropylene hinders the well dispersed PP-MAH to act in the fibrematrix-
interface effectively, so the amount of coupling agent has to be increased.
The comparison of coupling agent containing compounds which differ in the amount
of coupling agent and the molar mass distribution showed the amount of coupling
agent related to the mass of fibres to be the important parameter to dose the PPMAH.
The mean molar mass distribution had no effect on the compounds’ properties.Transferring the knowledge gained from the film-stacked composites to the compression
moulding process offered the possibility to use jute long fibre reinforced granules
(LFT) under optimised processing conditions. The composites gained from the molten
and pressed granules showed the highly dependency of the mechanical properties
to the fibre direction in the part. If the fibres are able to flow along the cavity and
direct themselves into parallelism the tensile and bending strength increases in the
main flow direction and decreases perpendicular to this direction. The impact
strength decreases with raising orientation of the fibres. The jute fibre surface presents
a better adhesion to the polypropylene as the surfaces of the hemp, flax and
sisal fibres, which could be improved by adding PP-MAH as coupling agent.
A newly developed pelletised semi finished part with sisal fibre reinforcement and the
development of a direct impregnation process using solely a horizontal plasticating
unit completes the work. Using an established plasticating extruder offers the possibility
for the compression moulding industry to process natural fibre reinforced polypropylene
with less investment. The compression moulded sisal fibre reinforced polypropylene showed varying fibre directions and disproportionate fibre-matrixadhesion.
As a result of the plasticating process in some parts bended fibres are still
visible after compression moulding. Hence the used single-screw plasticator is not
able to equalize the molten material. Increasing the compaction pressure was not
possible as some parts showed beginning fibre degradation. Adding PP-MAH improved
the fibre-matrix-adhesion but the positive effect of the materials’ strength was
not as clear as found for the film-stacked composites. Regarding the additional expenditures
for compounding and the coupling agent costs the use of PP-MAH in
compression moulded parts seems not to be useful.
Compared to the compression moulded glass fibre reinforced polypropylene from
GMT and LFT-materials the natural fibre reinforced composites cannot reach the
high level of material properties. Optimising the fibre-matrix-interface increases the
properties but they are still lower than the properties of the glass fibre reinforced composites. Therefore the natural fibre reinforced materials are not able to substitute
the traditional GMT and LFT, they rather should be used in new applications with
lower demands.
Im industriellen Zeitalter stand zunächst die Funktionstüchtigkeit der Massenprodukte im Vordergrund. Insbesondere mit Einführung und Verbreitung der Rechnerunterstützten Konstruktion ist dieser Aspekt weitgehend beherrschbar geworden. Die Funktionstüchtigkeit wird zudem sowohl durch nationale Gesetze gefordert, als auch durch die in den meisten Fällen vorhandene globale Konkurrenzsituation. Als Folge nimmt die Bedeutung des "Designs" von Konsumgütern aller Art zu, seien es Kaffeemaschinen, Staubsauger oder Automobile. Insbesondere die Entwicklung von Programmen zur rechnerinternen Modellierung von Freiformflächen hat zu diesem Trendwechsel einen Beitrag geliefert. Mit der Aufwertung der Produktform hat auch die Bedeutung der "Entwicklungsschleifen" im Bereich Design zugenommen. Das heißt, nach der rechnerinternen Modellierung und einiger optischer Begutachtungen am Bildschirm wird ein realer Prototyp hergestellt, um die Serienreife des Designs zu beurteilen. Diese wird nur in wenigen Fällen auf Anhieb erreicht, eine Überarbeitung der Flächen ist meistens notwendig. Diese Entwicklungsschleifen sind sowohl zeit- als auch kostenaufwendig. Um die Beurteilung rechnerinterner Freiformflächen zu verbessern, wird im Rahmen der vorliegenden Arbeit ein Gerät entwickelt und getestet, das dem Designer die Möglichkeit eröffnen soll, an seinem CAS-/CAD-Arbeitsplatz die rechnerinternen Flächen nicht nur optisch, sondern auch haptisch und damit präziser beurteilen zu können. Das entwickelte Gerät, "Haptische Hand" genannt, präsentiert mit Hilfe einer in jeder Richtung neigbaren "Taumelscheibe" die Tangentenebene eines beliebigen Punktes der rechnerinternen Flächen. Wenn nun der Designer eine zusammenhängende Folge von Ebenenwerten auf die Taumelscheibe überträgt, so soll er dadurch die Gestalt der Fläche wahrnehmen und erkennen. Es ist außerdem möglich die Taumelscheibe anzuheben, die damit über insgesamt drei von Servomotoren angesteuerte Freiheitsgrade verfügt. Ziel dieses einfachen Konzeptes ist, das Gerät mit einer Standard-Computermaus in einem Gehäuse zu integrieren, um ein preiswertes, marktfähiges Produkt zu erreichen. Um die Behauptung der Wahrnehmbarkeit zu prüfen, wurden zwei Versuchsreichen durchgeführt. In einer ersten Versuchsreihe wurden fünf Flächen nach dem Flächenschema von Koenderink mit einem CAD-System modelliert und in vielen Variationen von mehreren Dutzend Versuchspersonen im wesentlichen haptisch wahrgenommen. Es ergab sich, dass die modellierten Flächen mit einer durchschnittlichen Erkennungsrate von 80% in einer durchschnittlichen Erkennungszeit von 25 sec erkannt werden konnten. In einer zweiten Versuchsreihe in Anlehnung an die VDA-Empfehlung 4955 wurden Unstetigkeiten, Tangentenunstetigkeiten und Krümmungsunstetigkeiten untersucht. Ergebnis war, dass die Versuchspersonen mehrheitlich dann Unstetigkeiten bei Flächenübergängen haptisch wahrnehmen können, wenn diese mehr als 0,1 mm beträgt. Bei tangentialer Unstetigkeit ist ein Mindestwert von 1,2° die Voraussetzung für eine haptische Wahrnehmung durch die Mehrheit der Testpersonen. Die Untersuchung von Flächen mit variablen Krümmungsverläufen zeigte, dass die Mehrheit der Versuchspersonen die Flächenquerschnitte und damit die Krümmungswerte korrekt erkannte. Die Ergebnisse der ersten Versuchsreihe zeigen im Vergleich zu anderen Untersuchungen mit einem anderen, kommerziell verfügbaren Gerät, dass die Eigenentwicklung ähnliche Leistungsmerkmale bei der haptischen Präsentation rechnerinterner Freiformflächen besitzt, zusätzlich aber den Vorteil einer einfachereren und damit preiswerteren Konstruktion aufweist. Aus der zweiten Versuchsreihe hingegen ergibt sich die Verpflichtung zur weiteren Erforschung der bemerkenswerten Unterschiede zwischen der haptischen Wahrnehmbarkeit bei rechnerinternen und bei realen Flächenübergängen. Die Eigenentwicklung ist zum Patent angemeldet und die Anmeldungsschrift offengelegt, um eine Vermarktung zu sichern. Zum Abschluß der Arbeit wird eine Reihe von Verbesserungs- und Ergänzungspotentialen aufgezeigt, die auch der Behebung der genannten Differenzen der Wahrnehmbarkeit zwischen rechnerinternen und realen Flächen dienen sollen. Die durchgeführten Versuche haben ergeben, dass es möglich ist, rechnerinterne Freiformflächen durch eine Folge rechnerextern dargestellter Tangentenebenen haptisch wahrnehmbar zu machen. Mit dem entwickelten Gerät kann also ein Designer an seinem CAS-/CAD-Arbeitsplatz die modellierten Flächen in Echtzeit haptisch wahrnehmen und präziser beurteilen als es durch reine Ansicht der Flächen auf dem Monitor möglich ist. Als Folge einer solchen Erweiterung der Benutzungsschnittstelle von CAS-/CAD-Systemen wird die Notwendigkeit, reale Prototypen zur Beurteilung der rechnerinternen Modelle herstellen zu müssen, abnehmen. Auf diese Weise kann mit geringem Einsatz, verglichen mit kommerziell verfügbaren Geräten, zur notwendigen Senkung der Entwicklungszeiten und Entwicklungskosten beim Styling/Design von Massenprodukten beigetragen werden.
Herbivory is discussed as a key agent in maintaining dynamics and stability of tropical forested ecosystems. Accordingly increasing attention has been paid to the factors that structure tropical herbivore communities. The aim of this study was (1) to describe diversity, density, distribution and host range of the phasmid community (Phasmatodea) of a moist neotropical forest in Panamá, and (2) to experimentally assess bottom-up and top-down factors that may regulate populations of the phasmid Metriophasma diocles. The phasmid community of Barro Colorado Island was poor in species and low in density. Phasmids mainly occurred along forest edges and restricted host ranges of phasmid species reflected the successional status of their host plants. Only M. diocles that fed on early and late successional plants occurred regularly in the forest understory. A long generation time with a comparably low fecundity converted into a low biotic potential of M. diocles. However, modeled potential population density increased exponentially and exceeded the realized densities of this species already after one generation indicating that control factors continuously affect M. diocles natural populations. Egg hatching failure decreased potential population growth by 10 % but was of no marked effect at larger temporal scale. Interspecific differences in defensive physical and chemical leaf traits of M. diocles host plants, amongst them leaf toughness the supposedly most effective anti-herbivore defense, seemed not to affect adult female preference and nymph performance. Alternatively to these defenses, I suggest that the pattern of differential preference and performance may be based on interspecific differences in qualitative toxic compounds or in nutritive quality of leaves. The significant rejection of leaf tissue with a low artificial increase of natural phenol contents by nymphs indicated a qualitative defensive pathway in Piper evolution. In M. diocles, oviposition may not be linked to nymph performance, because the evolutionary prediction of a relation between female adult preference and nymph performance was missing. Consequently, the recruitment of nymphs into the reproductive adult phase may be crucially affected by differential performance of nymphs. Neonate M. diocles nymphs suffered strong predation pressure when exposed to natural levels of predation. Concluding from significantly increased predation-related mortality at night, I argue that arthropods may be the main predators of this nocturnal herbivore. Migratory behavior of nymphs seemed not to reflect predation avoidance. Instead, I provided first evidence that host plant quality may trigger off-plant migration. In conclusion, I suggest that predation pressure with its direct effects on nymph survival may be a stronger factor regulating M. diocles populations, compared to direct and indirect effects of host plant quality, particularly because slow growth and off-host migration both may feed back into an increase of predation related mortality.
Der `aryl hydrocarbon´-Rezeptor (AhR) ist ein Ligand aktivierter Transkriptionsfaktor, der durch Bindung an spezifische DNA-Elemente (`xenobiotic responsive elements´ (XREs)) Einfluss auf die Expression einer Vielzahl von Genen u.a. Cytochrom P450 (CYP) 1A hat. Liganden des AhR sind unter anderem aromatische halogenierte Kohlenwasserstoffe (z.B: 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD)), polyzyklische aromatische Kohlenwasserstoffe und Pharmazeutika. Natürliche Liganden wie Indolderivate sind ebenfalls bekannte AhR-Liganden. In dieser Arbeit sollte im ersten Teil geklärt werden, inwieweit die in pflanzlichen Lebensmitteln vorkommende Furocumarine Angelicin, Bergamottin, Isopimpinellin und 8-Methoxypsoralen (8-MOP) den AhR-Signaltransduktionsweg und das CYP1A Enzym in Abhänigkeit von den Lichtverhältnissen beeinflussen. Hierbei zeigen alle untersuchten Furocumarine einen Licht- und konzentrationsabhängigen inhibitorischen Effekt auf die CYP1A-vermittelte EROD-Aktivität sowohl in mit TCDD koinkubierten Rattenhepatozyten in Primarkultur als auch in Mikrosomen aus mit TCDD inkubierten primären Rattenhepatozyten, die mit dem Furocumarin präinkubiert wurden. Bergamottin ist der potenteste Inhibitor mit einem IC50-Wert von 0,01 µM in Mikrosomen bei Licht. Angelicin, Isopimpinellin und 8-MOP sind unter Lichtausschluss im XRE-gesteuerten Reportergen-Assay in der Lage, den AhR zu aktivieren. Western Blot Analysen zeigen eine Induktion der CYP1A1 Proteinexpression unter den gleichen Bedingungen. Bergamottin ist in keinem untersuchten System in der Lage, den AhR zu aktivieren, steigert aber die CYP1A1 Proteinexpression, was für einen unterschiedlichen mechanistischen Verlauf im Vergleich mit den anderen untersuchten Furocumarinen spricht. Die CYP1A1 mRNA korreliert nur teilweise mit diesen Daten, was unter anderem mit der Zeitabhängigkeit der durchgeführten Untersuchungen begründet werden kann. Die hier verwendeten Substanzen sind somit unter Lichtausschluss `Suizid´Inaktivatoren des CYP1A1, indem sie ihren eigenen Metabolimus durch Aktivierung des AhR-Signalweges katalysieren. Im zweiten Teil dieser Arbeit wurden Tryptophan-Metabolite durch Fermentation von Rattenfeces mit Tryptophan generiert und die Methodik zur Anreicherung und Charakterisierung optimiert. Trotz der Optimierung der einzelnen Verfahrensschritte konnte aufgrund der geringen zur Verfügung stehenden Menge und der starken Matrix-bedingten Verunreinigungen der EROD-aktiven Substanzen keine Charakterisierung vorgenommen werden. Die optimierte HPLC-Analyse ermöglicht die Abtrennung anteilsmäßig großer Verunreinigungen. Außerdem kann durch die hier entwickelte Selektion von Bakterienkulturen aus Rattenfeces auf den Einsatz frischer Feces verzichtet werden. Des Weiteren lässt sich die Ausbeute an dem gewünschten Produkten erhöhen, indem Kulturen eingesetzt werden, die zu einer Steigerung an gebildeten EROD-aktiven Verbindungen führte, was eine Charakterisierung vereinfachen könnte.
Nowadays one of the major objectives in geosciences is the determination of the gravitational field of our planet, the Earth. A precise knowledge of this quantity is not just interesting on its own but it is indeed a key point for a vast number of applications. The important question is how to obtain a good model for the gravitational field on a global scale. The only applicable solution - both in costs and data coverage - is the usage of satellite data. We concentrate on highly precise measurements which will be obtained by GOCE (Gravity Field and Steady State Ocean Circulation Explorer, launch expected 2006). This satellite has a gradiometer onboard which returns the second derivatives of the gravitational potential. Mathematically seen we have to deal with several obstacles. The first one is that the noise in the different components of these second derivatives differs over several orders of magnitude, i.e. a straightforward solution of this outer boundary value problem will not work properly. Furthermore we are not interested in the data at satellite height but we want to know the field at the Earth's surface, thus we need a regularization (downward-continuation) of the data. These two problems are tackled in the thesis and are now described briefly. Split Operators: We have to solve an outer boundary value problem at the height of the satellite track. Classically one can handle first order side conditions which are not tangential to the surface and second derivatives pointing in the radial direction employing integral and pseudo differential equation methods. We present a different approach: We classify all first and purely second order operators which fulfill that a harmonic function stays harmonic under their application. This task is done by using modern algebraic methods for solving systems of partial differential equations symbolically. Now we can look at the problem with oblique side conditions as if we had ordinary i.e. non-derived side conditions. The only additional work which has to be done is an inversion of the differential operator, i.e. integration. In particular we are capable to deal with derivatives which are tangential to the boundary. Auto-Regularization: The second obstacle is finding a proper regularization procedure. This is complicated by the fact that we are facing stochastic rather than deterministic noise. The main question is how to find an optimal regularization parameter which is impossible without any additional knowledge. However we could show that with a very limited number of additional information, which are obtainable also in practice, we can regularize in an asymptotically optimal way. In particular we showed that the knowledge of two input data sets allows an order optimal regularization procedure even under the hard conditions of Gaussian white noise and an exponentially ill-posed problem. A last but rather simple task is combining data from different derivatives which can be done by a weighted least squares approach using the information we obtained out of the regularization procedure. A practical application to the downward-continuation problem for simulated gravitational data is shown.
Compared to our current knowledge of neuronal excitation, little is known about the development and maturation of inhibitory circuits. Recent studies show that inhibitory circuits develop and mature in a similar way like excitatory circuit. One such similarity is the development through excitation, irrespective of its inhibitory nature. Here in this current study, I used the inhibitory projection between the medial nucleus of the trapezoid body (MNTB) and the lateral superior olive (LSO) as a model system to unravel some aspects of the development of inhibitory synapses. In LSO neurons of the rat auditory brainstem, glycine receptor-mediated responses change from depolarizing to hyperpolarizing during the first two postnatal weeks (Kandler and Friauf 1995, J. Neurosci. 15:6890-6904). The depolarizing effect of glycine is due to a high intracellular chloride concentration ([Cl-]i), which induces a reversal potential of glycine (EGly) more positive than the resting membrane potential (Vrest). In older LSO neurons, the hyperpolarizing effect is due to a low [Cl-]i (Ehrlich et al., 1999, J. Physiol. 520:121-137). Aim of the present study was to elucidate the molecular mechanism behind Clhomeostasis in LSO neurons which determines polarity of glycine response. To do so, the role and developmental expression of Cl-cotransporters, such as NKCC1 and KCC2 were investigated. Molecular biological and gramicidin perforated patchclamp experiments revealed, the role of KCC2 as an outward Cl-cotransporter in mature LSO neurons (Balakrishnan et al., 2003, J Neurosci. 23:4134-4145). But, NKCC1 does not appear to be involved in accumulating chloride in immature LSO neurons. Further experiments, indicated the role of GABA and glycine transporters (GAT1 and GLYT2) in accumulating Cl- in immature LSO neurons. Finally, the experiments with hypothyroid animals suggest the possible role of thyroid hormone in the maturation of inhibitory synapse. Altogether, this thesis addressed the molecular mechanism underlying the Cl- regulation in LSO neurons and deciphered it to some extent.
The polydispersive nature of the turbulent droplet swarm in agitated liquid-liquid contacting equipment makes its mathematical modelling and the solution methodologies a rather sophisticated process. This polydispersion could be modelled as a population of droplets randomly distributed with respect to some internal properties at a specific location in space using the population balance equation as a mathematical tool. However, the analytical solution of such a mathematical model is hardly to obtain except for particular idealized cases, and hence numerical solutions are resorted to in general. This is due to the inherent nonlinearities in the convective and diffusive terms as well as the appearance of many integrals in the source term. In this work two conservative discretization methodologies for both internal (droplet state) and external (spatial) coordinates are extended and efficiently implemented to solve the population balance equation (PBE) describing the hydrodynamics of liquid-liquid contacting equipment. The internal coordinate conservative discretization techniques of Kumar and Ramkrishna (1996a, b) originally developed for the solution of PBE in simple batch systems are extended to continuous flow systems and validated against analytical solutions as well as published experimental droplet interaction functions and hydrodynamic data. In addition to these methodologies, we presented a conservative discretization approach for droplet breakage in batch and continuous flow systems, where it is found to have identical convergence characteristics when compared to the method of Kumar and Ramkrishna (1996a). Apart from the specific discretization schemes, the numerical solution of droplet population balance equations by discretization is known to suffer from inherent finite domain errors (FDE). Two approaches that minimize the total FDE during the solution of the discrete PBEs using an approximate optimal moving (for batch) and fixed (for continuous systems) grids are introduced (Attarakih, Bart & Faqir, 2003a). As a result, significant improvements are achieved in predicting the number densities, zero and first moments of the population. For spatially distributed populations (such as extraction columns) the resulting system of partial differential equations is spatially discretized in conservative form using a simplified first order upwind scheme as well as first and second order nonoscillatory central differencing schemes (Kurganov & Tadmor, 2000). This spatial discretization avoids the characteristic decomposition of the convective flux based on the approximate Riemann Solvers and the operator splitting technique required by classical upwind schemes (Karlsen et al., 2001). The time variable is discretized using an implicit strongly stable approach that is formulated by careful lagging of the nonlinear parts of the convective and source terms. The present algorithms are tested against analytical solutions of the simplified PBE through many case studies. In all these case studies the discrete models converges successfully to the available analytical solutions and to solutions on relatively fine grids when the analytical solution is not available. This is accomplished by deriving five analytical solutions of the PBE in continuous stirred tank and liquid-liquid extraction column for especial cases of breakage and coalescence functions. As an especial case, these algorithms are implemented via a windows computer code called LLECMOD (Liquid-Liquid Extraction Column Module) to simulate the hydrodynamics of general liquid-liquid extraction columns (LLEC). The user input dialog makes the LLECMOD a user-friendly program that enables the user to select grids, column dimensions, flow rates, velocity models, simulation parameters, dispersed and continuous phases chemical components, and droplet phase space-time solvers. The graphical output within the windows environment adds to the program a distinctive feature and makes it very easy to examine and interpret the results very quickly. Moreover, the dynamic model of the dispersed phase is carefully treated to correctly predict the oscillatory behavior of the LLEC hold up. In this context, a continuous velocity model corresponding to the manipulation of the inlet continuous flow rate through the control of the dispersed phase level is derived to get rid of this behavior.