Refine
Year of publication
- 2004 (55) (remove)
Document Type
- Doctoral Thesis (55) (remove)
Has Fulltext
- yes (55)
Keywords
- Flüssig-Flüssig-Extraktion (3)
- Simulation (3)
- Harnstoff (2)
- Hydrodynamik (2)
- Polymere (2)
- SOC (2)
- auditory brainstem (2)
- 2-D-Elektrophorese (1)
- ADAM10 (1)
- Abgasnachbehandlung (1)
- Acetylcholinrezeptor (1)
- AhR (1)
- Algebraische Geometrie (1)
- Algebraischer Funktionenkörper (1)
- Aluminium (1)
- Aluminiumphosphate (1)
- Antigenspezifische Immunsuppression (1)
- Apoptose (1)
- Apoptosis (1)
- Asymptotik (1)
- Ausdrucksfähig (1)
- Ausdrucksfähigkeit (1)
- Automation (1)
- Automorphismengruppe (1)
- Autonomer Agent (1)
- Autoprozessierung (1)
- B-CLL (1)
- BRCA2 (1)
- Bakteriophage (1)
- Basische Feststoffkatalysatoren (1)
- Bayes method (1)
- Bayes-Verfahren (1)
- Benutzeroberfläche (1)
- Betrachtung des Schlimmstmöglichen Falles (1)
- Bindiger Boden (1)
- Bottom-up (1)
- Boundary Value Problem / Oblique Derivative (1)
- Broutman-Versuch (1)
- CAD (1)
- CFD (1)
- CYP1A (1)
- Caedibacter (1)
- Castelnuovo Funktion (1)
- Castelnuovo function (1)
- Cauchy-Born rule (1)
- Chloride regulation (1)
- Cobalt (1)
- Combined Sewer Overflow (1)
- Comet Assay (1)
- Conservation laws (1)
- Construction of hypersurfaces (1)
- Containertypen (1)
- Containertypes (1)
- Crash Hedging (1)
- Cytotoxizität (1)
- DNS-Strangbruch (1)
- Datenausgabegerät (1)
- Dienstgüte (1)
- Dienstschnittstellen (1)
- Differenzierung (1)
- Diffusionsprozess (1)
- Dosierung (1)
- Droplet breakage (1)
- Droplet coalescence (1)
- Duromere (1)
- Dünnfilmapproximation (1)
- EPR (1)
- ESR (1)
- ESTELLE (1)
- Effizienter Algorithmus (1)
- Effizienz (1)
- Effizienzsteigerung (1)
- Eierstockkrebs (1)
- Emission (1)
- Empfangssignalverarbeitung (1)
- Epoxidharzverbunden (1)
- Erhaltungsgleichungen (1)
- Expressiveness (1)
- FICTION (1)
- FISH (1)
- FOF1-ATP-Synthase (1)
- Fahrerassistenzsystem (1)
- FasLigand (1)
- Faser-Kunststoff-Verbund-Laminate (1)
- Faser-Kunststoff-Verbunde (1)
- Faserorientierungen (1)
- Finite-Elemente-Methode (1)
- Foam decay (1)
- Formale Beschreibungstechnik (1)
- Freiformfläche (1)
- Freiheitsgrad (1)
- Funktioneller Gradientenwerkstoff (1)
- Funktionenkörper (1)
- Funktionsanalyse (1)
- Furocumarine (1)
- Gebäudetechnik (1)
- Gelonin (1)
- Geschwindigkeitsbegrenzung (1)
- Geschwindigkeitsregelung (1)
- Geschwindigkeitswahrnehmung (1)
- Gleichgewichtsstrategien (1)
- Glucocorticoidrezeptor (1)
- Glykosylierung (1)
- Gravitationsfeld (1)
- Große Abweichung (1)
- Grundwassersanierung (1)
- HIF-1 (1)
- Hamilton-Jacobi-Differentialgleichung (1)
- Hamiltonian systems (1)
- Harze (1)
- Harzinjektionsverfahren (1)
- Hydrodynamics (1)
- Hydrolyse (1)
- Hyperelliptische Kurve (1)
- Hyperflächensingularität (1)
- Idealklassengruppe (1)
- Implementation (1)
- Implementierung (1)
- In vitro (1)
- In vivo (1)
- Integrated Operation (1)
- Integrine (1)
- Inverse Problem (1)
- Inverses Problem (1)
- Ionentauscher (1)
- Jacobigruppe (1)
- KCC2 (1)
- Kanalisation (1)
- Katalyse (1)
- Keratinozyten (1)
- Kinetik (1)
- Kläranlage (1)
- Komplexaufklärung (1)
- Komponentenmodell (1)
- Konstruktion von Hyperflächen (1)
- Kontextbezogenes System (1)
- Kryptologie (1)
- Kultivierung (1)
- Kurbelgehäuse (1)
- Kühni (1)
- L1 (1)
- Lateral superior olive (1)
- Leichtbau (1)
- Leitfähigkeit (1)
- Leittechnik (1)
- Limonen-Umsetzung (1)
- Liquid-liquid dispersion (1)
- MIMO (1)
- MIMO Systeme (1)
- MSR (1)
- Magnesium (1)
- Marangoni-Effekt (1)
- Materialsysteme (1)
- Mehragentensystem (1)
- Metalloproteinasen (1)
- Miniplant (1)
- Mischwasser (1)
- Mischwasserbehandlung (1)
- Mobile Computing (1)
- Mobilfunk (1)
- Mobilfunksysteme (1)
- Modellierung (1)
- Modelling (1)
- Modulraum (1)
- Monte Carlo (1)
- Monte Carlo simulation (1)
- Monte-Carlo-Simulation (1)
- Myasthenia gravis (1)
- NOx (1)
- Nahrung (1)
- Neurales Zell-Adhäsionsmolekül (1)
- Nichtlineare partielle Differentialgleichung (1)
- Nickel (1)
- Nische (1)
- Nitridierung (1)
- Nulldimensionale Schemata (1)
- Numerische Simulat (1)
- Numerisches Modell (1)
- Oberflächenprotein (1)
- Object-orientation (1)
- Objektorientierung (1)
- Ochratoxin A (1)
- Open Estelle (1)
- Ortspezifische Mutagenese (1)
- Oxidativer Stress (1)
- PFGE (1)
- Patchworking Methode (1)
- Patchworking method (1)
- Phasengleichgewicht (1)
- Phasenverhalten (1)
- Phasenwechselmaterial (1)
- Phasmatodea (1)
- Phosphor-Metall-Komplexe (1)
- Phosphorkomplexe (1)
- Plasmid (1)
- Pn-Liganden (1)
- Pn-ligands (1)
- Polychlorierte Biphenyle (1)
- Population balance (1)
- Populationsbilanzen (1)
- Portfolio Optimierung (1)
- Portfolio Selection (1)
- Proteinkinase C (1)
- Proteinstruktur (1)
- Pyrolyse (1)
- Quality (1)
- Qualität (1)
- RH795 (1)
- Randwertproblem / Schiefe Ableitung (1)
- Reaktivextraktion (1)
- Real-Time Control (1)
- Regularisierung (1)
- Regularisierung / Stoppkriterium (1)
- Regularization / Stop criterion (1)
- Repeat (1)
- Repeats (1)
- Repression (1)
- SBR-Verfahren (1)
- SCR (1)
- SCR-Verfahren (1)
- SKY (1)
- Satelliten-DNS (1)
- Schaum (1)
- Schaumzerfall (1)
- Schrumpfen (1)
- Sendesignalverarbeitung (1)
- Sequencing Batch Reactor (1)
- Sequenz (1)
- Serinproteinasen (1)
- Service Access Points (1)
- Signaling (1)
- Socs-3 (1)
- Software (1)
- Speed (1)
- Speed management (1)
- Split Operator (1)
- Splitoperator (1)
- Stochastische Differentialgleichung (1)
- Stochastische dynamische Optimierung (1)
- Stoffaustausch (1)
- Stoffübergang (1)
- Streptococcus pneumoniae (1)
- Superior olivary complex (1)
- Tastwahrnehmung (1)
- Thermische Harnstoffaufbereitung (1)
- Thermolyse (1)
- Thermoplaste (1)
- Thin film approximation (1)
- Top-down (1)
- Transkription (1)
- Transparente Wärmedämmung (1)
- Transskriptionsaktivität (1)
- Tribologie (1)
- Trockenharnstoff (1)
- Tropenökologie (1)
- Tropfenkoaleszenz (1)
- Tropfenzerfall (1)
- Tumorpromotion (1)
- Tumorzytogenetik (1)
- Unsicherheit (1)
- Verbrennungsmotor (1)
- Verbundguss (1)
- Verkehrspolitik (1)
- Verkehrssicherheit (1)
- Vesikel (1)
- Visualisierung (1)
- Wassertransport (1)
- Weißer Phosphor (1)
- Weißes Rauschen (1)
- White Noise (1)
- Winsor-System (1)
- Winsor-system (1)
- XEC (1)
- Zellmigration (1)
- Zeolith (1)
- Zero-dimensional schemes (1)
- Zugfestigkeit (1)
- Zylinderblock (1)
- aftertreatment (1)
- algebraic correspondence (1)
- algebraische Korrespondenzen (1)
- aluminum (1)
- anoxia (1)
- beyond 3G (1)
- bottom-up (1)
- catalysis (1)
- cell adhesion molecule (1)
- cell migration (1)
- changing market coefficients (1)
- combustion engine (1)
- compound casting (1)
- coordinative stabilisation (1)
- crank case (1)
- crash hedging (1)
- cylinder block (1)
- data output unit (1)
- degree of freedom (1)
- development (1)
- driver assistance (1)
- equilibrium strategies (1)
- finite element method (1)
- flüssiges Polymer (1)
- food (1)
- free-form surface (1)
- functionally graded material (1)
- furocoumarins (1)
- glycine neurotransmission (1)
- groundwater remediation (1)
- haptic perception (1)
- heterogene Werkstoffe (1)
- higher order accurate conserving time integrators (1)
- higher-order continuum (1)
- host-range (1)
- hydrodynamics (1)
- hyperelliptic function field (1)
- hyperelliptische Funktionenkörper (1)
- hypoxia (1)
- idealclass group (1)
- inhibition (1)
- ion exchanger (1)
- koordinative Stabilisierung (1)
- langfaserverstärkte Thermoplaste (1)
- life-history (1)
- lightweight design (1)
- liquid-liquid-extraction (1)
- magnesium (1)
- mass transfer (1)
- mass transfer kinetics (1)
- metalloproteases (1)
- microstructures (1)
- miniplant (1)
- mobile radio systems (1)
- model uncertainty (1)
- multiuser detection (1)
- multiuser transmission (1)
- nachwachsende Rohstoffe (1)
- native Aufreinigung (1)
- nonlinear elastodynamics (1)
- numerical model (1)
- numerical time integration (1)
- optical imaging (1)
- organotypische Kokultur (1)
- ovarian carcinoma (1)
- oxidative DNA-Schäden (1)
- p300 (1)
- p53 (1)
- pKAP298 (1)
- particle dynamics (1)
- phase behavior (1)
- phosphorous-metall-complexes (1)
- polymer (1)
- portfolio optimization (1)
- prädiktive Regelung (1)
- rank-one convexity (1)
- reactive extraction (1)
- solares Bauen (1)
- solid urea (1)
- strain localization (1)
- thermisches Gebäudeverhalten (1)
- top-down (1)
- traffic safety (1)
- triboligy (1)
- user interface (1)
- vesicle (1)
- voltage sensitive dye (1)
- worst-case scenario (1)
- Äquisingularität (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Biologie (10)
- Kaiserslautern - Fachbereich Chemie (10)
- Kaiserslautern - Fachbereich Mathematik (7)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Informatik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Physik (1)
In the filling process of a car tank, the formation of foam plays an unwanted role, as it may prevent the tank from being completely filled or at least delay the filling. Therefore it is of interest to optimize the geometry of the tank using numerical simulation in such a way that the influence of the foam is minimized. In this dissertation, we analyze the behaviour of the foam mathematically on the mezoscopic scale, that is for single lamellae. The most important goals are on the one hand to gain a deeper understanding of the interaction of the relevant physical effects, on the other hand to obtain a model for the simulation of the decay of a lamella which can be integrated in a global foam model. In the first part of this work, we give a short introduction into the physical properties of foam and find that the Marangoni effect is the main cause for its stability. We then develop a mathematical model for the simulation of the dynamical behaviour of a lamella based on an asymptotic analysis using the special geometry of the lamella. The result is a system of nonlinear partial differential equations (PDE) of third order in two spatial and one time dimension. In the second part, we analyze this system mathematically and prove an existence and uniqueness result for a simplified case. For some special parameter domains the system can be further simplified, and in some cases explicit solutions can be derived. In the last part of the dissertation, we solve the system using a finite element approach and discuss the results in detail.
Nowadays one of the major objectives in geosciences is the determination of the gravitational field of our planet, the Earth. A precise knowledge of this quantity is not just interesting on its own but it is indeed a key point for a vast number of applications. The important question is how to obtain a good model for the gravitational field on a global scale. The only applicable solution - both in costs and data coverage - is the usage of satellite data. We concentrate on highly precise measurements which will be obtained by GOCE (Gravity Field and Steady State Ocean Circulation Explorer, launch expected 2006). This satellite has a gradiometer onboard which returns the second derivatives of the gravitational potential. Mathematically seen we have to deal with several obstacles. The first one is that the noise in the different components of these second derivatives differs over several orders of magnitude, i.e. a straightforward solution of this outer boundary value problem will not work properly. Furthermore we are not interested in the data at satellite height but we want to know the field at the Earth's surface, thus we need a regularization (downward-continuation) of the data. These two problems are tackled in the thesis and are now described briefly. Split Operators: We have to solve an outer boundary value problem at the height of the satellite track. Classically one can handle first order side conditions which are not tangential to the surface and second derivatives pointing in the radial direction employing integral and pseudo differential equation methods. We present a different approach: We classify all first and purely second order operators which fulfill that a harmonic function stays harmonic under their application. This task is done by using modern algebraic methods for solving systems of partial differential equations symbolically. Now we can look at the problem with oblique side conditions as if we had ordinary i.e. non-derived side conditions. The only additional work which has to be done is an inversion of the differential operator, i.e. integration. In particular we are capable to deal with derivatives which are tangential to the boundary. Auto-Regularization: The second obstacle is finding a proper regularization procedure. This is complicated by the fact that we are facing stochastic rather than deterministic noise. The main question is how to find an optimal regularization parameter which is impossible without any additional knowledge. However we could show that with a very limited number of additional information, which are obtainable also in practice, we can regularize in an asymptotically optimal way. In particular we showed that the knowledge of two input data sets allows an order optimal regularization procedure even under the hard conditions of Gaussian white noise and an exponentially ill-posed problem. A last but rather simple task is combining data from different derivatives which can be done by a weighted least squares approach using the information we obtained out of the regularization procedure. A practical application to the downward-continuation problem for simulated gravitational data is shown.
Mit Hilfe von Trifluormethansulfonsäure gelang die chemische Deglykosylierung von natürlichem Gelonin. Durch die Charakterisierung mit Hilfe von SDS-PAGE, wurden Hinweise auf das Vorliegen der Aminosäurensequenz von Nolan et al. gefunden. Durch Auswertung massenspektrometrischer Daten wurde ein mögliches Glykosylierungsmuster vorgeschlagen. Die Expression von rekombinantem Gelonin in E.coli und anschließende Isolierung mit Hilfe der Nickel-Affinitätschromatographie führte zu einem Produkt, das trotz fehlender Glykosylierung um den Faktor 2 toxischer war als natürliches Gelonin und vergleichbare immunologische Eigenschaften aufwies. Durch molekularbiologische Arbeiten wurde der Expressionsvektor für ein AChR-Fragment (a-Untereinheit, AS 4-181) um die DNA-Information für die Aminosäuren 182-208 erweitert. Eine Expression führte zur Bildung eines nativen Produktes, während die native Isolierung des verkürzten Fragmentes nicht erfolgreich war. Ein rekombinant hergestelltes Fusionsprotein aus Gelonin und einem AChR-Fragment (a-Untereinheit, AS 4-181) konnte in hoher Ausbeute und Reinheit mit Hilfe von Nickel-Affinitätschromatographie isoliert werden. Da eine denaturierende Aufarbeitung notwendig war, wurde eine geeignete Renaturierungsmethode entwickelt. Trotz Optimierung fielen allerdings noch bis zu 80% des Fusionsproteins als falsch-gefaltete, unlösliche Proteinaggregate aus. Durch Einführung einer „Recyclingmethode“ konnte der Proteinverlust deutlich minimiert werden. Beide Domänen zeigten sich nativ gefaltet. Allerdings war das Gelonin-Fragment um den Faktor 11 untoxischer als rekombinantes Gelonin alleine. Das Fusionsprotein wurde in einem Tiermodell der Myasthenia gravis auf seine potentiellen antigenspezifischen immunsuppressiven Eigenschaften gestestet. Nach der Induktion der Erkrankung in Ratten durch Gabe von komplettem AChR, wurde die Erkrankung durch repetitive Nervenstimulation untersucht. Eine Methode die auch bei humaner Myasthenie angewendet wird. Nach der Gabe des Fusionsproteins verschwanden die myasthenen Symptome in der Ratte innerhalb einer Woche. Damit zeigte das Fusionsprotein einen therapeutischen Effekt. Langzeitstudien wurden allerdings nicht durchgeführt.
Die formale Spezifikation von Kommunikationssystemen stellt durch die mit ihr verbundene Abstraktion und Präzision eine wichtige Grundlage für die formale Verifikation von Systemeigenschaften dar. Diese Abstraktion begrenzt jedoch auch die Ausdrucksfähigkeit der formalen Beschreibungstechnik und kann somit zu problemunangemessenen Spezifikationen führen. Wir untersuchen anhand der formalen Beschreibungstechnik Estelle zunächst zwei solche Aspekte. Beide führen speziell in Hinsicht auf die Domäne von Estelle, der Spezifikation von Kommunikationsprotokollen, zu schwerwiegenden Beeinträchtigungen der Ausdrucksfähigkeit. Eines dieser Defizite zeigt sich bei dem Versuch, in Estelle ein offenes System wie z. B. eine Protokollmaschine oder einen Kommunikationsdienst zu spezifizieren. Da Estelle-Spezifikationen nur geschlossene Systeme beschreiben können, werden solche Komponenten immer nur als Teil einer fest vorgegebenen Umgebung spezifiziert und besitzen auch nur in dieser eine formale Syntax und Semantik. Als Lösung für dieses Problem führen wir die kompatible syntaktische und semantische Estelle-Erweiterung Open-Estelle ein, die eine formale Spezifikation solcher offener Systeme und ihres Imports in verschiedene Umgebungen ermöglicht. Ein anderes Defizit in der Ausdrucksfähigkeit von Estelle ergibt sich aus der strengen Typprüfung. Wir werden zeigen, dass es in heterogenen, hierarchisch strukturierten Kommunikationssystemen im Zusammenhang mit den dort auftretenden horizontalen und vertikalen Typkompositionen zu einer unangemessenen Modellierung von Nutzdatentypen an den Dienstschnittstellen kommt. Dieses Problem erweist sich beim Versuch einer generischen und nutzdatentypunabhängigen Spezifikation eines offenen Systems (z. B. mit Open-Estelle) sogar als fatal. Deshalb führen wir die kompatible Containertyp-Erweiterung ein, durch die eine formale Spezifikation nutzdatentypunabhängiger und somit generischer Schnittstellen von Diensten und Protokollmaschinen ermöglicht wird. Als Grundlage für unsere Implementierungs- und Optimierungsexperimente führen wir den „eXperimental Estelle Compiler“ (XEC) ein. Er ermöglicht aufgrund seines Implementierungskonzeptes eine sehr flexible Modellierung des Systemmanagements und ist insbesondere für die Realisierung verschiedener Auswahloptimierungen geeignet. XEC ist zudem mit verschiedenen Statistik- und Monitoring-Funktionalitäten ausgestattet, durch die eine effiziente quantitative Analyse der durchgeführten Implementierungsexperimente möglich ist. Neben dem vollständigen Sprachumfang von Estelle unterstützt XEC auch die meisten der hier eingeführten Estelle-Erweiterungen. Neben der Korrektheit ist die Effizienz automatisch generierter Implementierungen eine wichtige Anforderung im praktischen Einsatz. Hier zeigt sich jedoch, dass viele der in formalen Protokollspezifikationen verwendeten Konstrukte nur schwer semantikkonform und zugleich effizient implementiert werden können. Entsprechend untersuchen wir anhand des Kontrollflusses und der Handhabung von Nutzdaten, wie die spezifizierten Operationen effizient implementiert werden können, ohne das Abstraktionsniveau senken zu müssen. Die Optimierung des Kontrollflusses geschieht dabei ausgehend von der effizienten Realisierung der Basisoperationen der von XEC erzeugten Implementierungen primär anhand der Transitionsauswahl, da diese speziell bei komplexen Spezifikationen einen erheblichen Teil der Ausführungszeit bansprucht. Wir entwickeln dazu verschiedene heuristische Optimierungen der globalen Auswahl und der modullokalen Auswahl und werten diese sowohl analytisch wie auch experimentell aus. Wesentliche Ansatzpunkte sind dabei verschiedene ereignisgesteuerte Auswahlverfahren auf globaler Ebene und die Reduktion der zu untersuchenden Transitionen auf lokaler Ebene. Die Überprüfung der Ergebnisse anhand der ausführungszeitbezogenen Leistungsbewertung bestätigt diese Ergebnisse. Hinsichtlich der effizienten Handhabung von Daten untersuchen wir unterschiedliche Ansätze auf verschiedenen Ebenen, die jedoch in den meisten Fällen eine problemunangemessene Ausrichtung der Spezifikation auf die effiziente Datenübertragung erfordern. Eine überraschend elegante, problemorientierte und effiziente Lösung ergibt sich jedoch auf Basis der Containertyp-Erweiterung, die ursprünglich zur Steigerung des Abstraktionsniveaus eingeführt wurde. Dieses Ergebnis widerlegt die Vorstellung, dass Maßnahmen zur Steigerung der effizienten Implementierbarkeit auch immer durch eine Senkung des Abstraktionsniveaus erkauft werden müssen.
In this thesis we propose an efficient method to compute the automorphism group of an arbitrary hyperelliptic function field over a given constant field of odd characteristic as well as over its algebraic extensions. Beside theoretical applications, knowing the automorphism group also is useful in cryptography: The Jacobians of hyperelliptic curves have been suggested by Koblitz as groups for cryptographic purposes, because the discrete logarithm is believed to be hard in this kind of groups. In order to obtain "secure" Jacobians, it is necessary to prevent attacks like Pohlig/Hellman's and Duursma/Gaudry/Morain's. The latter is only feasible, if the corresponding function field has an automorphism of large order. According to a theorem by Madan, automorphisms seem to allow the Pohlig/Hellman attack, too. Hence, the function field of a secure Jacobian will most likely have trivial automorphism group. In other words: Computing the automorphism group of a hyperelliptic function field promises to be a quick test for insecure Jacobians. Let us outline our algorithm for computing the automorphism group Aut(F/k) of a hyperelliptic function field F/k. It is well known that Aut(F/k) is finite. For each possible subgroup U of Aut(F/k), Rolf Brandt has given a normal form for F if k is algebraically closed. Hence our problem reduces to deciding, whether a given hyperelliptic function field F=k(x,y), y^2=D_x has a defining equation of the form given by Brandt. This question can be answered using theorem III.18: We have F=k(t,u), u^2=D_t iff x is a fraction of linear polynomials in t and y=pu, where the factor p is a rational function w.r.t. t which can be determined explicitly from the coefficients of x. This condition can be checked efficiently using Gröbner basis techniques. With additional effort, it is also possible to compute Aut(F/k) if k is not algebraically closed. Investigating a huge number of examples one gets the impression that the above motivation of getting a quick test for insecure Jacobians is partially fulfilled: The computation of automorphism groups is quite fast using the suggested algorithm. Furthermore, fields with nontrivial automorphism groups seem to have insecure Jacobians. Only fields of small characteristic seem to have a reasonable chance of having nontrivial automorphisms. Hence, from a cryptographic point of view, computing Aut(F/k) seems to make sense whenever k has small characteristic.
Inappropriate speed is the most common reason for road traffic accidents world wide. Thus, a necessity for speed management exists. The so-called SUNflower states Sweden, the United Kingdom and the Netherlands - each spending strong effort in traffic safety policies - have great success in reducing mean road speeds and speed variances through speed management. However, the effect is still insufficient for gaining real traffic safety. Thus, there is a discussion to make use of technical in-vehicle devices. One of these technologies called Intelligent Speed Adaptation (ISA) reduces vehicle speeds. This is done either by warning the driver that he is speeding, or activating the accelerator pedal with a counterforce, or reducing the gasoline supply to the motor. The three ways of reducing the speed are called version 1-3. The EC-project for research on speed adaptation policies on European roads (PROSPER) deals with strategic proposals for the implementation of the different ISA-versions. This thesis includes selected results of PROSPER. In this thesis two empiric surveys were done in order to give an overview about the basic conditions (e.g. social, economic, technical aspects) for an ISA implementation in Germany. On one hand, a stakeholder analysis and questionnaire using the Delphi-method has been accomplished in two rounds. On the other hand, a questionnaire with speed offenders has been accomplished, too, in two rounds. In addition, the author created an expert pool consisting of 23 experts representing the most important fields of science and practice in which ISA is involved. The author made phone or personal interviews with most of the experts. 12 experts also produced a detailed publication on their professional point of view towards ISA. The two surveys and the professional comments on ISA led to four possible implementation scenarios for ISA in Germany. However, due to a strong political opposition against ISA it is also thinkable that ISA is not implemented or the implementation process starts after 2015 (i.e. outside the aimed period of time). The scenarios are as follows: A) Implementation of version 1 by market forces with governmental subventions. B) Implementation of version 2 by market forces supported by traffic safety institutions and image-making processes. C) Implementation of a modified version 3 by law for speed offenders instead of cancellation of the driving licence. D) Implementation of various versions in Germany because of a broad implementation of ISA in the SUNflower states. X) Non-implementation of ISA leads to the necessity of alternative speed management measures. The author prefers scenario B because - ceteris paribus - it seems to be the most likely way to implement the technology. As soon as ISA reaches technical maturity, the implementation process has to be accomplished in three steps. 1) Marketing and image making 2) Margin introduction 3) Market penetration This implementation process for ISA by market forces could effect a percentage of at least 15% of all vehicles equipped with ISA before the year 2015.
Im Mittelpunkt dieser Arbeit standen die Synthese und Charakterisierung neuartiger basischer Feststoffkatalysatoren. Für die Herstellung dieser neuen Materialien wurden Zeolithe, mesoporöse Molekularsiebe sowie mikroporöse und amorphe Aluminiumphosphate bei Temperaturen von 700 °C bis 850 °C im Ammoniakstrom behandelt. Die Charakterisierung erfolgte mittels Röntgen-Pulverdiffraktometrie, Stickstoffadsorption, Thermogravimetrie/Massenspektrometrie, temperaturprogrammierter Desorption von Pyrrol und DRIFT-spektroskopischen Untersuchungen. Die katalytischen Eigenschaften wurden mit der Knoevenagel-Kondensation von Benzaldehyd mit Malonsäuredinitril bzw. Cyanessigsäureethylester sowie der Umsetzung von Limonen in der Gasphase getestet. Als Referenzmaterial wurde Zeolith NaY, der mit verschiedenen Kationen ausgetauscht bzw. mit Cäsiumacetat imprägniert wurde, verwendet. Sowohl die Röntgen-Pulverdiffraktogramme als auch die Bestimmung der spezifischen Oberflächen durch Stickstoffadsorption ergaben, dass nach der Ammoniakbehandlung die Struktur der verwendeten Katalysatoren im Wesentlichen erhalten blieb. Anhand von DRIFT-Spektren, die während der Ammoniakbehandlung aufgenommen wurden, konnte nachgewiesen werden, dass ein Einbau von Stickstoff in die Gerüste der Zeolithe, mesoporösen Molekularsiebe und Aluminiumphosphate erfolgte. Mit Hilfe der temperaturprogrammierten Desorption von Pyrrol konnten verschiedene basische Zentren bei den einzelnen Katalysatoren detektiert werden. Durch die Nitridierung wurde bei fast allen Katalysatoren eine Veränderung der Adsorptionseigenschaften von Pyrrol gemessen, die auf eine größere Anzahl bzw. auf stärker basische Zentren hindeutet. IR-spektroskopische Untersuchungen zur Adsorption von Pyrrol zeigten, dass die Ammoniakbehandlung zu einer Zunahme der Stärke von basischen Zentren führt. Die katalytischen Tests in der Knoevenagel-Kondensation ergaben, dass in fast allen Fällen eine Aktivitätssteigerung des ammoniakbehandelten Katalysators im Vergleich zum unbehandelten Ausgangsmaterial erfolgte. Die Aktivität ist dabei abhängig von den Modifizierungsbedingungen wie z.B. Behandlungsdauer und Behandlungstemperatur, aber auch von den Lagerungsbedingungen. Als weitere Testreaktion wurde die Umsetzung von Limonen gewählt. Anhand von mit Alkalimetall ausgetauschten Zeolithen mit FAU-Struktur konnte gezeigt werden, dass die p-Cymol-Ausbeute ein Maß für die Basizität der Katalysatoren ist. Bei fast allen Katalysatoren wurde eine Steigerung der p-Cymol-Ausbeute infolge der Ammoniakbehandlung gefunden. Neben dem Si:Al-Verhältnis spielen auch die Gegenionen und die Anzahl von Silanolgruppen eine entscheidende Rolle.
Liquid Composite Moulding (LCM) has become an economic technique for the manufacture
of advanced composite lightweight structures in many cases. Meanwhile the
acronym LCM represents more than a dozen of varying process types, which all have
the principle in common that a liquid monomer is firstly injected into a cavity filled with
a reinforcing fibre preform and secondly it forms the part by chemically reacting to a
solid polymer network. A distinctive feature of the LCM process variations is their
applicability to the fabrication of a variety of different part sizes and shapes. Within
this development numerical process simulation has become an important engineering
tool for mould design and process control. Thereby the research focuses on the
simulation of resin flow through a fibrous reinforcement, because this turned out to be
the most critical process within the manufacture of composites by applying LCMTechnologies.
With the software commercially available the mould-filling pattern can
be simulated depending on the locations and number of inlet and outlet gates, resin
rheology, injection rate and pressure, thermal effects and the physics of liquid flow
through fibre preforms. Hereby the standard flow modelling bases on a proportional
relationship between the flow rate and the applied pressure gradient, which is known
as D´Arcy’s law. The describing proportional factor is called the permeability. Its
value depends on the considered flow direction because of a non-isotropic structural
arrangement of the fibre reinforcement. It becomes clear that the permeability affects
the injection process crucially and so the knowledge about it is indispensable for the
realistic prediction of a filling pattern by flow simulation.
Due to the complexity of the inner structure of a textile reinforcement the resulting
multiphase flow cannot be described adequately by an analytical model at the current
stage of research, so that the permeabilities of planar textile reinforcements like woven or non-crimped fabrics is usually obtained from flow measurements. A variety
of experimental set-ups were developed, which allow the tracking of the fluid flow
through the textile reinforcement. The permeability is derived from the flow data by
applying D´Arcy´s law. Most of these test-rigs allow the determination of the in-plane
flow characteristics only, because they are dominant in the most classical processing
techniques. But the simulation of these processes produces still significant errors,
which result from neglecting the out-of-plane flow. Since new liquid composite moulding
processes like SCRIMP™ or resin film infusion were developed, the knowledge of
the permeability in thickness direction becomes as important as the in-plane charac teristics so that researchers started to measure flow in thickness direction and developed
flow models which include the principle permeability in thickness direction. The
main arising difficulties are the measuring and the modelling for the calculation of the
permeability from flow front data. The objective of this work is to overcome these
problems by the development of a test-rig for the measure of the flow in thickness
direction and by determining a transformation rule, which addresses the unsolved
geometric boundary condition at the injection port.
After investigating the existing instrumentation for measuring flow in thickness direction
a new sensor concept is developed on the basis of ultrasound transmission,
which enables a steady collection of the actual position of a flow front. The applicability
of this test-rig was tested within the measure of the flow through different woven
and non-crimped fabrics. The permeability values, which were obtained from the flow
data with the aid of the improved analytic model, were validated by two-dimensional
radial flow experiments.
Die Nähtechnik in Verbindung mit Harzinfusions- und -injektionstechniken eröffnet
ein erhebliches Gewichts- und Kosteneinsparpotential primär belasteter
Strukturbauteile aus Faser-Kunststoff-Verbundwerkstoffen. Dabei ist es unter
bestimmten Voraussetzungen möglich, durch Vernähungen gezielte Steigerungen
mechanischer Eigenschaften zu erreichen. Ein genaues Verständnis wirksamer
Zusammenhänge bezüglich der Änderung mechanischer Kennwerte verglichen mit
dem unvernähten Verbund ist unverzichtbar, um einen Einsatz dieser Technologie im
zivilen Flugzeugbau voranzubringen.
Im Rahmen dieser Arbeit wird eine breit angelegte experimentelle Parameterstudie
zum Einfluss verschiedener Nähparameter auf Scheiben-Elastizitäts- und
Festigkeitseigenschaften von kohlenstofffaserverstärkten Epoxidharzverbunden unter
Zug- und Druckbelastung durchgeführt. Neben der Stichrichtung, der Garnfeinheit,
dem Nahtabstand und der Stichlänge wurde auch die Belastungsrichtung variiert. Bei
einigen Parametereinstellungen konnten keine Änderungen des Elastizitätsmoduls
oder der Festigkeit in der Laminatebene festgestellt werden, wohingegen in anderen
Fällen Reduktionen oder Steigerungen um bis zu einem Drittel des Kennwerts des
unvernähten Laminats beobachtet wurden. Dabei ist vor allem der Einfluss der
Garnfeinheit dominierend.
Die Fehlstellenausbildung infolge eines Stichs in Abhängigkeit der gewählten
Parameter und der Orientierung der Einzelschicht wurde anhand von Schliffbildern in
der Laminatebene untersucht. Ein erheblicher Einfluss der einzelnen Parameter auf
die Fehlstellenausbildung ist festzustellen, wobei wiederum die Garnfeinheit
dominiert. Anhand der Ergebnisse der Auswertung der Fehlstellenausbildung in den
Einzelschichten wurde ein empirisches Modell generiert, womit charakteristische
Fehlstellengröße n wie die Querschnittsfläche, die Breite und die Länge in
Abhängigkeit der genannten Parameter berechnet werden können.
Darauf aufbauend wurde ein Finite-Elemente-Elementarzellenmodell generiert, mit
welchem Scheiben-Elastizitätsgrößen vernähter Laminate abgeschätzt werden
können. Neben der Berücksichtigung der genannten Nähparameter ist der zentrale
Aspekt hierbei die Beschreibung eines Stichs in Form von Reinharzgebiet und
Faserumlenkungsbereich in jeder Einzelschicht.
Stitching technology in combination with Liquid Composite Molding techniques offers
a possibility to reduce significantly weight and costs of primarily loaded structural
parts made of Fiber Reinforced Polymers. Thereby, it is possible to enhance
mechanical properties simultaneously. It is essential to understand effective
correlations of all important parameters concerning changes in mechanical
characteristics due to additional stitching if stitching technologies have to be
established in the civil aircraft industry.
In this thesis, a broad experimental study on the influence of varying stitching
parameters on the membrane tensile and compressive modulus and strength of
carbon fiber reinforced epoxy laminates is presented. The direction of stitching,
thread diameter, spacing and pitch length as well as the direction of testing had been
varied. In some cases, no changes in modulus and strength could be found due to
the chosen parameters, whereas in other cases reductions or enhancements of up to
30 % compared to the unstitched laminate were observed. Thereby, the thread
diameter shows significant influence on these changes in mechanical properties.
In addition, the stitch and void formation in the thickness direction due to the stitching
parameters was investigated by evaluating micrographs in each layer of the laminate.
Again, the thread diameter showed an outstanding influence on the characteristics of
matrix pure area (void) and fiber disorientation. A mathematical model was evaluated
in order to predict in-plane characteristics of stitches and voids, from which the cross
sectional area, the width and the length of a void due to the chosen stitching
parameters can be derived.
Finally, a Finite Element based unit cell model was established to calculate elastic
constants of stitched FRP laminates. With this model it is possible to consider a stitch
as a matrix pure region and additionally an area of in-plane fiber disorientation
depending on the stitching parameters as introduced above. The model was
validated using the experimental data for tensile and compressive loading.
The outstanding flexibility of this FE unit cell approach is shown in a parametric
study, where different void formations as well as stitching parameters were varied in
a stitched, unidirectional laminate. It was found that three different aspects influence
significantly the in-plane elastic constants of stitched laminates. First of all, the
stitching parameters as well as the laminate characteristics define the shape of the
unit cell including the areas of the stitch and the fiber disorientation. Secondly,
stitching changes the fiber volume fraction in all layers, which causes changes in
elastic properties as well. Thirdly, the type and the direction of loading has to be
considered, because each change in the architecture of the laminate results in
different effects on the in-plane elastic constants namely tensile, compressive or
shear moduli as well as the Poisson´s ratios.
Characterization of neuronal activity in the auditory brainstem of rats: An optical imaging approach
(2004)
In this doctoral thesis, several aspects of neuronal activity in the rat superior olivary complex (SOC), an auditory brainstem structure, were analyzed using optical imaging with voltage-sensitive dyes (VSD). The thesis is divided into 5 Chapters. Chapter 1 is a general introduction, which gives an overview of the auditory brainstem and VSD imaging. In Chapter 2, an optical imaging method for the SOC was standardized, using the VSD RH795. To do so, the following factors were optimized: (1) An extracellular potassium concentration of 5 mM is necessary during the incubation and recording to observe synaptically evoked responses in the SOC. (2) Employing different power supplies reduced the noise. (3) Averaging of 10 subsequent trials yielded a better signal-to-noise ratio. (4) RH795 of 100 µM with 50 min prewash was optimal to image SOC slices for more than one hour. (5) Stimulus-evoked optical signals were TTX sensitive, revealing action potential-driven input. (6) Synaptically evoked optical signals were characterized to be composed of pre- and postsynaptic components. (7) Optical signals were well correlated with anatomical structures. Overall, this method allows the comparative measurement of electrical activity of cell ensembles with high spatio-temporal resolution. In Chapter 3, the nature of functional inputs to the lateral superior olive (LSO), the medial superior olive (MSO), and the superior paraolivary nucleus (SPN) were analyzed using the glycine receptor blocker strychnine and the AMPA/kainate receptor blocker CNQX. In the LSO, the known glutamatergic inputs from the ipsilateral, and the glycinergic inputs from the ipsilateral and contralateral sides, were confirmed. Furthermore, a CNQX-sensitive input from the contralateral was identified. In the MSO, the glutamatergic and glycinergic inputs from the ipsilateral and contralateral sides were corroborated. In the SPN, besides the known glycinergic input from the contralateral, I found a glycinergic input from the ipsilateral and I also identified CNQX-sensitive inputs from the contralateral and ipsilateral sides. Together, my results thus corroborate findings obtained with different preparations and methods, and provide additional information on the pharmacological nature of the inputs. In Chapter 4, the development of glycinergic inhibition for the LSO, the MSO, the SPN, and the medial nucleus of the trapezoid body (MNTB) was studied by characterizing the polarity of strychnine-sensitive responses. In the LSO, the high frequency region displayed a shift in the polarity at P4, whereas the low frequency region displayed at P6. In the MSO, both the regions displayed the shift at P5. The SPN displayed a shift in the polarity at E18-20 without any regional differences. The MNTB lacked a shift between P3-10. Together, these results demonstrate a differential timing in the development of glycinergic inhibition in these nuclei. In Chapter 5, the role of the MSO in processing bilateral time differences (t) was investigated. This was done by stimulating ipsilateral and contralateral inputs to the MSO with different t values. In preliminary experiments, the postsynaptic responses showed a differential pattern in the spread of activity upon different t values. This data demonstrates a possible presence of delay lines as proposed by Jeffress in the interaural time difference model of sound localization. In conclusion, this study demonstrates the usage of VSD imaging to analyze the neuronal activity in auditory brainstem slices. Moreover, this study expands the knowledge of the inputs to the SOC, and has identified one glycinergic and three AMPA/kainate glutamatergic novel inputs to the SOC nuclei.
In this thesis, the enhanced Galerkin (eG) finite element method in time is presented. The eG method leads to higher order accurate energy and momentum conserving time integrators for the underlying finite-dimensional Hamiltonian systems. This thesis is concerned with particle dynamics and semi-discrete nonlinear elastodynamics. The conservation is generally related to the collocation property of the eG method. The momentum conservation renders the Gaussian quadrature and the energy conservation is obtained by using a new projection technique. An objective time discretisation of the used strain measures avoids artificial strains for large superimposed rigid body motions. The numerical examples show the well long term performance in the presence of stiffness as well as for calculating large-strain motions.
In this thesis we show that the theory of algebraic correspondences introduced by Deuring in the 1930s can be applied to construct non-trivial homomorphisms between the Jacobi groups of hyperelliptic function fields. Concretely, we deduce algorithms to add and multiply correspondences which perform in a reasonable time if the degrees of the associated divisors of the double field are small. Moreover, we show how to compute the differential matrices associated to prime divisors of the double field for arbitrary genus. These matrices give a representation for the homomorphisms or endomorphisms in the additive group (ring) of matrices which is even faithful if the ground field has characteristic zero. As first examples for non-trivial correspondences we investigate multiplication by m endomorphisms. Afterwards we use factorisations of certain bivariate polynomials to construct prime divisors of the double field that are not equivalent to 0 in a coarser sense. Applying the theory of Deuring, these divisors yield homomorphisms between the Jacobi groups of special classes of hyperelliptic function fields. Finally, we generalise the Richelot isogeny to higher genus and by this way derive a class of hyperelliptic function fields given in terms of their defining polynomials which admit non-trivial homomorphisms. These include homomorphisms between the Jacobi groups of hyperelliptic curves of different as well as of equal genus. In addition we provide an explicit method to construct genus 2 function fields the endomorphism ring of which contains a sqrt(2) multiplication with the help of the Cholesky decomposition of a certain matrix.
In traditional portfolio optimization under the threat of a crash the investment horizon or time to maturity is neglected. Developing the so-called crash hedging strategies (which are portfolio strategies which make an investor indifferent to the occurrence of an uncertain (down) jumps of the price of the risky asset) the time to maturity turns out to be essential. The crash hedging strategies are derived as solutions of non-linear differential equations which itself are consequences of an equilibrium strategy. Hereby the situation of changing market coefficients after a possible crash is considered for the case of logarithmic utility as well as for the case of general utility functions. A benefit-cost analysis of the crash hedging strategy is done as well as a comparison of the crash hedging strategy with the optimal portfolio strategies given in traditional crash models. Moreover, it will be shown that the crash hedging strategies optimize the worst-case bound for the expected utility from final wealth subject to some restrictions. Another application is to model crash hedging strategies in situations where both the number and the height of the crash are uncertain but bounded. Taking the additional information of the probability of a possible crash happening into account leads to the development of the q-quantile crash hedging strategy.
Herbivory is discussed as a key agent in maintaining dynamics and stability of tropical forested ecosystems. Accordingly increasing attention has been paid to the factors that structure tropical herbivore communities. The aim of this study was (1) to describe diversity, density, distribution and host range of the phasmid community (Phasmatodea) of a moist neotropical forest in Panamá, and (2) to experimentally assess bottom-up and top-down factors that may regulate populations of the phasmid Metriophasma diocles. The phasmid community of Barro Colorado Island was poor in species and low in density. Phasmids mainly occurred along forest edges and restricted host ranges of phasmid species reflected the successional status of their host plants. Only M. diocles that fed on early and late successional plants occurred regularly in the forest understory. A long generation time with a comparably low fecundity converted into a low biotic potential of M. diocles. However, modeled potential population density increased exponentially and exceeded the realized densities of this species already after one generation indicating that control factors continuously affect M. diocles natural populations. Egg hatching failure decreased potential population growth by 10 % but was of no marked effect at larger temporal scale. Interspecific differences in defensive physical and chemical leaf traits of M. diocles host plants, amongst them leaf toughness the supposedly most effective anti-herbivore defense, seemed not to affect adult female preference and nymph performance. Alternatively to these defenses, I suggest that the pattern of differential preference and performance may be based on interspecific differences in qualitative toxic compounds or in nutritive quality of leaves. The significant rejection of leaf tissue with a low artificial increase of natural phenol contents by nymphs indicated a qualitative defensive pathway in Piper evolution. In M. diocles, oviposition may not be linked to nymph performance, because the evolutionary prediction of a relation between female adult preference and nymph performance was missing. Consequently, the recruitment of nymphs into the reproductive adult phase may be crucially affected by differential performance of nymphs. Neonate M. diocles nymphs suffered strong predation pressure when exposed to natural levels of predation. Concluding from significantly increased predation-related mortality at night, I argue that arthropods may be the main predators of this nocturnal herbivore. Migratory behavior of nymphs seemed not to reflect predation avoidance. Instead, I provided first evidence that host plant quality may trigger off-plant migration. In conclusion, I suggest that predation pressure with its direct effects on nymph survival may be a stronger factor regulating M. diocles populations, compared to direct and indirect effects of host plant quality, particularly because slow growth and off-host migration both may feed back into an increase of predation related mortality.
Materials in general can be divided into insulators, semiconductors and conductors,
depending on their degree of electrical conductivity. Polymers are classified as
electrically insulating materials, having electrical conductivity values lower than 10-12
S/cm. Due to their favourable characteristics, e.g. their good physical characteristics,
their low density, which results in weight reduction, etc., polymers are also
considered for applications where a certain degree of conductivity is required. The
main aim of this study was to develop electrically conductive composite materials
based on epoxy (EP) matrix, and to study their thermal, electrical, and mechanical
properties. The target values of electrical conductivity were mainly in the range of
electrostatic discharge protection (ESD, 10-9-10-6 S/cm).
Carbon fibres (CF) were the first type of conductive filler used. It was established that
there is a significant influence of the fibre aspect ratio on the electrical properties of
the fabricated composite materials. With longer CF the percolation threshold value
could be achieved at lower concentrations. Additional to the homogeneous CF/EP
composites, graded samples were also developed. By the use of a centrifugation
method, the CF created a graded distribution along one dimension of the samples.
The effect of the different processing parameters on the resulting graded structures
and consequently on their gradients in the electrical and mechanical properties were
systematically studied.
An intrinsically conductive polyaniline (PANI) salt was also used for enhancing the
electrical properties of the EP. In this case, a much lower percolation threshold was
observed compared to that of CF. PANI was found out to have, up to a particular
concentration, a minimal influence on the thermal and mechanical properties of the
EP system.
Furthermore, the two above-mentioned conductive fillers were jointly added to the EP
matrix. Improved electrical and mechanical properties were observed by this
incorporation. A synergy effect between the two fillers took place regarding the
electrical conductivity of the composites.
The last part of this work was engaged in the application of existing theoretical
models for the prediction of the electrical conductivity of the developed polymer composites. A good correlation between the simulation and the experiments was
observed.
Allgemein werden Materialien in Bezug auf ihre elektrische Leitfähigkeit in Isolatoren,
Halbleiter oder Leiter unterteilt. Polymere gehören mit einer elektrischen Leitfähigkeit
niedriger als 10-12 S/cm in die Gruppe der Isolatoren. Aufgrund vorteilhafter
Eigenschaften der Polymere, wie z.B. ihren guten physikalischen Eigenschaften,
ihrer geringen Dichte, welche zur Gewichtsreduktion beiträgt, usw., werden Polymere
auch für Anwendungen in Betracht gezogen, bei denen ein gewisser Grad an
Leitfähigkeit gefordert wird. Das Hauptziel dieser Studie war, elektrisch leitende
Verbundwerkstoffe auf der Basis von Epoxidharz (EP) zu entwickeln und deren
elektrische, mechanische und thermische Eigenschaften zu studieren. Die Zielwerte
der elektrischen Leitfähigkeit lagen hauptsächlich im Bereich der Vermeidung
elektrostatischer Aufladungen (ESD, 10-9-10-6 S/cm).
Bei der Herstellung elektrisch leitender Kunststoffen wurden als erstes
Kohlenstofffasern (CF) als leitfähige Füllstoffe benutzt. Bei den durchgeführten
Experimenten konnte man beobachten, dass das Faserlängenverhältnis einen
bedeutenden Einfluss auf die elektrischen Eigenschaften der fabrizierten
Verbundwerkstoffe hat. Mit längeren CF wurde die Perkolationsschwelle bereits bei
einer niedrigeren Konzentration erreicht. Zusätzlich zu den homogenen CF/EP
Verbundwerkstoffen, wurden auch Gradientenwerkstoffe entwickelt. Mit Hilfe einer
Zentrifugation konnte eine gradierte Verteilung der CF entlang der Probenlängeachse
erreicht werden. Die Effekte der unterschiedlichen Zentrifugationsparameter
auf die resultierenden Gradientenwerkstoffe und die daraus
resultierenden, gradierten elektrischen und mechanischen Eigenschaften wurden
systematisch studiert.
Ein intrinsisch leitendes Polyanilin-Salz (PANI) wurde auch für das Erhöhen der
elektrischen Eigenschaften des EP benutzt. In diesem Fall wurde eine viel niedrigere
Perkolationsschwelle verglichen mit der von CF beobachtet. Der Einsatz von PANI hat bis zu einer bestimmten Konzentration nur einen minimalen Einfluß auf die
thermischen und mechanischen Eigenschaften des EP Systems.
In einem dritte Schritt wurden die zwei oben erwähnten, leitenden Füllstoffe
gemeinsam der EP Matrix hinzugefügt. Erhöhte elektrische und mechanische
Eigenschaften wurden in diesem Fall beobachtet, wobei sich ein Synergie-Effekt
zwischen den zwei Füllstoffen bezogen auf die elektrische Leitfähigkeit der
Verbundwerkstoffe ergab.
Im letzten Teil dieser Arbeit fand die Anwendung von theoretischen Modelle zur
Vorhersage der elektrischen Leitfähigkeit der entwickelten Verbundwerkstoffe statt.
Dabei konnte eine gute Übereinstimmung mit den experimentellen Ergebnissen
festgestellt werden .
In Deutschland und einigen anderen Ländern ist das Mischsystem weit verbreitet. Aus diversen Gründen (z.B. aus Kostenaspekten) ist es aber bei Regenwetter nicht immer möglich, den gesamten Mischwasserabfluss auch zur Kläranlage weiter zu leiten. Ein gewisser Anteil des Mischwasserabflusses muss daher entweder im Kanalnetz zwischengespeichert oder aber über Entlastungsbauwerke direkt in die Einleitgewässer abgeschlagen werden, woraus erhebliche Gewässerbelastungen resultieren können. Hinzu kommt, dass die Teilsysteme "Kanalnetz" und "Kläranlage" meist noch unabhängig voneinander betrieben werden, sodass es zu Entlastungsereignissen kommen kann, obwohl zur gleichen Zeit an anderer Stelle im Gesamtsystem noch freie Speicher- und/oder Behandlungskapazitäten zur Verfügung stehen. Deshalb gewinnen seit einigen Jahren sog. integrierte Ansätze an Bedeutung, die versuchen, Kanalnetz und Kläranlage mit Hilfe von MSR-Technik in Abhängigkeit der jeweils aktuellen Leistungsfähigkeit dieser Teilsysteme zu betreiben, um dadurch die Emissionen und ggf. die Kosten zu verringern. Man kann daher in der neueren Literatur zahlreiche Veröffentlichungen zu diesem Themenkomplex finden, die sich jedoch bisher praktisch nur mit Durchlaufkläranlagen beschäftigt haben. SBR-Kläranlagen wurden diesbezüglich bisher vernachlässigt, obwohl diese Technologie prinzipiell durch eine ganze Reihe von Vorteilen gekennzeichnet ist. Zahlreiche großtechnische SBR-Kläranlagen belegen zudem, dass sich dieses Verfahren auch sehr gut zur Mischwasserbehandlung eignet. Wegen dieser Randbedingungen erschien es sinnvoll, auch integrierte MSR-Strategien für SBR-Anlagen zu entwickeln. Im Rahmen dieser Arbeit wurden daher auf der 2000 in Betrieb genommenen SBR-Kläranlage Messel (5.500 EW) zahlreiche Untersuchungen durchgeführt, um den Nutzen und die Machbarkeit derartiger Konzepte zu untersuchen. Diese nach den üblichen Regelwerken für Nitrifikation, Denitrifikation, biologische Phosphorelimination und aerobe Schlammstabilisierung bemessene Kläranlage ist typisch für eine Reihe weiterer ähnlicher Anlagen. Um das Potenzial eines integrierten Ansatzes zu ermitteln, wurden detaillierte Kanalnetz- und Kläranlagenmodelle erstellt und kalibriert, mit denen zahlreiche Untersuchungen durchgeführt wurden. Ferner wurden die umfangreichen Betriebsdaten ausgewertet. Dabei konnte festgestellt werden, dass die Anlage über beachtliche Reserven verfügt, die z.B. für Zwecke einer erhöhten Mischwasserbehandlung genutzt werden könnten. Mit Hilfe der Modelle und ergänzender großtechnischer Untersuchungen wurden anschließend verschiedene integrierte MSR-Strategien am Computer entwickelt und bezüglich ihres Nutzens bewertet. Die Ergebnisse der integrierten Simulation zeigen beispielsweise, dass es mit Hilfe dieser Strategien möglich erscheint, die Zuflussmenge zur Kläranlage um bis zu 50 % über den Planungswert zu erhöhen, ohne die strengen Überwachungswerte zu überschreiten. Die Ergebnisse zeigen weiterhin, dass es durch eine Erhöhung der Zuflussmenge möglich ist, die Gesamtemissionen aus Kanalnetz und Kläranlage - v.a. bezüglich CSB - und die Anzahl der Entlastungsereignisse deutlich zu verringern. Eine durchgeführte Kostenbetrachtung verdeutlicht, dass ein derartiger Ansatz - trotz der geringen Größe dieser Anlage - nicht nur ökologisch, sondern auch ökonomisch sinnvoll ist. Damit erscheint es wünschenswert, dass zukünftig auch die großtechnische Umsetzung integrierter Ansätze für SBR-Kläranlagen und Mischkanalisationen in Angriff genommen wird, um die bisher gewonnenen Erkenntnisse in der Praxis zu verifizieren.
Entwurf und Optimierung neuer Versuchsanordnungen zur Charakterisierung der Haftung an Grenzflächen
(2004)
Die Beurteilung der mechanischen Haftungsqualität an Grenzflächen ist eine entscheidende Voraussetzung zur aktiven Gestaltung von heterogenen Werkstoffen. Die vorliegende Arbeit zeigt neue Wege für den Entwurf und die Optimierung der dazu nötigen Testverfahren auf. Ausgehend von der zu messenden Größe muß eine Versuchsanordnung
oder eine Probengeometrie entworfen werden, die aufgrund ihrer Konzeption die zu einer verläßlichen Messung notwendigen Voraussetzungen schafft. Mit Hilfe von numerischen Verfahren können auch komplizierte Probengeometrien analysiert und optimiert und die Anwendbarkeit von einfachen Auswerteverfahren überprüft werden.
Ziel ist eine einfache Formel zur Auswertung, die die komplizierte Geometrie nur in Form von einmalig zu bestimmenden Formfaktoren enthält.
Diese Grundidee wird in der vorliegenden Arbeit anhand von drei verschiedenen Versuchsanordnungen ausgeführt, jede wird umfassend analysiert und auch experimentell auf ihre Durchführbarkeit überprüft.
Ausgehend vom BROUTMAN-Versuch (Faser-Matrix-Grenzfläche) beschreibt Kapitel 2 eine Probengeometrie, die eine homogene Grenzflächenbelastung durch eine geeignete Kerbung der Probe aus der äußeren Zugbelastung erzeugt. Die gleichförmige Zugbelastung ist die Voraussetzung für die Anwendbarkeit des Festigkeitskonzeptes.
Zur Berechnung der Festigkeit aus den experimentellen Daten wird eine Näherungsformel abgeleitet, die die Probengeometrie nur als Formfaktoren enthält. Die optimale Probengeometrie und die zugehörigen Formfaktoren folgen aus einer Parameterstudie mit Hilfe der Methode der Finiten Elemente.
Ein experimenteller Vergleich des ursprünglichen BROUTMAN-Versuchs mit dem vorgeschlagenen Zugversuch zeigt die prinzipielle Anwendbarkeit der Versuchsanordungen und des Festigkeitskonzeptes. Der Vergleich stützt weiterhin das Gesamtkonzept, denn die Herstellung der Probenkörper beider Versuchstypen erfolgt sehr ähnlich,während die Grenzflächenbelastung auf sehr unterschiedliche Weise erzeugt wird. Sie stellen deshalb zwei verschiedene Methoden zur Messung derselben Größe dar. In einer zweiseitig gekerbten Zugprobe entsteht durch die Kerbe eine Zugspannung quer zur Hauptbelastungsrichtung. Besteht der Probenkörper aus zwei einseitig gekerbten, beispielsweise durch Kleben zusammengefügten Hälften, so entsteht ebenfalls eine gleichförmige Zugbelastung eines ausgedehnten Bereiches der Grenzfläche.
Diese Idee wird im Kapitel 3 anhand einer Meßreihe aus gleichen Hälften untersucht.
Ein Finite-Elemente-Modell dient außerdem dazu, die optimale Geometrie für einen Probenkörper aus zwei einseitig gekerbten Teilen verschiedenen Materials zu ermitteln.
Es zeigt auch einen weiteren Vorteil dieser Probenform, denn plastische Deformationen beginnen stets im Kerbgrund, nicht an der Grenzfläche. Plastizität beeinflußt die Ergebnisse deshalb weniger, sie bleiben vergleichbar, auch wenn bei einigen Materialsystemen
teilweise plastische Deformationen auftreten.
Treten dagegen vor dem Grenzflächenversagen ausgedehnte plastische Deformationen in der Umgebung der Grenzfläche auf, so entsteht dadurch ein komplexer Spannungszustand, dem das Festigkeitskonzept kaum Rechnung tragen kann. Weiterhin erfolgt Versagen dann zumeist als fortschreitender Riß, so daß ein bruchmechanisches Konzept unumgänglich ist. In dieser Situation wird bei Proben aus homogenem Material mit Anfangsriß das Konzept der realen Brucharbeit bereits erfolgreich angewendet.
Dieses Konzept beschreibt aber auch zufriedenstellend das Versagen von Grenzflächen zwischen unterschiedlichen Materialien, wie anhand einer Versuchsreihe und umfangreichen numerischen Rechnungen im Kapitel 4 gezeigt wird. Das numerische Modell umfaßt ein elastisch-plastisches Materialgesetz mit Verfestigung, Rißausbreitung unter Belastung und ein an die Energiefreisetzungsrate angelehntes Energie-Kriterium
zur Simulation des Rißwachstums. Es geht damit weit über die meisten aus der Literatur bekannten Simulationen hinaus.
Der Glucocorticoid-Rezeptor (GR), der zu den Steroidhormon-Rezeptoren zählt, reguliert physiologische Prozesse durch Aktivierung und Repression spezifischer Zielgene. Der ligandengebundene Rezeptor aktiviert die Genexpression, indem er als Dimer an spezifische DNA-Sequenzen (glucocorticoid response element, GRE) bindet. Der GR reprimiert seine Zielgene entweder durch Bindung an negative GREs (nGREs, Cis-Repression) oder durch DNA-unabhängige Bindung an andere Transkriptionsfaktoren wie AP-1 oder NF-(kappa)B (Trans-Repression). Glucocorticoide sind sehr effektive Medikamente für die Behandlung entzündlicher Erkrankungen. Langzeittherapie mit Glucocorticoiden ist jedoch problematisch wegen der auftretenden Nebenwirkungen. Bisher ging man davon aus, dass die anti-inflammatorischen Wirkungen der Glucocorticoide weitgehend über den Mechanismus der Trans-Repression reguliert werden, wohingegen die Nebenwirkungen vor allem durch DNA-bindungsabhängige Aktivierung (GRE) und Repression (nGRE) von Zielgenen vermittelt werden. In der vorliegenden Arbeit wurde die DNA-bindungsabhängige Cis-Repression untersucht. Dabei wurden sowohl neue nGRE-Bindungselemente identifiziert, als auch bereits bekannte Elemente hinsichtlich der involvierten Kofaktoren näher charakterisiert. Es wurde mit Hilfe des ABCD-Bindungstests die Affinität des GR zum DNA-Element in Abhängigkeit vom Ligandenbindungsstatus (Agonist, Antagonist, ohne Ligand) des Rezeptors untersucht. Der Rezeptor bindet das Konsensus-DNA-Element in vitro weitgehend unabhängig von dem eingesetzten Liganden. Der ABCD-Bindungstest wurde außerdem eingesetzt, um GR-Kofaktoren mittels Western Blot und Massenspektrometrie zu identifizieren. Der Korepressor N-CoR (nuclear receptor corepressor) bindet den GR-DNA-Komplex in vitro in Abhängigkeit vom Ligandenbindungsstatus. Massenspektrometrisch konnten mit dieser Methode Proteine wie Hsp90, Hsp70 und (beta)-Tubulin identifiziert werden. Die Konsensussequenz von nGREs weist erhebliche Unterschiede zu der klassischen GRE-Sequenz auf. Es konnte in vitro gezeigt werden, dass der GR zu nGREs eine deutlich niedrigere Bindungsaffinität hat als zu GREs. Derzeit geht man davon aus, dass die DNA die Konformation des Rezeptors durch allosterische Effekte moduliert. Mit Hilfe des partiellen Proteaseverdaus konnte ein Hinweis dafür erbracht werden, dass der Glucocorticoid-Rezeptor auf einem positive GRE in einer anderen Konformation vorliegt als auf einem negativen GRE, was in einem unterschiedlichen Bandenmuster resultiert. Die mRNA-Expressionsanalyse (Affimetrix) von T-Zellen aus GRwt- bzw. GRdim/dim-Mäusen ergab eine bisher unerwartete Rolle der DNA-abhängigen GR-Genregulation in der inflammatorischen Immunantwort (G. Schütz und P. Krammer, DKFZ). In der vorliegenden Arbeit wurden die Gene FasLigand (CD95L) und SOCS-3 bezüglich vorhandener nGREs sowohl in silico als auch in vitro analysiert. Die GR-vermittelte Repression des FasL spielt bei dem aktivierungs-induzierten Zelltod (AICD) eine Rolle. SOCS-3 blockiert die Wirkung von Zytokinen durch Inhibierung des JAK/STAT-Signaltransduktionsweges und ist in die Regulation der HPA-(hypothalamic-pituitary-adrenal) Achse eingebunden. Um die Hinweise der mRNA-Expressionsanalyse zu bestätigen, wurden Luciferase-Reportergentests mit FasL- bzw. SOCS-3-Promotorkonstrukten bei Kotransfektion von GRwt oder GRdim durchgeführt. Im Vergleich mit bereits charakterisierten Promotoren konnte sowohl für FasL als auch für SOCS-3 der Mechanismus der Cis-Repression nachgewiesen werden. Negative GREs zeigen im Gegensatz zu positiven GREs keine gute Konservierung der DNA-Sequenz. Um potenzielle nGREs in den neuen Zielgenen in silico zu charakterisieren, wurde durch Analyse bereits charakterisierter nGREs ein Suchmuster entwickelt. Die ermittelten DNA-Bereiche wurden im ABCD-Bindungstest auf ihre Affinität zum GR überprüft. Für den FasL-Promotor konnten drei potenzielle GR-Bindungselemente ermittelt werden. Zwei dieser Bindungsstellen binden den GR im Kontext der Zelle (Chromatin-Immunpräzipitation, N. Novac, AG Heinzel). Für den SOCS-3-Promotor wurden zwei GR-Bindungsstellen charakterisiert. In der vorliegenden Arbeit konnte durch die Ermittlung neuer negativer Bindungselemente des GR ein Hinweis dafür erbracht werden, dass nGREs auch im Kontext der Immunsuppression eine Rolle spielen, und dass der Korepressor N-CoR möglicherweise bei der Cis-Repression von Bedeutung ist.
In this dissertation we consider complex, projective hypersurfaces with many isolated singularities. The leading questions concern the maximal number of prescribed singularities of such hypersurfaces in a given linear system, and geometric properties of the equisingular stratum. In the first part a systematic introduction to the theory of equianalytic families of hypersurfaces is given. Furthermore, the patchworking method for constructing hypersurfaces with singularities of prescribed types is described. In the second part we present new existence results for hypersurfaces with many singularities. Using the patchworking method, we show asymptotically proper results for hypersurfaces in P^n with singularities of corank less than two. In the case of simple singularities, the results are even asymptotically optimal. These statements improve all previous general existence results for hypersurfaces with these singularities. Moreover, the results are also transferred to hypersurfaces defined over the real numbers. The last part of the dissertation deals with the Castelnuovo function for studying the cohomology of ideal sheaves of zero-dimensional schemes. Parts of the theory of this function for schemes in P^2 are generalized to the case of schemes on general surfaces in P^3. As an application we show an H^1-vanishing theorem for such schemes.
Im industriellen Zeitalter stand zunächst die Funktionstüchtigkeit der Massenprodukte im Vordergrund. Insbesondere mit Einführung und Verbreitung der Rechnerunterstützten Konstruktion ist dieser Aspekt weitgehend beherrschbar geworden. Die Funktionstüchtigkeit wird zudem sowohl durch nationale Gesetze gefordert, als auch durch die in den meisten Fällen vorhandene globale Konkurrenzsituation. Als Folge nimmt die Bedeutung des "Designs" von Konsumgütern aller Art zu, seien es Kaffeemaschinen, Staubsauger oder Automobile. Insbesondere die Entwicklung von Programmen zur rechnerinternen Modellierung von Freiformflächen hat zu diesem Trendwechsel einen Beitrag geliefert. Mit der Aufwertung der Produktform hat auch die Bedeutung der "Entwicklungsschleifen" im Bereich Design zugenommen. Das heißt, nach der rechnerinternen Modellierung und einiger optischer Begutachtungen am Bildschirm wird ein realer Prototyp hergestellt, um die Serienreife des Designs zu beurteilen. Diese wird nur in wenigen Fällen auf Anhieb erreicht, eine Überarbeitung der Flächen ist meistens notwendig. Diese Entwicklungsschleifen sind sowohl zeit- als auch kostenaufwendig. Um die Beurteilung rechnerinterner Freiformflächen zu verbessern, wird im Rahmen der vorliegenden Arbeit ein Gerät entwickelt und getestet, das dem Designer die Möglichkeit eröffnen soll, an seinem CAS-/CAD-Arbeitsplatz die rechnerinternen Flächen nicht nur optisch, sondern auch haptisch und damit präziser beurteilen zu können. Das entwickelte Gerät, "Haptische Hand" genannt, präsentiert mit Hilfe einer in jeder Richtung neigbaren "Taumelscheibe" die Tangentenebene eines beliebigen Punktes der rechnerinternen Flächen. Wenn nun der Designer eine zusammenhängende Folge von Ebenenwerten auf die Taumelscheibe überträgt, so soll er dadurch die Gestalt der Fläche wahrnehmen und erkennen. Es ist außerdem möglich die Taumelscheibe anzuheben, die damit über insgesamt drei von Servomotoren angesteuerte Freiheitsgrade verfügt. Ziel dieses einfachen Konzeptes ist, das Gerät mit einer Standard-Computermaus in einem Gehäuse zu integrieren, um ein preiswertes, marktfähiges Produkt zu erreichen. Um die Behauptung der Wahrnehmbarkeit zu prüfen, wurden zwei Versuchsreichen durchgeführt. In einer ersten Versuchsreihe wurden fünf Flächen nach dem Flächenschema von Koenderink mit einem CAD-System modelliert und in vielen Variationen von mehreren Dutzend Versuchspersonen im wesentlichen haptisch wahrgenommen. Es ergab sich, dass die modellierten Flächen mit einer durchschnittlichen Erkennungsrate von 80% in einer durchschnittlichen Erkennungszeit von 25 sec erkannt werden konnten. In einer zweiten Versuchsreihe in Anlehnung an die VDA-Empfehlung 4955 wurden Unstetigkeiten, Tangentenunstetigkeiten und Krümmungsunstetigkeiten untersucht. Ergebnis war, dass die Versuchspersonen mehrheitlich dann Unstetigkeiten bei Flächenübergängen haptisch wahrnehmen können, wenn diese mehr als 0,1 mm beträgt. Bei tangentialer Unstetigkeit ist ein Mindestwert von 1,2° die Voraussetzung für eine haptische Wahrnehmung durch die Mehrheit der Testpersonen. Die Untersuchung von Flächen mit variablen Krümmungsverläufen zeigte, dass die Mehrheit der Versuchspersonen die Flächenquerschnitte und damit die Krümmungswerte korrekt erkannte. Die Ergebnisse der ersten Versuchsreihe zeigen im Vergleich zu anderen Untersuchungen mit einem anderen, kommerziell verfügbaren Gerät, dass die Eigenentwicklung ähnliche Leistungsmerkmale bei der haptischen Präsentation rechnerinterner Freiformflächen besitzt, zusätzlich aber den Vorteil einer einfachereren und damit preiswerteren Konstruktion aufweist. Aus der zweiten Versuchsreihe hingegen ergibt sich die Verpflichtung zur weiteren Erforschung der bemerkenswerten Unterschiede zwischen der haptischen Wahrnehmbarkeit bei rechnerinternen und bei realen Flächenübergängen. Die Eigenentwicklung ist zum Patent angemeldet und die Anmeldungsschrift offengelegt, um eine Vermarktung zu sichern. Zum Abschluß der Arbeit wird eine Reihe von Verbesserungs- und Ergänzungspotentialen aufgezeigt, die auch der Behebung der genannten Differenzen der Wahrnehmbarkeit zwischen rechnerinternen und realen Flächen dienen sollen. Die durchgeführten Versuche haben ergeben, dass es möglich ist, rechnerinterne Freiformflächen durch eine Folge rechnerextern dargestellter Tangentenebenen haptisch wahrnehmbar zu machen. Mit dem entwickelten Gerät kann also ein Designer an seinem CAS-/CAD-Arbeitsplatz die modellierten Flächen in Echtzeit haptisch wahrnehmen und präziser beurteilen als es durch reine Ansicht der Flächen auf dem Monitor möglich ist. Als Folge einer solchen Erweiterung der Benutzungsschnittstelle von CAS-/CAD-Systemen wird die Notwendigkeit, reale Prototypen zur Beurteilung der rechnerinternen Modelle herstellen zu müssen, abnehmen. Auf diese Weise kann mit geringem Einsatz, verglichen mit kommerziell verfügbaren Geräten, zur notwendigen Senkung der Entwicklungszeiten und Entwicklungskosten beim Styling/Design von Massenprodukten beigetragen werden.