Refine
Year of publication
- 2001 (121) (remove)
Document Type
- Preprint (37)
- Doctoral Thesis (35)
- Report (21)
- Periodical Part (13)
- Article (4)
- Diploma Thesis (3)
- Lecture (2)
- Master's Thesis (2)
- Working Paper (2)
- Course Material (1)
Keywords
- AG-RESY (9)
- RODEO (7)
- Mathematikunterricht (3)
- Modellierung (3)
- Phosphaalkin (3)
- praxisorientiert (3)
- vibration (3)
- Eisen (2)
- Lineare Algebra (2)
- Mobilfunk (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (30)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich Physik (12)
- Kaiserslautern - Fachbereich Sozialwissenschaften (12)
- Fraunhofer (ITWM) (9)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich ARUBI (2)
In der vorliegenden Arbeit werden die Synthesen neuer Imidovanadium(V)-Verbindungen vorgestellt. Die analytischen Daten werden diskutiert und die Komplexe charakterisiert. Ergänzt werden diese Untersuchungen durch Reaktivitätsstudien, die wiederum die Charakterisierung der Produkte erfordert. Die Umsetzung von Phosphaalkinen mit Imidovanadium-Komplexen stellt einen Schwerpunkt der Arbeit dar. Die erhaltenen organischen bzw. anorganischen Produkte werden isoliert und charakterisiert. Mögliche Reaktionsmechanismen werden diskutiert und anhand nachgewiesener Neben- bzw. Zwischenprodukte untermauert. Ein weiterer Schwerpunkt dieser Arbeit ist das Studium des Reaktionsverhaltens der Imidovanadium(IV)-Verbindung tBuNVCl2 DME. Das Disproportionierungsverhalten bei den Substitutionsreaktionen mit Nukleophilen der 14., 15., und 16. Gruppe wird untersucht; neue Komplexe werden isoliert und charakterisiert.
»Denn nichts ist für den Menschen als Menschen etwas wert, was er nicht mit Leidenschaft tun kann«
(2001)
Vortrag anlässlich der Verleihung des Akademiepreises des Landes Rheinland-Pfalz am 21.11.2001 Was macht einen guten Hochschullehrer aus? Auf diese Frage gibt es sicher viele verschiedene, fachbezogene Antworten, aber auch ein paar allgemeine Gesichtspunkte: es bedarf der »Leidenschaft« für die Forschung (Max Weber), aus der dann auch die Begeisterung für die Lehre erwächst. Forschung und Lehre gehören zusammen, um die Wissenschaft als lebendiges Tun vermitteln zu können. Der Vortrag gibt Beispiele dafür, wie in angewandter Mathematik Forschungsaufgaben aus praktischen Alltagsproblemstellungen erwachsen, die in die Lehre auf verschiedenen Stufen (Gymnasium bis Graduiertenkolleg) einfließen; er leitet damit auch zu einem aktuellen Forschungsgebiet, der Mehrskalenanalyse mit ihren vielfältigen Anwendungen in Bildverarbeitung, Materialentwicklung und Strömungsmechanik über, was aber nur kurz gestreift wird. Mathematik erscheint hier als eine moderne Schlüsseltechnologie, die aber auch enge Beziehungen zu den Geistes- und Sozialwissenschaften hat.
In der vorliegenden Arbeit wird die methodische Anwendung der Harzinjektionssimulation
beschrieben. Hierzu werden drei Hauptaspekte betrachtet.
Zunächst werden die im verwendeten Simulationsmodell getroffenen Vereinfachungen
auf ihre Auswirkung auf die Anwendung der Simulation untersucht. Für geringe
Fließgeschwindigkeiten bis zu 3 cm/s konnte das Gesetz von D’Arcy als grundlegendes
Fließmodell in kommerziell verfügbaren Simulationsprogrammen verifiziert werden.
Die Vereinfachung eines Punktangusses als ein Ein-Knoten-Modell ist hingegen
nicht zulässig, da dadurch eine Singularität im Modell entsteht. Durch ein vierknotiges
Angussmodell kann dieses Problem beseitigt werden.
Im zweiten Teil wird die Beschaffung der Eingabeparameter für die Simulation diskutiert.
Für die besonders schwierig zu messende ungesättigte Permeabilität in Dickenrichtung
wurde ein Modell entwickelt, um diese Permeabilität aus den gesättigten
Werten zu bestimmen, die in der Regel wesentlich einfacher zu ermitteln sind.
Der dritte Teil der Arbeit beschäftigt sich mit der methodischen Modellauswahl zur
Optimierung des Zeit- und Kostenaufwandes bei der Simulation. Es werden Kriterien
für die Modellauswahl entwickelt und diese anhand zweier sehr unterschiedlicher
Beispiele angewendet. Hierfür wird an einer PKW-Stirnwand für das RTM-Verfahren
und einem Hilfsspant eines Flugzeuges für das RFI-Verfahren die methodische Vorgehensweise
bei einer Harzinjektionssimulation demonstriert.
In this thesis the methodical application of liquid composite molding simulation is
discussed. The main focus is on three aspects: In the first part simplifications of the
simulation model and its influence on the application of the simulation will be shown.
The determination of the input parameters is the topic of the next part. The third section
deals with the methodical choice of simulation models to optimize cost and time
schedule. Using two quite different examples the proceeding in liquid composite
molding simulation is explained.
Basically the simulation could be verified. For both the unidirectional and the two
directional flow for lower and middle flow velocities a good correlation of simulation
and experiment was found. At velocities above 3 cm/s the fit of the simulation results
is significantly reduced. It can be assumed that increasing inertia and friction effects
influence the experimental results and therefore the creeping flow assumption in
D’Arcys law cannot be assumed to be valid. At higher flow velocities of the injected
fluid the simulation model has only a limited validity.
An interesting field was identified modeling an injection point in flow simulation. Using
the FEM it should not be described by a single node as one will obtain a singularity
and therefore unstable simulation results. To avoid this problem the injection port can
be modeled by using four nodes. This description of the injection gate provides sufficient
results.
A challenge in simulation technique is the determination of input parameters. Beside
some very easily obtained parameters such as injection pressure, viscosity of resin
or thermal properties of the used components the permeability of the reinforcement is
a key value. Especially in through thickness direction the for simulation very important
unsaturated permeability of the fiber preform is very difficult to measure due to
the short flow length and the complicated access to the flow front. However, the saturated permeability is comparatively easy to determine.
For unidirectional preforms a model was developed which is able to predict unsaturated
permeability derived by its saturated value. The model is based on an simple
parallel and serial set-up of single permeabilities of flow channel and fiber tows. The
different values of permeabilities in a saturated as well as an unsaturated case are resulting thereby from a compression of the fiber tow due to the surrounding liquid
pressure which leads to an expansion of the inter tow space. In order to describe this
effect a dimensionless compression factor κ is introduced which relates the volume of
the compressed tow to the initial state. When the flow occurs in fiber direction this
effect leads to a raising permeability due to the dominance of the flow channels in the
total permeability while in the case of flow in the perpendicular direction a reduction
can be observed because of the overall reduction of the permeability caused by the
reduction of the fiber tow permeability due to compression. This is due to the fact that
in this case the flow channels do not help the spread of the fluid in flow direction. The
model prediction for saturated and unsaturated flow could be verified in the experiment.
Under the assumption that for the flow in thickness direction we have a similar
flow mechanism as for the in-plane flow of the material perpendicular to the fiber
direction, the values for the unsaturated permeability can be calculated from the
values for the saturated permeability with this model.
A critical parameter of this model is the compression factor κ, which is a function of
the fiber volume fracture and the fluid pressure. For further developments of the
model this dependence has to be analyzed. The aim is here to find a model for the
compression of the fiber tow, so that the experimental determination can be replaced
by a calculation model.
In order to simplify the decision for the dimension of the Finite-Element-Model, an
analytic formula has been developed for the approximated error between the used
2D model and the 3D model. As parameters in this formula we have the relative flow
path (flow path related to the part thickness) and the ratio of the in-plane permeability
and the permeability in thickness direction. The formula is valid for an injection line
with impregnation in thickness direction of the perform.
In further works these results will have to be verified and adjusted for injection points.
A problematic aspect is the computation time as a complete three dimensional model
is required.
Finally the methodical optimization of two injection processes will be demonstrated
on two examples taken from practice. In the first one (front wall of a car) the aspect of
an error tolerant simulation will be discussed. While the simulation seemingly yields an optimal solution under the assumption of constant input values, significant short
comings can be shown for the necessary variation of the parameters due to measurement
errors or qualitative oscillations. Only when the range of all input parameters
is considered in simulation a reliable statement about the stability of the process can
be made. Furthermore, the possibilities of the injection system layout and of the
process optimization by adjustment of the process control will be discussed.
In the second example possibilities are shown to make statements about process
optimization via simulation despite unfavorable boundary conditions. The filling behavior
of a center fuselage side skin of a plane, which was produced with the RFItechnique,
was calculated with the use of a 2D calculation. For this a customized
algorithm was programmed which takes into account a simplified model of RFI. With
the help of this optimization the filling time could be reduced from 168 s to 5.3 s.
All in all the process simulation of resin injection techniques will be able to contribute
fundamentally to process optimization. The major shortcomings still exist in the determination
of parameters, especially in the determination of the permeability. In
order to establish the simulation in industry it will be necessary to do more research
on methods for determination of permeabilities without experiments in the preliminary
stages of the simulation. Only under these requirements the simulation will be attractive
for the user.
Im Rahmen dieser Arbeit sollte ein Beitrag zu der Frage geleistet werden, welche Bedeutung etheno-DNA-Addukte in der Karzinogenese und bei chronisch degenerativen Erkrankungen haben könnten. Zu diesem Zweck wurden etheno-DNA-Addukte mittels 2-Chloracetaldehyd (CAA), einem von zwei Metaboliten von Vinylchlorid und dem Krebstherapeutikum Ifosfamid, in einem humanen B-lymphoiden Zellsystem (Raji Zellen) induziert. Der subtoxische Konzentrationsbereich von CAA wurde mittels Wachstumskurven auf unter 100 microM eingegrenzt. Weiterhin wurde gezeigt, daß CAA in den in dieser Arbeit verwendeten Konzentrationen einen relativ großen Einfluß auf das Wachstumsverhalten von Raji Zellen hatte. Dieser Einfluß beruhte unter anderem auf der Hemmung der DNA-Replikation und damit indirekt auch auf die DNA-Reparatur, der CAA-abhängigen Kondensation der zellulären DNA aufgrund von DNA-DNA-Quervernetzungen und einem geringen Einfluß auf die Atmungskette in Mitochondrien aufgrund einer Hemmung des NADH-Dehydrogenase-Komplexes. Die weitere Arbeit verteilte sich daraufhin auf drei Teilprojekte : - Die Detektion und Quantifizierung von etheno-Desoxyadenosin-Addukten (edA) wurde unter Anwendung einer einfachen, nicht-radioaktiven Alternative zu der IPPA-Postlabeling-Methode auf HPLC-Basis mit Fluoreszenzdetektion durchgeführt, die im Rahmen dieser Arbeit etabliert wurde. Dabei konnte gezeigt werden, daß CAA bei Konzentrationen zwischen 30 und 100 microM eine Erhöhung von edA um den Faktor 3-4 in Raji Zell-DNA zur Folge hatte. Ferner konnte mit Hilfe dieser HPLC-Methode zum ersten Mal die Induktion von edA als Folge von Zigarettenrauch in diesem Zellsystem gezeigt werden, wobei es offen bleibt, ob diese DNA-Addukte direkt oder durch Induktion von Lipidperoxidation gebildet wurden. - Der Nachweis der genspezifischen Induktion von etheno-DNA-Addukten in einer "Hot-Spot"-Region der mitochondrialen DNA wurde auf Basis einer in unserer Abteilung von Yang und Hergenhahn entwickelten Methode zum genspezifischen Nachweis von DNA-Schäden durchgeführt. Dazu wurde diese Methode auf die in dieser Arbeit gestellten Anforderungen hin weiterentwickelt. Es konnte unter Zuhilfenahme dieser Methode eine signifikante Zunahme von edA in der mitochondrialen Zielregion, bei CAA-behandelten Proben gegenüber den Kontrollen, nachgewiesen werden. - Der Einfluß von CAA auf die Mutationsraten in mitochondrialer DNA aus Raji Zellen wurde mit Hilfe des RSM- und DPD-Tests untersucht. Der DPD-Test wurde im Laufe dieser Arbeit zu einem Festphasen-DPD-Test weiterentwickelt um den Hintergrund an nicht mutierten Sequenzen und die Gefahr von Kreuzkontaminationen zu minimieren. Im Rahmen dieser Experimente konnte eine Zunahme von Mutationen zwischen 10,5 und 14,5 % der CAA-behandelten Proben gegenüber den unbehandelten Kontrollen gezeigt werden. Die Art der Mutationen wurde durch Sequenzierung ermittelt und waren in allen CAA-behandelten Proben A G und T C Transitionen. Weiterhin wurde überprüft, ob CAA, als bifunktionelles Agens, neben Punktmutationen auch Deletionen auslösen könnte. Dabei wurde eine nahezu signifikante Zunahme an Deletionen in den CAA-behandelten Proben gegenüber den unbehandelten Kontrollen festgestellt. Die in dieser Arbeit angewendeten und weiterentwickelten Methoden könnten durchaus weitere praktische Anwendungen finden. So könnte die Bestimmung von edA mittels HPLC aus Blut von Krebspatienten, bei Behandlung mit dem Krebstherapeutikum Ifosfamid, ein nützliches Hilfsmittel für die Expositionskontrolle werden. Hierbei könnte edA als Marker für die interne Belastung des Patienten mit, dem Metabolit von Ifosfamid, CAA dienen. Die in dieser Arbeit entwickelte Festphasen-DPD-Methode ebnet den Weg, unselektierte durch edA-ausgelöste Mutationen in nukleären Genen wie z.B. p53 zu bestimmen, die aufgrund von erhöhter Lipidperoxidation unter pathologischen, präkarzinogenen Bedingungen wie Wilsons Syndrom oder Hämochromatose gebildet werden könnten. Da bisher keine mitochondrialen etheno-DNA-Addukt-spezifischen Reparaturenzyme beschrieben wurden, muß man davon ausgehen, daß etheno-DNA-Addukte auch einen Beitrag zu Mutationen im mitochondrialen Genom leisten und damit eine Rolle im Prozeß des Alterns bzw. in der Entwicklung von degenerativen Erkrankungen spielen könnten.
Das europäische Mobilfunksystem der dritten Generation heißt UMTS. UTRA - der terrestrische Funkzugang von UMTS - stellt zwei harmonisierte Luftschnittstellen zur Verfügung: Das TDD-basierte TD-CDMA und das FDD-basierte WCDMA. Das Duplexverfahren TDD bietet gegenüber FDD erhebliche Vorteile, z.B. können TDD-basierte Luftschnittstellen unterschiedliche Datenraten in der Aufwärts- und Abwärtsstrecke i.a. effizienter bereitstellen als FDD-basierte Luftschnittstellen. TD-CDMA ist Gegenstand dieser Arbeit. Die wichtigsten Details dieser Luftschnittstelle werden vorgestellt. Laufzeit und Interferenz sind wesentliche Gesichtspunkte beim Verwenden von TDD. Diese wesentlichen Gesichtspunkte werden eingehend für den Fall des betrachteten TD-CDMA untersucht. In UMTS spielen neben der Sprachübertragung insbesondere hochratige Datendienste und Multimediadienste eine wichtige Rolle. Die unterschiedlichen Qualitätsanforderungen dieser Dienste sind eine große Herausforderung für UMTS, insbesondere auf der physikalischen Ebene. Um den Qualitätsanforderungen verschiedener Dienste gerecht zu werden, definiert UTRA die L1/L2-Schnittstelle durch unterschiedliche Transportkanäle. Jeder Transportkanal garantiert durch die vorgegebene Datenrate, Verzögerung und maximal zulässige Bitfehlerrate eine bestimmte Qualität der Übertragung. Hieraus ergibt sich das Problem der Realisierung dieser Transportkanäle auf physikalischer Ebene. Dieses Problem wird in der vorliegenden Arbeit eingehend für TD-CDMA untersucht. Der UTRA-Standard bezeichnet die Realisierung eines Transportkanals als Transportformat. Wichtige Parameter des Transportformats sind das verwendete Pooling-Konzept, das eingesetzte FEC-Verfahren und die zugehörige Coderate. Um die Leistungsfähigkeit unterschiedlicher Transportformate quantitativ zu vergleichen, wird ein geeignetes Bewertungsmaß angegeben. Die zur Bewertung erforderlichen Meßwerte können nur durch Simulation auf Verbindungsebene ermittelt werden. Deshalb wird ein Programm für die Simulation von Transportformaten in TD-CDMA entwickelt. Bei der Entwicklung dieses Programms wird auf Konzepte, Techniken, Methoden und Prinzipien der Informatik für die Software-Entwicklung zurückgegriffen, um die Wiederverwendbarkeit und Änderbarkeit des Programms zu unterstützen. Außerdem werden wichtige Verfahren zur Reduzierung der Bitfehlerrate - die schnelle Leistungsregelung und die Antennendiversität - implementiert. Die Leistungsfähigkeit einer exemplarischen Auswahl von Transportformaten wird durch Simulation ermittelt und unter Verwendung des Bewertungsmaßes verglichen. Als FEC-Verfahren werden Turbo-Codes und die Code-Verkettung aus innerem Faltungscode und äußerem RS-Code eingesetzt. Es wird gezeigt, daß die untersuchten Verfahren zur Reduzierung der Bitfehlerrate wesentlichen Einfluß auf die Leistungsfähigkeit der Transportformate haben. Des weiteren wird gezeigt, daß die Transportformate mit Turbo-Codes bessere Ergebnisse erzielen als die Transportformate mit Code-Verkettung.
Ziel der vorliegenden Arbeit war die Etablierung eines Enzyme linked immuno sorbant Assay zur Untersuchung der Protein-Tyrosinkinase-Aktivität des Epidermalen Wachstumsfaktor-Rezeptor (EGFR). Um die Beeinflussung der Signaltransduktionskaskade downstream des EGFRs durch antineoplastische Substanzen weiter in intakten Zellen untersuchen zu können, wurde ein Mitogen-aktivierte-Proteinkinase (MAPK)-Reportergen-Assay entwickelt. Tyrphostin AG 1478, ein bekannter EGFR-Inhibitor, erwies sich im neu etablierten Test-system als potenter Hemmstoff der Protein-Tyrosinkinase (PTK) des EGFRs mit einem IC50-Wert von 2,4 microM. Das Wachstum von A 431-Zellen wird durch Tyrphostin AG 1478 signifikant stärker inhibiert, als das Wachstum von LXFL529L-Zellen. Die Behandlung von A 431- Zellen mit Tyrphostin AG 1478 induziert eine Arretierung der Zellen in G0/G1-Phase des Zellzyklus, bei gleichzeitiger Abnahme der Zellzahl in der Synthesephase. Neuartige Bisindolylmaleimide und Indolocarbazole zeigten in tumorzellwachstumshemmenden Konzentrationen keine bzw. nur eine geringe Hemmung der PTK-Aktivität des EGFRs. Aus der Gruppe der substituierten Pteridine hemmte die Leitsubstanz 7a (DC-TA-46) die PTK-Aktivität des EGFRs mit einem IC50-Wert von 48 +- 3,5 microM. Modifikationen in Position 2 spielen eine wesentliche Rolle bei der Hemmung der EGFR assoziierten PTK. Modifikationen der Leitsubstanz in Position 6, wie z.B. Austausch des Chlors gegen Wasserstoff oder eine Methylgruppe, führten zum Verlust der Hemmwirkung auf die PTK-Aktivität. Die untersuchten Substanzen 7a, 7k, 7o, E272, E273 und E276 hemmten das Wachstum der A 431- Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Im MAPK-Reportergen- Assay zeigten 7a und das Glycin-Derivat E272 als einzige dieser Substanzen in Konzentrationen, in denen Wachstumshemmung und PTK-Hemmung vorliegt, eine fast vollständige Inhibierung der Elk1-Phosphorylierung. Hingegen zeigte das Lysin-Derivat E273, das die höchste Hemmwirkung der Pteridinderivate im PTK-Assay aufwies, in wachstumshemmenden Konzentrationen im MAPK-Reportergen-Assay keine Hemmung der Luciferase-Aktivität. Ferner wurden unterschiedliche Klassen von Flavonoiden untersucht. Aus den Gruppen der untersuchten Chalcone und Isoflavone erwies sich keine Substanz als potenter PTK-Hemmstoff. Die untersuchten Flavone aus Scutellaria baicalensis hemmten das Wachstum von A 431- Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Aus dieser Gruppe hemmte Baicalein als einzige die PTK-Aktivität des EGFRs in wachstumshemmenden Konzentrationen mit einem IC50-Wert von 1,1 microM. Neben Baicalein zeigte Wogonin eine Hemmung der Elk1-Phosphorylierung, wobei nur Baicalein in wachstumshemmenden Konzentrationen die Luciferase-Aktivität inhibierte. Des weiteren erwiesen sich die Anthocyanidine Delphinidin und Cyanidin in wachstumshemmenden Konzentrationen als Hemmstoffe der EGFR assoziierten Tyrosinkinase und Elk1-Phosphorylierung. Beide Substanzen hemmten das Wachstum von A 431-Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Abschließend ist festzuhalten, daß neue molekulare Untersuchungsmethoden erfolgreich etabliert wurden, die Einblick in Mechanismen ermöglichen, die für eine tumorzellwachstumsinhibierende Wirkung relevant sind. Hierbei stand im Vordergrund die Aufklärung von Interaktionen in zellulären Signalketten, die wesentliche Bedeutung für die Zellproliferation besitzen. Mittelpunkt der vorliegenden Arbeit war vor allem der Wachstumsfaktor getriggerte Signalweg Rezeptor-Tyrosinkinase/Ras/Raf/MAPK. Die so etablierten Testmethoden können dazu beitragen, neue Wirkprinzipien zur Tumorwachstumshemmung aufzufinden bzw. zu charakterisieren.
By means of the limit and jump relations of classical potential theory the framework of a wavelet approach on a regular surface is established. The properties of a multiresolution analysis are verified, and a tree algorithm for fast computation is developed based on numerical integration. As applications of the wavelet approach some numerical examples are presented, including the zoom-in property as well as the detection of high frequency perturbations. At the end we discuss a fast multiscale representation of the solution of (exterior) Dirichlet's or Neumann's boundary-value problem corresponding to regular surfaces.
Wannier-Stark states for semiconductor superlattices in strong static fields, where the interband Landau-Zener tunneling cannot be neglected, are rigorously calculated. The lifetime of these metastable states was found to show multiscale oscillations as a function of the static field, which is explained by an interaction with above-barrier resonances. An equation, expressing the absorption spectrum of semiconductor superlattices in terms of the resonance Wannier-Stark states is obtained and used to calculate the absorption spectrum in the region of high static fields.
In this work, we discuss the resonance states of a quantum particle in a periodic potential plus static force. Originally this problem was formulated for a crystalline electron subject to the static electric field and is known nowadays as the Wannier-Stark problem. We describe a novel approach to the Wannier-Stark problem developed in recent years. This approach allows to compute the complex energy spectrum of a Wannier-Stark system as the poles of a rigorously constructed scattering matrix and, in this sense, solves the Wannier-Stark problem without any approximation. The suggested method is very efficient from the numerical point of view and has proven to be a powerful analytic tool for Wannier-Stark resonances appearing in different physical systems like optical or semiconductor superlattices.
Die Ausschaltung autoantigener Immunzellen ist das Prinzip der antigenspezifischen Immunsuppression, einer erfolgversprechenden Methode zur Therapie von Autoimmunerkrankungen. Im Fall der Myasthenia gravis, bei der die Autoimmunreaktion gegen den nikotinischen Acetylcholinrezeptor (AChR) gerichtet ist, wurden Konjugate aus dem kompletten AChR und dem ribosomen-inaktivierenden Toxin Gelonin in in vivo Versuchen eingesetzt [Urbatsch et al., 1993; Brust et al., 1987]. Urbatsch und Brust gelang die Therapie von Ratten, bei denen sie die experimentelle autoimmune Myasthenia gravis (EAMG) ausgelöst hatten, durch Applikation dieser Konjugate. Zur Vermeidung unerwünschter Immunreaktionen gegen pathologisch irrelevante Teile des AChR, wurde die humane +- -Untereinheit, sowie der extrazelluläre Teil, in dessen Bereich die hauptantigene Determinante liegt, in E. coli exprimiert [Rousselle, 1996]. Allerdings konnten diese Peptide nur in denaturierter, unlöslicher Konformation als inclusion bodies erhalten werden. Ziel der vorliegenden Arbeit war die Isolierung von AChR-Gelonin-Konjugaten aus nativen, gefalteten Rezeptor-Fragmenten und deren in vivo Einsatz zur Therapie der EAMG in Lewis-Ratten. Zur Induzierung der EAMG wurde der nikotinische AChR aus dem elektrischen Organ des Zitterrochens, Torpedo californica (T-AChR) isoliert und in fünf Lewis-Ratten eingesetzt. Der Verlauf der EAMG, wie auch die spätere Therapie mit den Konjugaten, sollte elektrophysiologisch mit Hilfe der repetitiven Serienstimulation verfolgt werden. Bei den Ratten konnte durch diese Methode eine pathologische Reduzierung der funktionstüchtigen AChR nachgewiesen werden. Zur Isolierung nativ gefalteter AChR-Fragmente wurde die Koexpression des Chaperoninsystems GroEL/GroES mit verschiedenen AChR-Fragmenten durchgeführt. Nur mit dem Plasmid polsi HE706 gelang es das AChR-Fragment zu exprimieren. Da das Fragment +- HE706 aber ausschließlich in Form von inclusion bodies detektiert wurde, muß die Koexpression mit dem Chaperonin-Komplex GroEL/GroES zur nativen Faltung des Proteins, als gescheitert angesehen werden. Da keine nativ gefalteten AChR-Fragmente isoliert werden konnten, stellte Prof. Dr. A. Maelicke (Institut für Physiologische Chemie und Pathobiochemie, Mainz) freundlicherweise das rekombinante T-AChR1-209-Fragment zur Verfügung. Die hohe Aggregationsbereitschaft, die negative Reaktion mit konformellen Antikörpern und Schwierigkeiten das Protein aufzukonzentrieren, wiesen auf die unvollständige Faltung des T-AChR1-209 hin. Die Synthese des T-AChR1-209-Gelonin-Konjugates sollte mit dem Kopplungsreagenz BMME (Bis-( maleimido)-methylether) unter Ausbildung einer Thioetherbrücke erfolgen. Dabei ist es notwendig in beide Proteine, durch Modifikation mit 2-Iminothiolan, Thiolgruppen einzuführen. Da die Modifizierung des T-AChR1-209 scheiterte, sollte die Thioetherbrücke mit dem Kopplungsreagenz SMCC (Succinimidyl-4-(N-maleimido)-cyclohexan-1-carboxylat) eingeführt werden. Bei dieser Methode ist es nicht notwendig, den T-AChR1-209 mit Thiolgruppen zu modifizieren. Nach der Synthese des T-AChR1- 209-Gelonin-Konjugates konnte der freie T-AChR1-209 vollständig abgetrennt werden, während das Konjugat mit nicht umgesetztem Gelonin verunreinigt war. Da kein T-AChR1-209-Fragment mehr zur Verfügung stand, mußten Versuche zur Optimierung der Konjugatsynthese aufgegeben werden.
Urban Design Guidelines have been used in Jakarta for controlling the form of the built environment. This planning instrument has been implemented in several central city redevelopment projects particularly in superblock areas. The instrument has gained popularity and implemented in new development and conservation areas as well. Despite its popularity, there is no formal literature on the Indonesian Urban Design Guideline that systematically explain its contents, structure and the formulation process. This dissertation attempts to explain the substantive of urban design guideline and the way to control its implementation. Various streams of urban design theories are presented and evaluated in term of their suitability for attaining a high urbanistic quality in major Indonesian cities. The explanation on the form and the practical application of this planning instrument is elaborated in a comparative investigation of similar instrument in other countries; namely the USA, Britain and Germany. A case study of a superblock development in Jakarta demonstrates the application of the urban design theories and guideline. Currently, the role of computer in the process of formulating the urban design guideline in Indonesia is merely as a replacement of the manual method, particularly in areas of worksheet calculation and design presentation. Further support of computer for urban planning and design tasks has been researched in developed countries, which shows its potential in supporting decision-making process, enabling public participation, team collaboration, documentation and publication of urban design decisions and so on. It is hoped that the computer usage in Indonesian urban design process can catch up with the global trend of multimedia, networking (Internet/Intranet) and interactive functions that is presented with examples from developed countries.
Das Ziel der vorliegender Arbeit war es, nähere Informationen über den Zusammenhang zwischen den Konformationsänderungen des Chaperonin-GroEL/ES-Systems und den einzelnen Schritten im Faltungsprozess zu erhalten. Dabei wurde die ESR-Spektroskopie als kon-formationssensitive Methode eingesetzt. Im Rahmen dieser Arbeit wurde der Doppelmutant GroEL C138S/C519S, der nur noch in Position 458 jeder Untereinheit ein einzelnes Cystein enthält, mit drei verschiedenen thiol-spezifischen Spin-Labeln, nämlich 4-(3-Iodo-acetamido)-2,2,6,6- tetramethyl-piperidin-1-oxyl (IAAT), 4-Maleimido-2,2,6,6-tetramethyl-1-piperidinoxyl (MAL) und 4-(3?Iodo-2? oxopropyliden-1)?2,2,3,5,5? pentamethyl-[d15]? imidazolidin-1-oxyl (IOPI) modifiziert und untersucht. Um genaue Aussagen für die nun modifizierten Mutanten dmEL-IAAT, dmEL-MAL und dmEL-IOPI zu machen, wurden diese biochemisch charakterisiert und mit dem nicht spin-gelabeltem Doppelmutant GroEL (dmEL) und dem Wildtyp GroEL (wtEL) verglichen. Die biochemische Charakterisierung des nicht spingelabeltem dmEL und der modifizierten Mutanten erfolgte durch die Bestimmung von ATPase-Aktivität und Rückfaltungsaktivität. Zusätzlich wurde die Umgebung der kovalent eingebrachten Spin-Labeln (IAAT, MAL, IOPI) in Gegenwart und Abwesenheit von GroES und Substratproteins untersucht. Die verschiedenen Untersuchungen am dmEL und die entsprechenden experimentell erhalte-nen Ergebnisse deuten darauf hin, dass die ATPase-Aktivität des nicht spingelabelten dmEL leicht höher als die des wtEL ist, allerdings hat die Vorinkubation des dmEL mit ES in Anwesenheit von Nukleotiden keine Inhibierung der ATP-Hydrolyse im Falle des dmEL verursacht. Im Gegensatz dazu wurde im Falle des wtEL eine Inhibierung von etwa 25 % der ATP-Hydrolyse in Anwesenheit von ES im Vergleich zum wtEL-Wert in Abwesenheit von ES und Nukleotiden (wie auch in der Literatur [Viitanen et al., 1990; Langer et al., 1992; Chandrasekhar et al., 1986; Gray & Fersht, 1991; Jackson et al., 1993] beschrieben) bemerkt. Bei der Untersuchung der durch Chaperonin-GroEL unterstützten Rückfaltung von denaturierter LDH wurde eine deutliche Erhöhung der Ausbeute an zurückgefalteter LDH im vergleich zu der ?spontanen? nicht Chaperonin-abhängigen Rückfaltung von LDH bemerkt. Die ?spontane? nicht Chaperonin-abhängige Rückfaltung von LDH bei 25 °C zeigt eine Ausbeute an aktiven LDH von 23 %. In Gegenwart von dmEL und ATP wurden etwa 20 % der denaturierten LDH rückgefaltet. Die Zugabe von ES an dmEL in Anwesenheit von ATP hat die Ausbeute an Teil rückgefalteter LDH auf 42 % erhöht. Dies deutet auf eine direkte Interaktion zwischen GroES und GroEL hin. Die Experimente am wtEL unter gleichen Bedingungen wie beim dmEL haben eine deutliche Erhöhung der Ausbeute an rückgefalteter LDH in Anwesenheit von wtEL und ATP auf 52 % gezeigt (wie auch schon bei [Guhr, 2000] beschrieben). Die Anwesenheit von ES hat die Ausbeute auf 65 % erhöht. Betrachtet man sich in diesem Zusammenhang den Unterschied zwischen den Ausbeuten an rückgefalteter LDH durch dmEL und wtEL, so ist anzunehmen, dass die gerin-gere Rückfaltungsaktivität des dmEL an der eingeführten Doppelmutation C138S/C519S liegt. Es liegt nahe, dass eine für die Rückfaltung eines Substratproteins benötigte Konformationsübertragung von der Doppelmutation beeinflusst wird. Das GroEL:GroES-Verhältnis war bei allen verschiedenen Untersuchungen 1:2. In unserem Arbeitskreis wurde schon bereits von P. Guhr (2000) gezeigt, dass unterschiedliche GroEL:GroES-Verhältnisse von entweder 1:1 oder 1:2 weder bei LDH noch bei MDH-Rückfaltung einen Einfluss auf die Ausbeute rückgefalteten Substratprotein hat. Diese Beobachtungen lassen den Schluss zu, dass unter den verwendeten Reaktionsbedingungen nur die asymmetrischen GroEL/GroES-Komplexe ?bullet? als aktive Komponenten auftraten. Die Bestimmung von zugänglichen Nukleotidbindungsstellen am GroEL wurde mit Hilfe der ESR-Spektroskopie und C8-SL-ATP durchgeführt. Sowohl bei dmEL als auch bei wtEL konnten alle Nukleotidbindungsstellen besetzt werden. Im Gegensatz zum wtEL zeigt der dmEL eine sigmoidale Bindungskurve. Die Bestimmung von Nukleotidbindungstellen in Anwesenheit von ES zeigte kein sigmoidales Verhalten. Die Bildung des GroEL/ES-Komplexes in Gegenwart von C8-SL-ATP konnte von P. Guhr (2000) nicht erfolgreich nachgewiesen werden, da Versuche zum Nachweis des Komplexes mit Hilfe der nativen Gelelektrophorese scheiterten. Die chemische Modifizierung des dmEL mit IAAT-SL und die durchgeführten Untersuchun-gen zur biochemischen Charakterisierung des dmEL-IAAT-SL und deren Vergleich mit dem nicht spingelabelten dmEL haben die folgenden Schlüsse gelassen: Der IAAT-SL beeinflusst die ATPase-Aktivität des dmEL relativ wenig im Vergleich zum dmEL-Wert. Ebenso wurde die Nukleotidbindung an dmEL-IAAT-SL relativ wenig beeinflusst, allerdings zeigt die Nukleotidbindungskurve des dmEL-IAAT-SL kein sigmoidales Verhalten im Gegensatz zum dmEL. Auch bei der Bestimmung der Nukleotidbindungsstellen in Anwesenheit von ES wurden alle Nukleotidbindungsstellen besetzt. Die experimentell beobachtete Rückfaltungsaktivität des dmEL nach Modifizierung mit IAAT-SL wurde stark beeinflusst. Während etwa 20 % der denaturierter LDH durch dmEL in Anwesenheit von ATP rückgefaltet wurden, wurden nur etwa 5 % der denaturierten LDH durch dmEL-IAAT in Anwesenheit von ATP rückgefaltet. Allerdings hat die Anwesenheit von ES die Ausbeute an Teil rückgefalteter LDH im Falle des dmEL-IAAT-SL in Anwesenheit von ATP auf 8 % erhöht. Die beobachtete normale ATPase-Aktivität und die niedrige Rückfaltungsaktivität des dmEL-IAAT-SL deuten darauf hin, dass diese von einander abgekoppelt erfolgen. Die ESR-Untersuchungen am dmEL-IAAT-SL haben in Anwesenheit von verschiedenen Nukleotiden, GroES, und Substratprotein keine Konformationsänderungen in der Umgebung des modifizierten mit IAAT-SL C458 nachgewiesen. Es wurde nur in einem Fall in Abwesenheit von Substratprotein aber in Gegenwart von ATP und ES ein Effekt der ES-Bindung auf die ESR-Spektren gezeigt. Dies deutet darauf hin, dass die Bindung von ES die Übertragung von strukturellen Änderung im Bereich des C458 beeinflusst hat. Im Gegensatz zum IAAT-SL hat der MAL-SL die ATPase-Aktivität des dmEL relativ stark beeinflusst, so dass die ATPase-Aktivität des dmEL-MAL nur 50 % der des dmEL-Wertes erreicht hat. Es besteht die Möglichkeit, dass durch eine Störung der Struktur der Nukleotid-bindungsstellen eine gestörte Konformationsübertragung verursacht wurde, so dass die ATPase-Aktivität zu tief abgefallen ist. Die Rückfaltungs-Untersuchungen am dmEL-MAL haben gezeigt, dass etwa 15 % der denaturierten LDH in Anwesenheit von dmEL-MAL und ATP seiner Ausgangs-Aktivität zurückgewinnt. Dieser Anteil an rückgefalteter LDH steigt auf etwa 25 % in Anwesenheit von dmEL-MAL, ATP und ES. Diese Erhöhung der Ausbeute deutet auf eine direkte Interaktion zwischen GroES und GroEL hin. Die ESR-Untersuchungen an dmEL-MAL haben keine strukturellen Veränderungen im Bereich des mit MAL-SL modifizierten C458 des Proteins nachgewiesen. Der IOPI-SL hat bei der ATPase-Aktivität-Unteruschungen ein unterschiedliches Verhältnis im Vergleich zu IAAT-SL bzw. MAL-SL gezeigt. Bei Bestimmung der ATPase-Aktivität des dmEL-IOPI bei 30 °C wurde eine ATPase-Aktivität im selben Bereich wie beim dmEL gefunden. Bei 37 °C hat der dmEL-IOPI eine außergewöhnliche hohe ATPase-Aktivität mit fast 100 %iger Steigerung der des dmEL-Wertes gezeigt. Auch die ATPase-Aktivität des dmEL-IOPI nach Vorinkubation mit ATP oder ADP und in Anwesenheit von ES ist um etwa 166 % der des dmEL-Wertes gesteigert, anstatt abzufallen. Es konnten jedoch nur 4,8 % denaturierter LDH durch dmEL-IOPI in Anwesenheit von ATP rückfalten. Die Zugabe von ES hat diesen Anteil auf 21 % erhöht, jedoch liegt der Wert unterhalb der spontanen Rückfaltung (22 %). Wie in allen Fällen, wurde auch im Falle des dmEL-IOPI gezeigt, dass eine direkte Interaktion zwischen GroES und GroEL besteht. Auch die ATPase läuft zu schnell ab und kann den Faltungsprozess von Substratprotein nicht unter-stützen. Wenn man das Verhalten der drei modifizierten Mutanten in Bezug auf die ATPase-Aktivität und Rückfaltung betrachtet, deuten die Ergebnisse darauf, dass die ATPase-Aktivität und die Rückfaltungsaktivität von einander abgekoppelt erfolgen. Auch im Falle des dmEL-IOPI haben die ESR-Spektren keine strukturellen Änderungen im Bereich des C458 nachgewiesen. Ein weiterer Ansatzpunkt zur Untersuchung des Chaperonins GroEL wären die folgenden Doppelmutationen einzuführen: C138S/C458S bzw. C458S/C519S und die gleichen Unter-suchungen der vorliegender Arbeit durchzuführen. Anderer Vorschlag wäre die chemische Modifizierung des Substratproteins oder auch des Co-Chaperonin-GroES innerhalb des ?mobile loop? nach einer entsprechenden Cysteinmutation und mit Hilfe der ESR-Spektroskopie könnten noch genauen Aussagen über den Funktions-mechanismus gemacht werden. Einführung von Cysteinmutation innerhalb der apikalen Domäne des GroEL und mit Hilfe der ESR-Spektroskopie könnte auch ermöglichen, nähere Informationen über die GroES- bzw. Substratproteinbindung zu gewinnen.
Die Cothermolyse von [CpR(CO)Mo(P2)2FeCpR] und Phosphaalkin sowie Tolan ergibt in befriedigenden Ausbeuten die heterobimetallischen, tripeldeckerartigen Zweikerncluster [(Cp"'Mo)(Cp*'Fe)(P3CtBu)(P2)], Cp"' = C5H2tBu3-1,2,4, Cp*' = C5Me4Et, und [(Cp*Mo)(Cp*Fe)(P2C2Ph2)(P2)] mit einem verbrückenden Tri-und Diphosphabutadiendiyl-Liganden. Ein überraschendes Ergebnis liefert die Syntheseoptimierung von [Cp"'Mo(CO)(P2)2FeCp*]. Hier wird u.a. [{Cp"' Mo(CO)(P3){Cp*Fe(CO){Cp*Fe(-P7Me)}] erhalten, das röntgenographisch untersucht werden konnte. Durch die Umsetzung von [Cp*'(CO)Mo(P2)2FeCp*] mit cyclo-(PhAs)6 kann eine ganze Serie von Arsaphospholen erhalten werden, die die allgemeine Zusammensetzung PnAsm (m = 5 - n; n = 4,3,2,1) haben. Eine Trennung des Gemisches ist jedoch nicht möglich. Dennoch gelingt eine röntgenographische Charakterisierung dieser Verbindungsklasse.
In Anlehnung an die konventionelle SSP-PCR-Methode wurde ein Low-Resolution-Panel mittels des TaqMan-Prinzips entwickelt und es wurde exemplarisch für DR4 und DR15/16 gezeigt, daß die auf dem 5 Nuklease-Assay beruhende Methode fähig ist, auch einzelne Punktmutationen voneinander zu unterscheiden. Das Grundprinzip dieser Methode basiert ähnlich dem der PCR-SSP auf dem Verfahren der PCR und auf dem Ausnutzen genetischer Unterschiede. So kommt es nur zu einer Amplifizierung wenn beide Primer spezifisch binden. Die Detektion einer erfolgreichen Amplifizierung erfolgt bei der TaqMan-Methode über eine Fluoreszenzmessung im gleichen Reaktionsgefäß. So entfallen jegliche Post-PCR-Schritte, d.h. es müssen weder weitere Pipettierschritte noch Gelelektrophorese eingesetzt werden. Das automatisch generierte Datenfile muß nur am Rechner ausgewertet werden. Mit Hilfe einer optimierten Schnell-DNA-Isolierungsmethode, die auf dem Binden an ein Säulenmaterial und Verdau etwaiger Proteine beruht, läßt sich eine DRB1-Typisierung nunmehr in etwas mehr als 2 Stunden durchführen, im Gegensatz zu den bisher 3-3.5 Stunden bei der konventionellen SSP-PCR. Durch den höheren Automatisierungsgrad, werden nicht nur Zeit und Arbeitsaufwand minimiert, sondern auch die potentiellen Fehlerquellen eingeschränkt, wie z.B. Kontaminationen durch PCR-Produkte, fehlerhaftes Auftragen der PCR-Produkte auf das Gel und die falsche Zuordnung von Banden. Bei Validierungsuntersuchungen dieses Tests ergab sich eine zufriedenstellende Übereinstimmung mit der konventionellen SSP-Typisierung und mit anderen molekularbiologischen Methoden wie RFLP. Die TaqMan-Methode stellt eine sehr nützliche Alternative zu herkömmlichen Typisierungsverfahren dar. Sie kann sowohl für Einzel- und Notfalltypisierungen, als auch für eine größere Zahl gleichzeitig durchzuführender Tests eingesetzt werden. Sie ist sehr zuverlässig, weniger zeit- und arbeitsintensiv als andere Methoden (SSP, SSO), besitzt ein höheres Automatisierungspotential und einen höheren Durchsatz. Sie ist erweiterbar für die Detektion neuer Allele und Subtypen. Die Technik ist in ihren Einsatzmöglichkeiten nicht begrenzt, im Gegensatz zu RFLP oder RSCA, die durch Enzyme bzw. ihre Schnittstellen limitiert sind. TaqMan-Assays sind weniger aufwendig und die Interpretation übersichtlicher als z.B. die einer Sequenzierung. Eine Ausdehnung der HLA-Typisierung mittels TaqMan-Verfahren auf andere HLA-Loci ist durchaus sinnvoll.
The paper focuses on the problem of trajectory planning of flexible redundant robot manipulators (FRM) in joint space. Compared to irredundant flexible manipulators, FRMs present additional possibilities in trajectory planning due to their kinematics redundancy. A trajectory planning method to minimize vibration of FRMs is presented based on Genetic Algorithms (GAs). Kinematics redundancy is integrated into the presented method as a planning variable. Quadrinomial and quintic polynomials are used to describe the segments which connect the initial, intermediate, and final points in joint space. The trajectory planning of FRMs is formulated as a problem of optimization with constraints. A planar FRM with three flexible links is used in simulation. A case study shows that the method is applicable.
Demizellisierung Die isotherme Titrationskalorimetrie ist eine leistungsfähige, schnelle und einfache Methode, die den großen Vorteil bietet, aus ein und demselben Experiment die CMC und die Demizellisierungsenthalpie eines Tensids in einem weiten Temperaturbereich zu bestimmen [48,51,102,103]. Die in dieser Arbeit verwandten Detergentien Octylglucosid und Dodecylmaltosid zeichnen sich durch ihre milden Eigenschaften beim Herauslösen von Proteinen aus bakteriellen Membranen und bei deren Rekonstitution in definierten Lipidmatrizen aus [104-106]. Diese nichtionischen Tenside besitzen eine relativ hohe Aggregationszahl, woraufhin die Näherungen des Phasenseparationsmodells gemacht werden können. Die CMC ist eine Funktion der Temperatur, der Neutralsalzkonzentration und der Alkylkettenlänge. Bei Prozessen, die durch den hydrophoben Effekt bedingt sind kehrt sich mit steigender Temperatur das Vorzeichen der Enthalpie um; dort besitzt DHDemiz eine Nullstelle. Die entsprechende Temperatur wird TH genannt. Ebenso weist die Entropie eine Nullstelle bei TS auf. Im Bereich von TH ist es schwierig wenn nicht sogar unmöglich die CMC und die Demizellisierungsenthalpie auf titrationskalorimetrischem Wege genau zu bestimmen. Mit Hilfe der van t Hoff schen Reaktionsisobare lassen sich DHDemiz und die CMC aus den experimentell zugänglichen Werten mathematisch anpassen [51,55]. Die starke Temperaturabhängigkeit der Enthalpie und Entropie kompensieren sich weitgehend und es resultiert nach Gibbs-Helmholtz eine nur schwache Temperaturabhängigkeit der freien Enthalpie. Die Ableitung der Enthalpie nach der Temperatur ergibt die Wärmekapazität. Diese ist ein Maß inwieweit hydrophobe Oberfläche durch die Mizellbildung vom Einfluß des Wassers abgeschirmt wird. Solubilisierung Mit Hilfe der ITC lassen sich, für den Prozeß der Solubilisierung, die Phasengrenzen des Koexistenzbereichs einfach bestimmen. Sie sind aus den Kalorigrammen zugänglich als Wendepunkte des intermediären Extremwertes. Als Erste setzten Heerklotz et al. die Titrationkalorimetrie im Zusammenhang mit dieser Problemstellung ein [66]. Desweiteren läßt sich aus dieser Art von Experiment die Solubilisierungskraft verschiedener Tenside bestimmen. So besitzt Dodecylmaltosid eine deutlich höhere Solubilisierungskraft als Octylglucosid. Dies ist zu ersehen aus den für DM niedrigeren Re sol -Werten. Die Solubilisierung der synthetischen Lezithine in pH 6 Phosphatpuffer bei 70 °C zeigen einen linear ansteigenden Verlauf mit Zunahme der Acylkettenlänge des Lipids. Im Gegensatz dazu zeigt OG eine sprunghafte Änderung zwischen DPPC und DSPC. Dies deutet darauf hin, daß die Form und oder Größe der entstehenden Aggregate in der gemischtmizellaren Phase differieren. Die Werte in Pufferlösung liegen leicht unter denen in reinem Wasser. Dies wird verursacht durch die Verringerung der Hydratation der Kopfgruppen in den Aggragaten. Die Reihenfolge der Solubilisierung in Abhängigkeit der Kopfgruppe des Lipids nimmt sowohl für DM als auch für OG in der Richtung PA>PC>PG ab. Ursache hierfür sind die in dieser Richtung abnehmenden intermolekularen H-Brückenbindungen. Gleichzeitig nehmen in dieser Richtung die intramolekularen H-Brückenbindungen zu. Deshalb läßt sich PG leichter als die anderen Lipide solubilisieren. Die temperaturabhängigkeit des Gesamtverhältnisses Rt # des Beispiels OG/P90g in Wasser zeigt analog der temperaturabhänigigkeit der Demizellisierung ein Minimum zwischen 42 und 46 °C (quadratisch angepaßt). Die typische, auf den hydrophoben Effekt basierende Umkehr der Reaktionsenthalpie findet hier bei 42 °C statt. Das effektive Molverhältnis Re # zeigt für die Solubilisierung einen leichten und für die Saturierung einen stärkeren Anstieg mit steigender Temperatur. Der Einfluß der Größe der ursprünglich eingesetzten Vesikel wurde bei dem System OG/DMPC in Wasser bei 27 °C untersucht. Es konnte kein Einfluß der Vesikelgröße festgestellt werden. Die Solubilisierung des Gemisches DMPC/DMPG mit OG wurde in pH 6 Phosphatpuffer bei 70 °C untersucht. Die Solubilisierungsgrenze der DMPC-Membran wird durch beimischung von DMPG bis zu einem Molenbruch XMG = 0,4 erhöht. Die DMPG-Membran wird durch den DMPC-Anteil bis XMC = 0,2 destabilisert. Verteilungsexperimente Die Experimente, bei denen Lipid zu einer Detergensvorlage titriert wurde, wurden mit konstantem Verteilungskoeffizienten P angepaßt. Der Verteilungskoeffizient und die Transferenthalpie nehmen mit zunehmendem OG-Gehalt in der DMPC-Membran bei 30 °C ab. Es scheinen anfängliche Fehlstellen abgesättigt zu werden. Gleiches Verhalten zeigt sich bei 70 °C. Lediglich die Transferenthalpie nimmt betragsmäßig leicht zu. Die Abhängigkeit von der Kopfgruppe des Lipids zeigt eine Zunahme des Verteilungskoeffizienten von DPPA<DPPC<DPPG bei 70 °C in pH 6 Phosphatpuffer. Dies läßt sich verstehen durch die bereits vorher erwähnte Abnahme der intermolekularen H-Brückenbindungen. Dadurch wird die Membran flexibler und der Detergenseinbau erleichtert. Die Konstanz des Verteilungskoeffizient P war zu erwarten, da der Vorgang sich innerhalb eines kleinen Konzentrationsbereichs abgespielt hat und immer derselbe Prozeß stattgefunden hat, nämlich der Einbau von wenig Detergens in die reine Lipidmembran. Die Experimente, bei denen Detergens zu einer Lipidvorlage titriert wurde, konnten, wegen des nichtidealen Mischungsverhaltens, nicht mehr mit einem konstanten Verteilungs-koeffizienten P angepaßt werden. Die Anpassung wurde mit dem athermischen Mischungsmodell von Guggenheim realisiert. Dabei enthält die Gibbs sche freie Mischungs-enthalpie einen Exzeßterm. Der Verteilungskoeffizient P0 nimmt mit steigendem Vesikeldurchmesser ab. Die Krümmung der Vesikel hat somit großen Einfluß auf die Fehlstellen in der Membran. Die Werte der Fit-Parameter schwanken leider sehr stark mit dem Intervall der Schrittweite für die Anpassung. Die Ursache hierfür liegt an der Qualität der experimentellen Werte. Bei der in dieser Arbeit durchgeführten Verteilungsexperimenten ist das Signal/Rausch Verhältnis recht klein und am Rande der Auflösung des Kalorimeters. Es ergeben sich somit schon bei der Integration und Basislinienkorrektur grobe Toleranzen. Für die mathematische Anpassung stehen desweiteren nur eine relativ geringe Datenmenge von ca. 20 - 40 Meßpunkten zur Verfügung. Es lassen sich somit bei Experimenten in diesem meßtechnischen Grenzbereich eher nur eine Abschätzung als genaue Absolutwerte bestimmen. Die Signale dieser Art von Experimenten sind deshalb so gering weil zu der geringen Verdünnungsenthalpie nur noch die Transferenthalpie weniger Detergensmoleküle beiträgt. Das nichtideale Mischungsverhalten dieses Verteilungsexperimentes ist zu verstehen, aus der Unteschiedlichkeit beider Amphiphile hinsichtlich Ihrer Strukturformel und ihrem physikalischen Verhalten. DSC Die Solubilisierung wurde auch mit der DSC-Methode untersucht. Der Einbau von OG in DPPC zeigt schon bei geringen Detergensmengen ein Verschwinden der Vorumwandlung (Lb' -> Pb' ). Die Hauptumwandlung verschiebt sich mit steigender Detergenskonzentration zu niedrigeren Temperaturen. Beim Überschreiten der Saturierungsphasengrenze geht die Kooperativität der Umwandlung zunehmends verloren und die anfänglichen Umwandlungspeaks werden zu Umwandlungsbereichen. Sogar noch in der mizellaren Phase sind Umwandlungsbereiche zu erkennen, was darauf hindeutet, daß selbst dort noch Domänen mit kooperativem Umwandlungsverhalten existieren müssen, da in reinen OG-Mizellen keine Umwandlung detektiert werden konnte. Die Verschiebung der Umwandlung und die Schärfe der Bereiche ist reversibel. Der Einfluß von 150 mM NaCl-Puffer bewirkt lediglich eine Verschiebung der Umwandlungstemperaturen um ca. 5 °C zu niedrigeren Werten, was sicherlich auf die Änderung der Hydratation im Kopfgruppenbereich der Aggregate zurückzuführen ist. Lichtstreuung Mit Hilfe der dynamischen und statischen Lichtstreuung lassen sich die Grenzen des kalorimetrisch bestimmten Koexistenzbereichs bestätigen. Außerdem konnte ein kleiner lokaler Extremwert im Titrationskalorigramm als Ende der makroskopischen Phasenseparation identifiziert werden. Beim synthetischen Lipid DMPC reicht diese Mischungslücke vom Koexistenzbereich bis in den mizellaren Bereich. Bei dem natürlich vorkommenden SojaPC liegt diese Mischungslücke innerhalb des kalorimetrisch bestimmten Koexistenzbereich. Das anionische DMPG weist keine Mischungslücke auf. Rheologie Das Anionische Lipid DMPG weist beim titrieren mit OG in pH 6 Phosphatpuffer bei 30 °C eine starke Basislinienverschiebung auf. Die Ursache hierfür ist eine sprungartige Zunahme der Viskosität beim Überschreiten der Saturierungsphasengrenze. Diese Basislinienverschiebung nimmt mit steigender Temperatur ab bedingt durch die Zunahme der thermischen Energie. Die rheologischen Eigenschaften des Systems OG/DMPG wurden mit einem Rotationsviskosimeter näher untersucht. Im Koexistenzbereich zeigt sich scherverdünnendes, anti-thixotropes Verhalten. Dies läßt sich erklären durch die Bildung von würmchenähnlichen Mizellen. Vor Beginn der Scherung sind die Würmchenmizellen durch die Brown sche Molekularbewegung völlig ungeordnet. Mit eintretender Scherung findet eine Orientierung der Mizellfäden statt. Durch besseres aneinander Vorbeigleiten tritt eine Viskositätserniedrigung ein. Bei weiterer Erhöhung von & g kommt es verstärkt zu Rheo-destruktion und die Moleküle müssen sich neu assoziieren. Erniedrigt man die Scherrate wieder, kommt es durch die Reassoziation zu verstärkten Wechselwirkungen zwischen den verzweigten, fadenförmigen Mizellen. Dadurch ist die Viskosität beim Reduzieren der Scherrate höher und die Kurve verläuft linksherum (anti-thixotrop).
In the Finite-Volume-Particle Method (FVPM), the weak formulation of a hyperbolic conservation law is discretized by restricting it to a discrete set of test functions. In contrast to the usual Finite-Volume approach, the test functions are not taken as characteristic functions of the control volumes in a spatial grid, but are chosen from a partition of unity with smooth and overlapping partition functions (the particles), which can even move along prescribed velocity fields. The information exchange between particles is based on standard numerical flux functions. Geometrical information, similar to the surface area of the cell faces in the Finite-Volume Method and the corresponding normal directions are given as integral quantities of the partition functions. After a brief derivation of the Finite-Volume-Particle Method, this work focuses on the role of the geometric coefficients in the scheme.
Integral equations on the half of line are commonly approximated by the finite-section approximation, in which the infinite upper limit is replaced by apositie number called finite-section parameter. In this paper we consider the finite-section approximation for first kind intgral equations which are typically ill-posed and call for regularization. For some classes of such equations corresponding to inverse problems from optics and astronomy we indicate the finite-section parameters that allows to apply standard regularization techniques. Two discretization schemes for the finite-section equations ar also proposed and their efficiency is studied.
The Analytic Blossom
(2001)
Blossoming is a powerful tool for studying and computing with Bézier and B-spline curves and surfaces - that is, for the investigation and analysis of polynomials and piecewise polynomials in geometric modeling. In this paper, we define a notion of the blossom for Poisson curves. Poisson curves are to analytic functions what Bézier curves are to polynomials - a representation adapted to geometric design. As in the polynomial setting, the blossom provides a simple, powerful, elegant and computationally meaningful way to analyze Poisson curves. Here, we
define the analytic blossom and interpret all the known algorithms for Poisson curves - subdivision, trimming, evaluation of the function and its derivatives, and conversion between the Taylor and the Poisson basis - in terms of this analytic blossom.
Mit der vorliegenden Veröffentlichung soll der Versuch unternommen werden, mathematischen Schulstoff aus konkreten Problemen herzuentwickeln. Im Mittelpunkt der vorliegenden Arbeit stehen betriebswirtschaftliche Planungs- und Entscheidungsprobleme, wie sie von fast allen Wirtschaftsunternehmen zu lösen sind. Dabei wird im besonderen auf folgende Optimierungsprobleme eingegangen: Berechnung des Rohstoffbedarfs bei gegebenen Bestellungen, Aufarbeitung von vorhandenen Lagerbeständen und das Stücklistenproblem.
Fragestellungen der Standortplanung sollen den Mathematikunterricht der Schule bereichern, dort behandelt und gelöst werden. In dieser Arbeit werden planare Standortprobleme vorgestellt, die im Mathematikunterricht behandelt werden können. Die Probleme Produktion von Halbleiterplatinen, Planung eines Feuerwehrhauses und das Zentrallagerproblem, die ausnahmlos real und nicht konstruiert sind, werden ausführlich durchgearbeitet, so dass es schnell möglich ist, daraus Unterrichtseinheiten zu entwickeln.
To simulate the influence of process parameters to the melt spinning process a fiber model is used and coupled with CFD calculations of the quench air flow. In the fiber model energy, momentum and mass balance are solved for the polymer mass flow. To calculate the quench air the Lattice Boltzmann method is used. Simulations and experiments for different process parameters and hole configurations are compared and show a good agreement.
We present a complete derivation of the semiclassical limit of the coherent state propagator in one dimension, starting from path integrals in phase space. We show that the arbitrariness in the path integral representation, which follows from the overcompleteness of the coherent states, results in many different semiclassical limits. We explicitly derive two possible semiclassical formulae for the propagator, we suggest a third one, and we discuss their relationships. We also derive an initial value representation for the semiclassical propagator, based on an initial gaussian wavepacket. It turns out to be related to, but different from, Heller's thawed gaussian approximation. It is very different from the Herman - Kluk formula, which is not a correct semiclassical limit. We point out errors in two derivations of the latter. Finally we show how the semiclassical coherent state propagators lead to WKB-type quantization rules and to approximations for the Husimi distributions of stationary states.
The purpose of satellite-to-satellite tracking (SST) and/or satellite gravity gradiometry (SGG) is to determine the gravitational field on and outside the Earth's surface from given gradients of the gravitational potential and/or the gravitational field at satellite altitude. In this paper both satellite techniques are analysed and characterized from mathematical point of view. Uniqueness results are formulated. The justification is given for approximating the external gravitational field by finite linear combination of certain gradient fields (for example, gradient fields of single-poles or multi-poles) consistent to a given set of SGG and/or SST data. A strategy of modelling the gravitational field from satellite data within a multiscale concept is described; illustrations based on the EGM96 model are given.
We present a system concept allowing humans to work safely in the same environment as a robot manipulator. Several cameras survey the common workspace. A look-up-table-based fusion algorithm is used to back-project directly from the image spaces of the cameras to the manipulator?s con-figuration space. In the look-up-tables both, the camera calibration and the robot geometry are implicitly encoded. For experiments, a conven-tional 6 axis industrial manipulator is used. The work space is surveyed by four grayscale cameras. Due to the limits of present robot controllers, the computationally expensive parts of the system are executed on a server PC that communicates with the robot controller via Ethernet.
In dieser Arbeit wurde die Streutheorie in Stark-Systemen auf das im Rahmen der Untersuchung von Halbleiter-Übergittern vorgeschlagene periodische Rechteck-Potential angewendet. Das Verhalten der Resonanzenergien als Funktion verschiedener Parameter wurde untersucht. Hierbei trat das Phänomen der Paarung von Linienbreiten auf, welches durch Betrachtung der Bandstruktur des korrespondierenden feldfreien Hamiltonoperators und durch Modellierung mittels eines Matrixmodells für Wannier-Stark-Leitern geklärt werden konnte. Im letzten Abschnitt wurden die Untersuchungen auf die Beschreibung von Absorptionsspektren von Halbeiter-Übergittern ausgedehnt. Es wurde mittels zeitabhängiger Störungsrechnung eine Formel zur Berechnung des Absorptionsspektrums hergeleitet. Wird das periodische Potential in Halbleiter-Übergittern durch ein geglättetes Rechteck-Potential beschrieben, so können die spektroskopisch bestimmten Linienbreiten durch unsere Theorie gut beschrieben werden. Dies führt zu dem Schluss, dass das periodische Potential der Realität nicht wie anfänglich vermutet durch ein Rechteck-Potential beschrieben werden sollte sondern durch eine geglättete Version desselben. Trotz dieser interessanten Ergebnisse bleiben noch einige Fragen ungeklärt. So ist z.B. ungeklärt, ob es möglich ist die Parameter des Matrixmodells aus semiklassischen oder quantenmechanischen Berechnungen zu bestimmen, so dass das Modell es erlaubt die Resonanzenergien ab initio zu berechnen Im Rahmen dieser Arbeit wurde das Phänomen der Paarung der Lebensdauern untersucht. Hier wäre es interessant nach den Symmetrien der dazugehörigen Wellenfunktionen zu fragen. Es ist zu hoffen, dass dies Gegenstand zukünftiger Untersuchungen sein wird.
Satellite-to-satellite tracking (SST) and satellite gravity gradiometry (SGG), respectively, are two measurement principles in modern satellite geodesy which yield knowledge of the first and second order radial derivative of the earth's gravitational potential at satellite altitude, respectively. A numerical method to compute the gravitational potential on the earth's surface from those observations should be capable of processing huge amounts of observational data. Moreover, it should yield a reconstruction of the gravitational potential at different levels of detail, and it should be possible to reconstruct the gravitational potential from only locally given data. SST and SGG are modeled as ill-posed linear pseudodifferential operator equations with an injective but non-surjective compact operator, which operates between Sobolev spaces of harmonic functions and such ones consisting of their first and second order radial derivatives, respectively. An immediate discretization of the operator equation is obtained by replacing the signal on its right-hand-side either by an interpolating or a smoothing spline which approximates the observational data. Here the noise level and the spatial distribution of the data determine whether spline-interpolation or spline-smoothing is appropriate. The large full linear equation system with positive definite matrix which occurs in the spline-interplation and spline-smoothing problem, respectively, is efficiently solved with the help of the Schwarz alternating algorithm, a domain decomposition method which allows it to split the large linear equation system into several smaller ones which are then solved alernatingly in an iterative procedure. Strongly space-localizing regularization scaling functions and wavelets are used to obtain a multiscale reconstruction of the gravitational potential on the earth's surface. In a numerical experiment the advocated method is successfully applied to reconstruct the earth's gravitational potential from simulated 'exact' and 'error-affected' SGG data on a spherical orbit, using Tikhonov regularization. The applicability of the numerical method is, however, not restricted to data given on a closed orbit but it can also cope with realistic satellite data.
The simulation of random fields has many applications in computer graphics such as e.g. ocean wave or turbulent wind field modeling. We present a new and strikingly simple synthesis algorithm for random fields on rank-1 lattices that requires only one Fourier transform independent of the dimension of the support of the random field. The underlying mathematical principle of discrete Fourier transforms on rank-1 lattices breaks the curse of dimension of the standard tensor product Fourier transform, i.e. the number of function values does not exponentially depend on the dimension, but can be chosen linearly.
Abstract: We describe quantum-field-theoretical (QFT) techniques for mapping quantum problems onto c-number stochastic problems. This approach yields results which are identical to phase-space techniques [C.W. Gardiner, Quantum Noise (1991)] when the latter result in a Fokker-Planck equation for a corresponding pseudo-probability distribution. If phase-space techniques do not result in a Fokker-Planck equation and hence fail to produce a stochastic representation, the QFT techniques nevertheless yield stochastic di erence equations in discretised time.
We study summation of sequences and integration in the quantum model of computation. We develop quantum algorithms for computing the mean of sequences which satisfy a \(p\)-summability condition and for integration of functions from Lebesgue spaces \(L_p([0,1]^d)\) and analyze their convergence rates. We also prove lower bounds which show that the proposed algorithms are, in many cases, optimal within the setting of quantum computing. This extends recent results of Brassard, Høyer, Mosca, and Tapp (2000) on computing the mean for bounded sequences and complements results of Novak (2001) on integration of functions from Hölder classes.
Der Einsatz von Freisprecheinrichtungen bei der Sprachkommunikation in Fahrzeugen erfor- dert die Reduktion der mit dem Sprachsignal erfaßten Umgebungsgeräusche. Die akustischen Störungen beeinträchtigen in der Regel die Verständlichkeit des zu übertragenden Sprachsi- gnals. In der Literatur wurden zahlreiche Verfahren und Ansätze zur Geräuschreduktion vor- geschlagen und beschrieben. Prinzipiell können diese Ansätze in drei Kategorien unterteilt werden: Einkanalige Geräuschreduktionssysteme, wie zum Beispiel das Verfahren der Spek- tralen Subtraktion, mehrkanalige Geräuschkompensationsverfahren, die mindestens ein Stör- geräusch-Referenzsignal benötigen, und adaptive Mikrophonarrays, die zur Erfassung des Sprachsignals ein richtungsselektives Reduktionsverfahren (beam forming) einsetzen. Diese Arbeit fokussiert ausschließlich auf das Problem der einkanaligen Geräuschreduktions- systeme, wie sie häufig in Kraftfahrzeugen oder Telefonen aus Kosten- und konstruktiven Gründen zu finden sind. Mehrkanalige Verfahren werden nur der Vollständigkeit halber am Rande behandelt. Einkanalige Verfahren sind durch den Kompromiß zwischen der Dämpfung der störenden Geräusche und den unvermeidbaren Verzerrungen des Sprachsignals und der verbleibenden Reststörungen gekennzeichnet. Diese Verzerrungen sind als sporadisch auftretende tonartige Reststörungen (musical tones) bzw. als Verfärbungen des Sprachsignals wahrnehmbar. Solche Fehler im Ausgangssignal werden wegen ihrer tonalen Struktur als äußerst störend empfunden und verschlechtern den subjektiven Höreindruck. In letzter Zeit sind deshalb Verfahren mit dem Ziel entwickelt worden, möglichst alle auftre- tenden Verzerrungen zu unterdrücken. So wurden zum Beispiel nichtlineare Methoden, bekannt aus der Bildverarbeitung, oder spezielle Detektionsalgorithmen entworfen, um das Problem geschlossen zu lösen. Besonders neu sind Verfahren, die psychoakustische Eigenschaften des menschlichen Gehörs nutzen, um wenigstens einen Teil der auftretenden Verzerrungen zu verdecken. So kommen hier Methoden zum Einsatz, die durch Formulierung einer psychoakustischen Gewichtungsregel versuchen, einen optimalen Kompromiß zwischen Höhe der Geräuschdämpfung, der Reststörungen und der resultierenden Sprachverständlichkeit zu finden. In der vorliegenden Arbeit diente ein klassisches einkanaliges Geräuschreduktionsverfahren als Ausgangsbasis für die Entwicklung eines neuen psychoakustisch-parametrischen Verfah- rens. Dabei wurde von Modellen der Spracherzeugung und Wahrnehmung der menschlichen Sprache ausgegangen, um geeignete Methoden für die psychoakustische Geräuschreduktion und Signalverbesserung zu finden. Das Ergebnis sind drei neue Verfahren, die sich je nach Eingangssignal adaptiv auf die Charakteristik des Gehörs einstellen und dabei Verzerrungen des Sprachsignals und der Reststörung unterhalb der psychoakustischen Wahrnehmbarkeits- schwelle, der sogenannten Mithörschwelle, halten. Das führt zu einer spürbaren Verbesserung des subjektiven Höreindrucks und hat positiven Einfluß auf die Sprachverständlichkeit. In wesentlichen Bestandteilen dieser Arbeit werden Aspekte der psychologischen Wahrnehmung akustischer Signale und bekannte psychoakustische Eigenschaften des menschlichen Gehörs für die auditive Signalverbesserung, Geräuschreduktion und die Identifikation akustischer Systeme ausgenutzt. Dementsprechend wird im ersten Teil eine kurze Einführung in die Theorie der Signalverarbeitung und Psychoakustik gegeben. Daran anschließend folgt die Vorstellung eines Verfahrens zur auditiven Signalverbesserung und Geräuschreduktion unter Ausnutzung psychoakustischer Verdeckungseffekte. Dieser Abschnitt ist besonders ausführlich gestaltet, da er den Hauptbestandteil dieser Arbeit bildet. Der dritte Teil erläutert experimentelle Untersuchungen und die Bewertung der verschiedenen Verfahren. Abschließend folgen Zusammenfassung und ein wissenschaftlicher Ausblick.
Fibre Reinforced Composites (FRC) have gained in importance for the past several years. Due
to its high specific strength this material group offers great potentials in weight reduction. Not
only metals, like steel or aluminium, but also wood or plastics can be substituted by FRC. The
advantages of fibre reinforced composites range from low specific weight, chemical and
corrosion resistance, adjustable electrical, acoustic and thermal properties to integration of
functions by integral design.
Composites are separated into thermosets that can be cured, and thermoplastics that can be
melted and thermoformed. Thermosets can not be recycled by preheating and forming,
pressing or injection moulding like thermoplastics. Especially in view of the regulation
concerning the disposal of wrecked cars the possibility to recycle Fibre Reinforced
Thermoplastics (FRT) should increase their applications and sales.
Large sales volumes are achieved using Glass Mat reinforced Thermoplastics (GMT) or Long
Fibre reinforced Thermoplastics (LFT). This material is utilised in the manufacturing of parts
like front ends and underbody protections for the automotive industry. But GMT and LFT
have lower mechanical properties than fabric reinforced thermoplastics, so-called organic
sheets.
These fully impregnated organic sheets consist of reinforcement up to 50 Vol%. The semifinished
material is manufactured in double belt or static presses. In a second step the sheets
or laminates are formed to the desired shape by heating them in an infrared-heater, then
transferring them into a press for quick forming. After the temperature of the component has
dropped below the recristallisation temperature it can be removed and trimmed. The cycle
time of the forming step is very short and can be reduced to 20 s with a fully automated
manufacturing line. For applications like side tail units a welding or glueing process follows.
Organic sheets have a homogenous thickness. When a part is designed, the logical way is to
have more material in areas of high stresses and less material in areas of no or low stresses.
For material with high specific stiffness and strength, material thickness is also an important
factor for an optimisation of weight and cost reduction. For other processes like Liquid
Composites Moulding (LCM), GMT or Sheet Moulding Compound (SMC) part
manufacturing with differing wall thickness is state of the art.A one step technology to manufacture load and weight optimised parts has been developed by
bringing in stiffened elements locally for force introduced parts like bearing places or inserts.
Plain sheets, profiles or force introducing are practicable as joining parts to increase the
stiffness of the main sheet. This so-called Tailored Blank Technology (TBT) is discussed in
this thesis.
Tailored Blank Technology means forming and joining in one step. Therefore, a special tool
with three beads and four inserts was manufactured. Three of the inserts have the geometry of
plain sheets or L-profiles and one insert has a round shape. Cylinders are fixed within the
female mould, applying pressure to the inserts. The hydraulic pressure system is adjustable.
An insulation is placed between the female mould and the additional sheets or inserts.
Without insulation it is not possible to heat the inserts above melting temperature.
The Tailored Blank Technology works as follows: The organic sheet is positioned in the
transportation frame. The inserts are placed in the female mould. Then the organic sheet is
heated in an external infrared-heater and the inserts are heated by an infrared-heater, which is
positioned in the press between the mould halves. Sheets and inserts are heated at the same
time, but the inserts are heated from the top surface only. After reaching the desired laminate
temperatures the infrared-heater in the press is removed and the organic sheet is transported
into the press. After forming the organic sheet comes in contact with the inserts and is joined
together. During transportation the laminates cool down at the surfaces. While forming the
organic sheet, it contacts the inserts and the laminates reach their contact or bonding
temperature. Then the temperature of the laminates adapts because of the heat flow from one
sheet to another. The whole cycle requires the same amount of time as the simple forming
step without joining.
First, thermodynamical investigation to determine the contact temperatures of the organic sheet and the inserts was made. The following conditions were assumed: The laminate size is
very large compared to the laminate thickness, therefore heat is only transferred into the top
or bottom surface of the laminates. The heat at the sides is negligible. These conditions are
locally constant for the heat flow process. Thus a one dimensional heat flow in direction of
the laminate is considered. For reflection of the transient heat flow the specific heat capacity,
the density and the coefficient of conductivity of the laminates were determined.
Point-to-Point Trajectory Planning of Flexible Redundant Robot Manipulators Using Genetic Algorithms
(2001)
The paper focuses on the problem of point-to-point trajectory planning for flexible redundant robot manipulators (FRM) in joint space. Compared with irredundant flexible manipulators, a FRM possesses additional possibilities during point-to-point trajectory planning due to its kinematics redundancy. A trajectory planning method to minimize vibration and/or executing time of a point-to-point motion is presented for FRM based on Genetic Algorithms (GAs). Kinematics redundancy is integrated into the presented method as planning variables. Quadrinomial and quintic polynomial are used to describe the segments that connect the initial, intermediate, and final points in joint space. The trajectory planning of FRM is formulated as a problem of optimization with constraints. A planar FRM with three flexible links is used in simulation. Case studies show that the method is applicable.
This article presents contributions in the field of path planning for industrial robots with 6 degrees of freedom. This work presents the results of our research in the last 4 years at the Institute for Process Control and Robotics at the University of Karlsruhe. The path planning approach we present works in an implicit and discretized C-space. Collisions are detected in the Cartesian workspace by a hierarchical distance computation. The method is based on the A* search algorithm and needs no essential off-line computation. A new optimal discretization method leads to smaller search spaces, thus speeding up the planning. For a further acceleration, the search was parallelized. With a static load distribution good speedups can be achieved. By extending the algorithm to a bidirectional search, the planner is able to automatically select the easier search direction. The new dynamic switching of start and goal leads finally to the multi-goal path planning, which is able to compute a collision-free path between a set of goal poses (e.g., spot welding points) while minimizing the total path length.
Abstract: The basic concepts of selective multiscale reconstruction of functions on the sphere from error-affected data is outlined for scalar functions. The selective reconstruction mechanism is based on the premise that multiscale approximation can be well-represented in terms of only a relatively small number of expansion coefficients at various resolution levels. A new pyramid scheme is presented to efficiently remove the noise at different scales using a priori statistical information.
We survey old and new results about optimal algorithms for summation of finite sequences and for integration of functions from Hölder or Sobolev spaces. First we discuss optimal deterministic and randornized algorithms. Then we add a new aspect, which has not been covered before on conferences
about (quasi-) Monte Carlo methods: quantum computation. We give a short introduction into this setting and present recent results of the authors on optimal quantum algorithms for summation and integration. We discuss comparisons between the three settings. The most interesting case for Monte
Carlo and quantum integration is that of moderate smoothness \(k\) and large dimension \(d\) which, in fact, occurs in a number of important applied problems. In that case the deterministic exponent is negligible, so the \(n^{-1/2}\) Monte Carlo and the \(n^{-1}\) quantum speedup essentially constitute the entire convergence rate.
In this thesis a new family of codes for the use in optical high bit rate transmission systems with a direct sequence code division multiple access scheme component was developed and its performance examined. These codes were then used as orthogonal sequences for the coding of the different wavelength channels in a hybrid OCDMA/WDMA system. The overall performance was finally compared to a pure WDMA system. The common codes known up to date have the problem of needing very long sequence lengths in order to accommodate an adequate number of users. Thus, code sequence lengths of 1000 or more were necessary to reach bit error ratios of with only about 10 simultaneous users. However, these sequence lengths are unacceptable if signals with data rates higher than 100 MBit/s are to be transmitted, not to speak about the number of simultaneous users. Starting from the well known optical orthogonal codes (OOC) and under the assumption of synchronization among the participating transmitters - justified for high bit rate WDM transmission systems -, a new code family called ?modified optical orthogonal codes? (MOOC) was developed by minimizing the crosscorrelation products of each two sequences. By this, the number of simultaneous users could be increased by several orders of magnitude compared to the known codes so far. The obtained code sequences were then introduced in numerical simulations of a 80 GBit/s DWDM transmission system with 8 channels, each carrying a 10 GBit/s payload. Usual DWDM systems are featured by enormous efforts to minimize the spectral spacing between the various wavelength channels. These small spacings in combination with the high bit rates lead to very strict demands on the system components like laser diode, filters, multiplexers etc. Continuous channel monitoring and temperature regulations of sensitive components are inevitable, but often cannot prevent drop downs of the bit error ratio due to aging effects or outer influences like mechanical stress. The obtained results show that - very different to the pure WDM system - by orthogonally coding adjacent wavelength channels with the proposed MOOC, the overall system performance gets widely independent from system parameters like input powers, channel spacings and link lengths. Nonlinear effects like XPM that insert interchannel crosstalk are effectively fought. Furthermore, one can entirely dispense with the bandpass filters, thus simplifying the receiver structure, which is especially interesting for broadcast networks. A DWDM system upgraded with the OCDMA subsystem shows a very robust behavior against a variety of influences.
In this paper mathematical models for liquid films generated by impinging jets are discussed. Attention is stressed to the interaction of the liquid film with some obstacle. S. G. Taylor [Proc. R. Soc. London Ser. A 253, 313 (1959)] found that the liquid film generated by impinging jets is very sensitive to properties of the wire which was used as an obstacle. The aim of this presentation is to propose a modification of the Taylor's model, which allows to simulate the film shape in cases, when the angle between jets is different from 180°. Numerical results obtained by discussed models give two different shapes of the liquid film similar as in Taylors experiments. These two shapes depend on the regime: either droplets are produced close to the obstacle or not. The difference between two regimes becomes larger if the angle between jets decreases. Existence of such two regimes can be very essential for some applications of impinging jets, if the generated liquid film can have a contact with obstacles.
Das Idealbild der europäischen Stadt mit ihrer dicht gewachsenen Baustruktur und ihren öffentlichen Räumen steht als Synonym für 'Urbanität' und beeinflußt bis zum heutigen Tag das planerische Denken und Handeln. Eng verbunden damit tauchen immer wieder Assoziationen zu Agora und Forum auf, die als Archetypen des 'Öffentlichen' schlechthin, den Mythos einer sich dort artikulierenden und konstituierenden, idealen und demokratischen Stadtgesellschaft transportieren. Zu Beginn des 21. Jahrhunderts stellt sich jedoch die Frage, ob sich die tradierten und erprobten Denkmodelle und Bilder des öffentlichen Raumes aufgrund der rasanten gesellschaftlichen und informationstechnologischen Veränderungen, überlebt haben. Haben die typischen Ideen von Stadt, die auf dem öffentlichen Raum beruhen nur noch rein symbolische Bedeutung? Verlagern sie sich mehr und mehr in den virtuellen Raum? 'Die Stadt der kurzen Wege' mit ihrer räumlichen Mischung ist als 'Marktplatz' für den Austausch von Informationen und Waren nicht mehr in der bekannten Weise relevant und gesellschaftlich bestimmend. Die Stadt als einheitliches und homogenes Gebilde existiert nicht mehr. Stattdessen ist sie durch Fragmentierung und Zersplitterung gekennzeichnet, wie u.a. die Diagnosen von Touraine ['Die Stadt - ein überholter Entwurf', 1996], Koolhaas ['Generic City', 1997], Sieverts ['Die Zwischenstadt', 1999] und Augé ['Orte und Nicht-Orte', 1998] zeigen. Synchron dazu entstehen mit dem Cyberspace oder 'Virtual Cities' [Rötzer, 1997] neue Formen von öffentlichem Raum und Öffentlichkeit - Parallelräume zur realen Welt. Welche Auswirkungen diese neuen Räume auf das Leben der Menschen und die Stadt haben werden, kann noch nicht abgesehen werden. In der realen Welt werden die Planungsspielräume der Kommunen immer kleiner; die Wechselwirkungen, die u.a. durch Globalisierung, Privatisierung und Deregulierung öffentlicher Aufgaben ausgelöst werden, immer komplexer. Neben den international zu beobachtenden Entwicklungen [Shopping-Mall, New Urbanism, Gated Community], die sich länderübergreifend in leicht abgewandelten Varianten durchzusetzen scheinen, üben auch soziokulturelle Gesellschaftstrends großen Einfluß auf den öffentlichen Raum aus. Der öffentliche Raum als Bindeglied zwischen dem 'Öffentlichen' und dem 'Privaten' ist zunehmend dem Druck der 'Erlebnis- und Konsumgesellschaft' ausgesetzt und kann deshalb seine gesamtgesellschaftliche Funktion für die Stadt nur noch eingeschränkt wahrnehmen. Die individualisierte und mobile Gesellschaft mit ihren gewandelten und diversifizierten Lebensentwürfen und Wertvorstellungen stellt das tradierte Verständnis des öffentlichen Raums zusätzlich in Frage. Das Bild des öffentlichen Raumes als ein Bereich der Gesellschaft des 21. Jahrhunderts kann nicht mehr mit einem mythisierenden Agora-Begriff begegnet werden. Neue Wege und eine Überprüfung der aktuellen Entwicklungen sind dafür unerlässlich. Gleichzeitig müssen jedoch auch die geschichtlichen Gegebenheiten berücksichtigt werden, um aus ihnen zu lernen.
Molekulardynamische Simulation chiraler flüssigkristalliner Phasen Im Rahmen der Arbeit wird erstmals die Polymorphie chiraler flüssigkristalliner Phasen mit Hilfe von Molekulardynamik-Simulationen untersucht. Am Beispiel des Modellsystems des chiralen Gay-Berne-Fluids, das bisher ausschließlich mittels Monte Carlo-Simulationen untersucht wurde, wird das Phasendiagramm in Abhängigkeit von Temperatur und Druck bestimmt. Ein Ziel ist insbesondere die Untersuchung der dynamischen Selbstdiffusionseigenschaften in chiralen Phasen in Abhängigkeit von Temperatur und Druck. Im Fall der im Mittelpunkt der Untersuchung stehenden cholesterischen Phase werden die Zusammenhänge zwischen Selbstdiffusionseigenschaften und Gleichgewichtshelixganghöhe beziehungsweise Ordnungsparameter bestimmt.
Mobile Agenten im Internet
(2001)
Mobile Agenten haben sich in den letzten Jahren zunehmend in der Architektur und Programmierung verteilter Systeme bewährt. Es sind Programme, die einen Internen Zustand mit sich führen, während sie verschiedene, möglicherweise auf unterschiedlichen Plattformen basierende, Systeme besuchen. Auf dem jeweiligen System nehmen sie Dienste in Anspruch, indem sie entweder lokale Bibliotheken ansprechen, oder auf durch das System bereitgestellte Dienste zugreifen. Dabei müssen mobile Agenten sowohl alle vom Programm benötigten Daten, wie auch den gesamten Code mit sich führen. Zwar sind die Daten ein wichtiger (wenn nicht sogar der entscheidende) Teil eines Agenten, trotzdem wird in der Regel nicht als wertvoller, eigenständiger Part angesehen. Dies ist jedoch nicht immer ratsam, könnten doch Agenten am aktuellen Aufenthaltsort einen „Container" zurückzulassen um ihm anderen Agenten zur Verfügung zu stellen (natürlich erst nach erfolgter Zugriffskontrolle), bzw. die Daten erst dann auf ein Migrationsziel übertragen, wenn sich durch lokale Aufrufe des Systems herausgestellt hat, dass sie dort benötigt werden. Diese Arbeit ist zweigeteilt, insofern, als dass sie sich mit den zwei verschiedenen „Ebenen" der mobilen Agenten beschäftigt. Im ersten Teil werden die für die Migration und Nutzung der Resourcen notwendigen Aspekte besprochen. Dabei wird der Schwerpunkt auf die notwendige Unterstützung durch die Umgebung gelegt, wobei nicht eine neue integrierte Umgebung entworfen, sondern vielmehr die notwendigen Blöcke aufgezeigt werden sollen. Diese können dann als Teil eines Environments oder aber als eigentständige Komponente bereitsgestellt werden. Der zweite Teil beschäftigt sich mit den durch die Interaktion verschiedener Agenten entstehenden Probleme. Stichworte hierbei sind die Kostenkontrolle (wer bezahlt auf welche Art für in Anspruch genommene Dienste), Workflow Unterstützung, sowie Sicherheit in einem offenen, verteilten System, in dem es keine zentrale Überprüfung von Rechten und Identitäten geben kann. Abgeschlossen wird diese Ausarbeitung mit einer Bewertung der auf den beiden Ebenen gefundenen Problemen und Eigenheiten, wobei dann die Frage aufgeworfen wird, ob Agenten in der heutigen Form überhaupt sinnvoll sind.
In this article, we investigate the maximum entropy moment closure in gas dynamics. We show that the usual choice of polynomial weight functions may lead to hyperbolic systems with an unpleasant state space: equilibrium states are boundary points with possibly singular fluxes. In order to avoid singularities, the necessary arises to find weight functions which growing sub-quadratically at infinity. Unfortunately, this requirement leads to a conflict with Galilean invariance of the moment systems because we can show that rotational and translational invariant, finite dimensional function spaces necessarily consist of polynomials.
Matrices with the consecutive ones property and interval graphs are important notations in the field of applied mathematics. We give a theoretical picture of them in first part. We present the earliest work in interval graphs and matrices with the consecutive ones property pointing out the close relation between them. We pay attention to Tucker's structure theorem on matrices with the consecutive ones property as an essential step that requires a deep considerations. Later on we concentrate on some recent work characterizing the matrices with the consecutive ones property and matrices related to them in the terms of interval digraphs as the latest and most interesting outlook on our topic. Within this framework we introduce a classiffcation of matrices with consecutive ones property and matrices related to them. We describe the applications of matrices with the consecutive ones property and interval graphs in different fields. We make sure to give a general view of application and their close relation to our studying phenomena. Sometimes we mention algorithms that work in certain fields. In the third part we give a polyhedral approach to matrices with the consecutive ones property. We present the weighted consecutive ones problem and its relation to Tucker's matrices. The constraints of the weighted consecutive ones problem are improved by introducing stronger inequalities, based on the latest theorems on polyhedral aspect of consecutive ones property. Finally we implement a separation algorithm of Oswald and Reinhelt on matrices with the consecutive ones property. We would like to mention that we give a complete proof to the theorems when we consider important within our framework. We prove theorems partially when it is worthwhile to have a closer look, and we omit the proof when there are is only an intersection with our studying phenomena.
This paper details models and algorithms which can be applied to evacuation problems. While it concentrates on building evacuation many of the results are applicable also to regional evacuation. All models consider the time as main parameter, where the travel time between components of the building is part of the input and the overall evacuation time is the output. The paper distinguishes between macroscopic and microscopic evacuation models both of which are able to capture the evacuees' movement over time. Macroscopic models are mainly used to produce good lower bounds for the evacuation time and do not consider any individual behavior during the emergency situation. These bounds can be used to analyze existing buildings or help in the design phase of planning a building. Macroscopic approaches which are based on dynamic network flow models (minimum cost dynamic flow, maximum dynamic flow, universal maximum flow, quickest path and quickest flow) are described. A special feature of the presented approach is the fact, that travel times of evacuees are not restricted to be constant, but may be density dependent. Using multicriteria optimization priority regions and blockage due to fire or smoke may be considered. It is shown how the modelling can be done using time parameter either as discrete or continuous parameter. Microscopic models are able to model the individual evacuee's characteristics and the interaction among evacuees which influence their movement. Due to the corresponding huge amount of data one uses simulation approaches. Some probabilistic laws for individual evacuee's movement are presented. Moreover ideas to model the evacuee's movement using cellular automata (CA) and resulting software are presented. In this paper we will focus on macroscopic models and only summarize some of the results of the microscopic approach. While most of the results are applicable to general evacuation situations, we concentrate on building evacuation.
The task of handling non-rigid one-dimensional objects by a robot manipulation system is investigated. Especially, approaches to calculate motions with specific behavior in point contacts between the object and environment are regarded. For single point contacts, motions based on generalized rotations solving the direct and inverse manipulation problem are investigated. The latter problem is additionally tackled by simple rotation and translation motions. For double and multiple point contacts, motions based on Splines are suggested. In experimental results with steel springs, the predicted and measured effect for each approach are compared.
Manipulating Deformable Linear Objects: Model-Based Adjustment-Motion for Vibration Reduction
(2001)
This paper addresses the problem of handling deformable linear objects (DLOs) in a suitable way to avoid acute vibration. An adjustment-motion that eliminates vibration of DLOs and can be attached to the end of any arbitrary end-effector's trajectory is presented, based on the concept of open-loop control. The presented adjustment-motion is a kind of agile end-effector motion with limited scope. To describe the dynamics of deformable linear objects, the finite element method is used to derive the dynamic differential equations. Genetic algorithm is used to find the optimal adjustment-motion for each simulation example. In contrast to previous approaches, the presented method can be treated as one of the manipulation skills and can be applied to different cases without major changes to the method.
The vibration induced in a deformable object upon automatic handling by robot manipulators can often be bothersome. This paper presents a force/torque sensor-based method for handling deformable linear objects (DLOs) in a manner suitable to eliminate acute vibration. An adjustment-motion that can be attached to the end of an arbitrary end-effector's trajectory is employed to eliminate vibration of deformable objects. Differently from model-based methods, the presented sensor-based method does not employ any information from previous motions. The adjustment-motion is generated automatically by analyzing data from a force/torque sensor mounted on the robot wrist. Template matching technique is used to find out the matching point between the vibrational signal of the DLO and a template. Experiments are conducted to test the new method under various conditions. Results demonstrate the effectiveness of the sensor-based adjustment-motion.
This paper deals with the handling of deformable linear objects (DLOs), such as hoses, wires or leaf springs. It investigates the a priori knowledge about the 6-dimensional force/torque signal for a changing contact situation between a DLO and a rigid polyhedral obstacle. The result is a complete list, containing for each contact change the most significant combination of force/torque signal components together with a description of the expected signal curve. This knowledge enables the reliable detection of changes in the DLO contact situation and with it the implementation of sensor-based manipulation skills for all possible contact changes.
Manipulating Deformable Linear Objects: Attachable Adjustment-Motions for Vibration Reduction
(2001)
This paper addresses the problem of handling deformable linear objects (DLOs) in a suitable way to avoid acute vibration. Different types of adjustment-motions that eliminate vibration of deformable objects and can be attached to the end of an arbitrary end-effector trajectory are presented. For describing the dynamics of deformable linear objects, the finite element method is used to derive the dynamic differential equations. Genetic algorithm is used to find the optimal adjustment motion for each simulation example. Experiments are conducted to verify the presented manipulating method.
Logic
(2001)
The objective of this paper is to bridge the gap between location theory and practice. To meet this objective focus is given to the development of software capable of addressing the different needs of a wide group of users. There is a very active community on location theory encompassing many research fields such as operations research, computer science, mathematics, engineering, geography, economics and marketing. As a result, people working on facility location problems have a very diverse background and also different needs regarding the software to solve these problems. For those interested in non-commercial applications (e. g. students and researchers), the library of location algorithms (LoLA can be of considerable assistance. LoLA contains a collection of efficient algorithms for solving planar, network and discrete facility location problems. In this paper, a detailed description of the functionality of LoLA is presented. In the fields of geography and marketing, for instance, solving facility location problems requires using large amounts of demographic data. Hence, members of these groups (e. g. urban planners and sales managers) often work with geographical information too s. To address the specific needs of these users, LoLA was inked to a geographical information system (GIS) and the details of the combined functionality are described in the paper. Finally, there is a wide group of practitioners who need to solve large problems and require special purpose software with a good data interface. Many of such users can be found, for example, in the area of supply chain management (SCM). Logistics activities involved in strategic SCM include, among others, facility location planning. In this paper, the development of a commercial location software tool is also described. The too is embedded in the Advanced Planner and Optimizer SCM software developed by SAP AG, Walldorf, Germany. The paper ends with some conclusions and an outlook to future activities.
Given a railway network together with information on the population and their use of the railway infrastructure, we are considering the e ffects of introducing new train stops in the existing railway network. One e ffect concerns the accessibility of the railway infrastructure to the population, measured in how far people live from their nearest train stop. The second effect we study is the change in travel time for the railway customers that is induced by new train stops. Based on these two models, we introduce two combinatorial optimization problems and give NP-hardness results for them. We suggest an algorithmic approach for the model based on travel time and give first experimental results.
Lineare Optimierung ist ein wichtiges Aufgabengebiet der angewandten Mathematik, da sich viele praktische Probleme mittels dieser Technik modellieren und lösen lassen. Diese Veröffentlichung soll helfen, Schüler an diese Thematik heranzuführen. Dabei soll der Vorgang des Modellierens, also die Reduktion des Problems auf die wesentlichen Merkmale, vermittelt werden. Anschließend an den Modellierungsprozeß können durch Einsatz der Simplex-Methode die linearen Optimierungsprobleme gelöst werden. Verschiedene praktische Beispiele dienen der Veranschaulichung des Vorgehens.
Diese Arbeit beschreibt die Entwicklung, Realisierung und Optimierung eines hochempfindlichen, derivativen Laserabsorptionsspektrometers zur Messung extrem schwacher Absorptionslinien von Molekülen in der Gasphase. Der zugängliche Wellenlängenbereich im nahen Infrarot erstreckt sich von etwa 800nm bis 1600nm. Als Lasersystem für das Spektrometer wurde ein Diodenlaser mit externem Littman-Resonator und einem großen, modensprungfreien Durchstimmbereich verwendet. Zur Erreichung der bestmöglichen Empfindlichkeit wurden die drei existierenden modulationsspektroskopischen Methoden, die 1-Ton-, die 2-Ton- und die Wellenlängen-Modulationsspektroskopie, miteinander verglichen. Dieser Vergleich wurde erstmals nicht nur im Hinblick auf die Linienform, Signalgröße und Detektionsfrequenz durchgeführt, sondern auch unter Berücksichtigung der möglichen Modulationstechniken (Laserdiodenstrom, externer elektrooptischer Modulator und Verstimmen des Laserresonators) und der Unterdrückung des Untergrundes, hervorgerufen durch Interferenzstrukturen (Fringes). Durch eine elektronische Normierung des Detektorsignals auf einen Referenzlichtstrahl wird das Meßsignal unabhängig von der Intensität und dem Intensitätsrauschen des Lasers. Weiterhin wurde die Möglichkeit untersucht, die Vielfachreflexionszelle mit 50m Absorptionsweg durch einen optischen Resonator hoher Güte zu ersetzen. Dieses Verfahren, ähnlich der Cavity-Ring-Down-Spektroskopie (CRDS), konnte mit der Wellenlängen-Modulationstechnik kombiniert werden. Mit diesem Laserabsorptionsspektrometer gelang es erstmals, das Absorptionsspektrum von Ozon im Bereich von 6433 bis 6669 Wellenzahlen mit mehr als 3000 Linien aufzunehmen. Um diese Messung zu ermöglichen wurde eine Methode zur Präparation und Handhabung von reinem Ozon gefunden und ein Verfahren zur Unterscheidung der Ozon-Linien von den Absorptionslinien der Reaktionsprodukte und Verunreinigungen wie z.B. CO2, H2O, H2O2 und verschiedenen Kohlenwasserstoffen entwickelt.
Interleaved Sampling
(2001)
The sampling of functions is one of the most fundamental tasks in computer graphics, and occurs in a variety of different forms. The known sampling methods can roughly be grouped in two categories. Sampling on regular grids is simple and efficient, and the algorithms are often easy to built into graphics hardware. On the down side, regular sampling is prone to aliasing artifacts that are expensive to overcome. Monte Carlo methods, on the other hand,
mask the aliasing artifacts by noise. However due to the lack of coherence, these methods are more expensive and not weil suited for hardware implementations. In this paper, we introduce a novel sampling scheme where samples from several regular grids are a combined into a single irregular sampling pattern. The relative positions of the regular grids are themselves determined by Monte Carlo methods. This generalization obtained by interleaving yields,significantly improved quality compared to traditional approaches while at the same time preserving much of the advantageous coherency of regular sampling. We demonstrate the quality of the new sampling scheme with a number of applications ranging from supersampling over motion blur simulation to volume rendering. Due to the coherence in the interleaved samples, the method is optimally suited for implementations in graphics hardware.
Industrial Ecology's Hidden Philosophy of Nature. Fundamental Underpinning to Use Nature as Model
(2001)
In its scientific sense, industrial ecology represents an emerging transdisciplinary field of studying industrial systems and their fundamental linkage with natural ecosystems. As a short form, industrial ecology is called the "science of sustainability". At the bottom of industrial ecology there is a refreshingly different perspective of understanding nature as model in comparison with other scientific disciplines and concepts of understanding nature e.g. in terms of "sack of resources", "biophysical limit", "something outside", "surrounding", or just "environment" as opposed to industrial systems. The keynote of industrial ecology's specific perspective of understanding nature is to balance the development of industrial systems with the constraints of natural eco-systems, analogous to an "industrial symbiosis". The goal is to contribute for laying a fundamental underpinning for industrial ecology in its scientific sense, in this case especially for its use of nature as model. Therefore an impressive battery of philosophical arguments is provided bringing to bear against the sort of probably raised fallacies and facile or hasty proclaimed critics by sceptics, hard-liners, and mainstream-scientists who often overlook industrial ecology's stimulating role towards sustainability.
Die Untersuchung der Induktion der Ethoxyresorufin-O-deethylase (EROD) Aktivität durch die "dioxinartigen" PCBs 77, 81, 105, 114, 118, 123, 126, 156, 157, 167, 169 und 189 in der Hepatoblastom-Zellinie HepG2 und, zur Vervollständigung bereits veröffentlichter Daten, in primären Rattenhepatozyten und in der Rattenhepatom-Zellinie H4IIE wurde im ersten Teil der Arbeit durchgeführt. Die Ergebnisse zeigten, daß die ausgewählten PCBs in HepG2 weniger potent sind als in H4IIE-Zellen bzw. primären Rattenhepatozyten. In HepG2-Zellen konnte lediglich für die PCBs 77, 81, 114 und 126 eine Induktion der EROD-Aktivität detektiert werden. Für PCB 169, eines der potentesten Kongenere in H4IIE-Zellen und primären Rattenhepatozyten, wurde keine EROD-Induktion in HepG2-Zellen gemessen. Diese und weitere Speziesunterschiede verdeutlichen, daß eine Extrapolation der Daten aus Experimenten mit Nager-Zellen zur Risikoabschätzung auf den Menschen nur bedingt möglich ist. PCB 81 zeigte in den vorliegenden Messungen einen REP-Wert von 0,02 und 0,05 in HepG2-Zellen bzw. primären Rattenhepatozyten. Die Beeinflussung der basalen und induzierten Apoptose durch die PCBs 81, 126 und 169 wurde im zweiten Teil der Arbeit untersucht. Es zeigte sich, daß die PCBs 81 und 126 in primären Rattenhepatozyten die basale Apoptose induzieren können. Für das PCB 169 wurde dagegen keine Veränderung der Apoptoseinzidenz im Rahmen der verwendeten Konzentrationen festgestellt. Wurde die Apoptose durch UV-Strahlung induziert, so hemmten die PCBs konzentrationsabhängig die Apoptoserate auf durchschnittlich 62% gegenüber der Kontrolle. Bei höheren Konzentrationen wurde die Inhibierung durch einen induzierenden Effekt aufgehoben.
Nach einer Einführung in die zur Erfassung inkorporaler Meßgrößen und zur Meßdatenübertragung verwendeten Verfahren wird in dieser Arbeit ein Konzept vorgestellt, das die Entwicklung implantierbarer Meßsysteme in den ersten Entwurfsphasen unterstützt. Im Anschluß wird die mit dem Konzept durchgeführte Entwicklung eines multisensorischen Meß- und Überwachungssystems beschrieben. Zur Ableitung des Entwurfskonzepts werden die an implantierbare Meßsysteme gestellten Anforderungen analysiert. Dabei findet eine Unterteilung in klassenspezifische und applikationsspezifische Anforderungen statt. Aus den klassenspezifischen Anforderungen dieser Aufstellung wird ein für die hier untersuchten Meßsysteme allgemein gültiges, in Funktionsblöcke und Funktionsgruppen untergliedertes, Strukturmodell erstellt. Zum Entwurf der untereinander in Verbindung stehenden Komponenten dieses Strukturmodells wird eine Reihenfolge vorgegeben, die vorhandene Abhängigkeiten zwischen den Funktionseinheiten berücksichtigt. Anschließend werden in der Entwurfsreihenfolge und unter Berücksichtigung der applikationsspezifischen Anforderungen die einzelnen Funktionsblöcke im Detail spezifiziert und für jeden der Funktionsblöcke eine Anforderungsliste erstellt. Unter Verwendung der Anforderungslisten werden die Funktionsgruppen bestimmt. Eine dieser Funktionsgruppen ist die drahtlose Energieversorgung. Zu deren Entwurf wird ein Verfahren vorgestellt, mit dem induktive Übertragungsstrecken berechnet werden können. Mit der Verwendung des beschriebenen Konzepts wird der Entwickler eines implantierbaren Meßsystems insbesondere in der Systemspezifikation und der Systempartitionierung unterstützt. Der aufgestellte Anforderungskatalog erleichtert ihm die Spezifikation des Meßsystems. Zu jedem der Funktionsblöcke des allgemein geltenden Strukturmodells erhält der Entwickler eine applikationsabhängige Detailspezifikation, die ihm die Bestimmung der zum Aufbau der Funktionsblöcke erforderlichen Funktionsgruppen ermöglicht. So entsteht eine detaillierte Aufbaustruktur des zu entwerfenden Meßsystems, in der alle an das System gestellten Anforderungen berücksichtigt sind. Damit steht eine fundierte Ausgangsbasis zur Entwicklung der Funktionsgruppen zur Verfügung. Das Verfahren zum Entwurf induktiver Energieübertragungsstrecken unterstützt die Entwicklung drahtlos gespeister Meßsysteme. Der Entwurf der restlichen Funktionsgruppen wird mit bereits etablierten Methoden und Werkzeugen durchgeführt. Die Verifikation des gesamten Meßsystems erfolgt mit einem aus den Funktionsgruppen aufgebauten Prototypen. Unter Verwendung des Entwurfskonzepts wurde ein implantierbares Meßsystem für eine neue Osteosyntheseplatte entwickelt, die zur Versorgung von Knochenfrakturen verwendet wird. Die Platte verfügt über besondere mechanische Eigenschaften, die eine verbesserte Frakturheilung versprechen. Zur Beobachtung der Knochenheilung werden bislang Röntgenaufnahmen eingesetzt. Das in die neue Osteosyntheseplatte integrierte Meßsystem hingegen ermöglicht die Erfassung mehrerer Meßwerte direkt am Knochen. Damit ergibt sich eine erheblich verbesserte Diagnostik ohne Strahlenbelastung des Patienten. Neben der Erforschung des Verbundes Knochen-Implantat erlauben die verbesserten Diagnosemöglichkeiten die Einleitung gezielterer Rehabilitations-Maßnahmen. In Verbindung mit der verbesserten Frakturheilung sollen so optimale Behandlungsergebnisse erzielt und die Behandlungszeiten verkürzt werden.
Abstract: The behavior of the divergent part of the bulk AdS/CFT effective action is considered with respect to the special finite diffeomorphism transformations acting on the boundary as a Weyl transformation of the boundary metric. The resulting 1-cocycle of the Weyl group is in full agreement with the 1-cocycle of the Weyl group obtained from the cohomological consideration of the effective action of the corresponding CFT.
The goal of this thesis was to improve the surface quality of highly reinforced polymer
composites in order to make these materials applicable to the painted exterior of passenger
cars.
For the evaluation of the application sector of automotive exterior components, a catalogue of
requirements was drawn up from technical specifications, internal standards, and legal
requirements. Components in the horizontal decorative section of the outer skin, like front hood,
boot lid, and roof, have to fulfil the highest optical and structural requirements. A survey of the
automobile market concerning applications of fibre reinforced plastics in the exterior of cars
showed the state of the art and certain tendencies. So far, only non-reinforced, short-fiber- or
random-fiber-reinforced plastics have been able to fulfil the high suriace requirements. Up to
now, high material prices, the lack of mass production concepts, and insufficient suriace quality
have prohibited serial applications of CFRP in the outer skin of passenger cars. Therefore,
different manufacturing technologies for exterior components in composites were examined and
compared in an overview of processes. The process of resin transfer moulding (RTM) was
identified to have great potential for serial production:because of its achievable suriace quality
together with high specific mechanical properties of 1he composites.
The goal of the current research was to find optimized combinations of materials, processes,
and coatings, in order to realize a Class-A suriace quality for CFRP parts in the RTM process.
The main problem with the suriace quality is the print-through of the reinforcement caused by
the inhomogeneous distribution of the reinforcing fibres and the chemical and thermal shrinkage
of the matrix material during processing. In order to periom a systematic investigation of the
composite materials, the process parameters, and surtace treatments, an experimental RTM
tool with a plate cavity was designed and produced in the suriace quality standard of a serial
tool.
Within the material optimization the comparison of five epoxy resins showed that the system 82
was the most promising for further investigations with regard to surface quality and cycle time.
Within the comparison of the fibre reinforcements, the woven fabrics displayed a minor surface
quality compared to the non-woven and non-crimp fabrics. lt was found out that multiaxial
stitched fabrics with optimized placement technique, texturized, multifilament stitching yarns,
and trikot-franse stitching pattern currently provide the best combination of surface quality and
processability, Even better surface results were achieved with non-crimp fabrics that are fixed
by an adhesive to a polyester mesh. However, the difficult processing and infiltration with matrix
material still provide a hurdle to a possible serial application. As a result of the investigation, one
type of randomly oriented cut glass mat with minimal fibre diameter and even fibre distribution
was preferred as a core material to the commonly used continuous strand mats. Within the
great variety of different surface veils, a few types could be identified to offer an effective
reduction of long term waviness (from LW>20 to LW<20) and short term waviness (from SW>35 to SW<15). These selected surface veil types are mechanically or binder fixed and made of
glass or PAN fibres with an areal weight of 50 to so g/m2
.
Statistical methods for the design of experiments and the analysis of the results were used in
the process optimization with the epoxy system 82. After the identification of the main predictors
and responses a D-optimal experimental plan was designed and perfomed. The method of
multiple regression was used to create a process modell which describes the observed system
behaviour and deviation to a very high degree.
It was discovered that high pressures on the liquid matrix system right after injection contribute
to a high surface quality by compensating a great part of the reaction shrinkage. fn order to
achieve high pressures in the cavity exceeding 100 bar, the processing af)d tooling equipment
was modified beyond conventional RTM process capabilites. Optimal settings for vacuum and
temperature difference depend on tool temperature and post pressure levels. The simultaneous
analysis of curing temperature and demoulding time showed that the best surface quality can be
achieved if the part is demoulded from the tool as soon as the saturation T9, depending on the
current tool temperature, is reached. Longer curing times neither increase the T9 of the part nor
do they improve surface quality. From these results a first strategy for high suriace quality can
be derived with a high tool temperature and a short demoulding time. The second strategy with
a !ow tool temperature and a long demoulding time, however, is easier and safer to periom in
terms of process stability.
In order to compare highly reactive thermoset matrix materials and to measure the volume
shrinkage throughout the whole reaction, a novel shrinkage measurement cell, or dilatometer,
was designed. This created the new opportunity to determine the processing shrinkage in its
chemically and thermally induced proportions depending on matrix material, curing temperature,
and time. Because of the good correlation of the laboratory results with the previous RTM
experiments, a high experimental effort for hardware investigations to characterize new epoxy
systems can be saved in the future. Matrix system 82 displayed the lowest shrinkage values in
combination with a high reactivity. It could also be observed that a great proportion of the
reaction shrinkage takes place very quickly after the start of reaction. Therefore, the post
pressure on the matrix system must be applied as early as possible in order to compensate this
shrinkage. Curing at lower temperatures always leads to lower chemical and thermal shrinkage.
In comparison to literature the newly developed method presented in this thesis provides
plausible results with high accuracy, and for the first time also for highly reactive thermoset
systems.
Suriace coatings offer the opportunity to reduce or cover surface structures and defects in order
to achieve a high quality of the painted part surface. The exploration of in-process coatings lead
to thermoplastic films and gel-coats as technologies with a high potential for the improvement of
surface quality. In comparison, epoxy surfacing films and inmould-powder-coatings result in
more effort to adapt the materials and application methods0to the current RTM process. It was
shown that the post-process coating with a plastic paint system contributes to an improvement of the surface quality. In this study different priming coat materials and thicknesses were
identified that cover part of the surface texture with an acceptable structure of the coat itself. In
addition, two surface finishing methods with manual sanding were found to raise the surface
quality of the painted part up to the required standard if required.
The results of the different subsystems materials, RTM-process, and surface coatings can be
combined in different combinations of various emphasis to the overall system of the painted
ATM-part, complying with the requirements of the specific outer skin region.
Short-term solutions for outer skin parts with vertical surfaces {as A-, B-, C-pillars, sills, or rear
side wings) were found and proven with sample plates for the first time. In order to achieve the
high quality required for horizontal exterior components (as front hood, roof, and trunk lid) at the
current state of development, a higher performance of the subsystems is necessary. But even
for this Class-A suriace quality, sample parts could be produced for the first time with high effort
in the ATM-process. At the beginning of this investigation, sample plates produced in RTM
displayed surtace waviness values of LW>35 and strong fibre marking over the whole surtace.
With the combination of optimization results, sample plates with LW<5 could be produced. A
visual evaluation could not determine any regular, oriented surface texture.
The presented work showed solutions in material-process-coating-combinations and
development potential to reach the required Class-A surface quality of automobile exterior parts
with advanced composites. This provides the necessary foundation for further developments
with the aim of a serial application.
A harmonic oscillator subject to a parametric pulse is examined. The aim of the paper is to present a new theory for analysing transitions due to parametric pulses. The new theoretical notions which are introduced relate the pulse parameters in a direct way with the transition matrix elements. The harmonic oscillator transitions are expressed in terms of asymptotic properties of a companion oscillator, the Milne (amplitude) oscillator. A traditional phase-amplitude decomposition of the harmonic-oscillator solutions results in the so-called Milne's equation for the amplitude, and the phase is determined by an exact relation to the amplitude. This approach is extended in the present analysis with new relevant concepts and parameters for pulse dynamics of classical and quantal systems. The amplitude oscillator has a particularly nice numerical behavior. In the case of strong pulses it does not possess any of the fast oscillations induced by the pulse on the original harmonic oscillator. Furthermore, the new dynamical parameters introduced in this approach relate closely to relevant characteristics of the pulse. The relevance to quantum mechanical problems such as reflection and transmission from a localized well and mechanical problems of controlling vibrations is illustrated.
Abstract: In the context of AdS/CFT correspondence the two Wilson loop correlator is examined at both zero and finite temperatures. On the basis of an entirely analytical approach we have found for Nambu-Goto strings the functional relation dSc(Reg) /dL = 2*pi*k between Euclidean action Sc and loop separation L with integration constant k, which corresponds to the analogous formula for point-particles. The physical implications of this relation are explored in particular for the Gross-Ooguri phase transition at finite temperature.
To simulate the influence of process parameters to the melt spinning process a fiber model is used and coupled with CFD calculations of the quench air flow. In the fiber model energy, momentum and mass balance are solved for the polymer mass flow. To calculate the quench air the Lattice Boltzmann method is used. Simulations and experiments for different process parameters and hole configurations are compared and show a good agreement. Keywords: Melt spinning, fiber model, Lattice Boltzmann, CFD.
Abstract
The main theme of this thesis is about Graph Coloring Applications and Defining Sets in Graph Theory.
As in the case of block designs, finding defining sets seems to be difficult problem, and there is not a general conclusion. Hence we confine us here to some special types of graphs like bipartite graphs, complete graphs, etc.
In this work, four new concepts of defining sets are introduced:
• Defining sets for perfect (maximum) matchings
• Defining sets for independent sets
• Defining sets for edge colorings
• Defining set for maximal (maximum) clique
Furthermore, some algorithms to find and construct the defining sets are introduced. A review on some known kinds of defining sets in graph theory is also incorporated, in chapter 2 the basic definitions and some relevant notations used in this work are introduced.
chapter 3 discusses the maximum and perfect matchings and a new concept for a defining set for perfect matching.
Different kinds of graph colorings and their applications are the subject of chapter 4.
Chapter 5 deals with defining sets in graph coloring. New results are discussed along with already existing research results, an algorithm is introduced, which enables to determine a defining set of a graph coloring.
In chapter 6, cliques are discussed. An algorithm for the determination of cliques using their defining sets. Several examples are included.
Within Fibre Reinforced Plastics (FRP) manufacturing technologies, Liquid Composite
Moulding (LCM) describes a group of cost efficient processes that provide an outstanding
variety of possibilities for the manufacture of parts of virtually any size and
complexity. In addition to the classic pressure supported Resin Transfer Moulding
(RTM) process, techniques such as the VARTM (Vacuum Assisted RTM), the ARTM
(Advanced RTM) and the SCRIMP® (Seeman Composite Resin Infusion Molding Process)
are well established. Each of the different techniques utilizes the same method – a
thermoset resin is injected into a mould containing the reinforcement. The impregnation
of the reinforcing structure by a resin in a closed mould permits the combination of a
wide range of matrix systems and reinforcing materials. With the gelation and curing of
the resin after the completed injection, the finished part is ready to be demoulded.
The overall process is influenced by many parameters including:
• the reinforcing structure,
• the viscosity and curing properties of the thermoset resin,
• the position of inlet and outlet,
• the pressure distribution throughout the mould and
• the geometry and size of the part.
Though the process chain has to be analysed as one – from the raw materials to the
finished part – the key step within that chain is the injection and impregnation of the porous
reinforcing structure within the closed mould. An inherent property of any porous
material characterized by its ability to let a fluid flow through under the driving force of a
pressure gradient, is the material’s permeability. Because it controls the propagation
velocity of the resin system in the mould, the permeability of the reinforcing material is
crucial for both understanding and modeling the RTM-process. Consequently, measurement and determination of the flow front propagation is necessary to further the development
of the LCM-process and to maximize high volume productions while maintaining
overall quality and process control.
The importance of the reinforcing structure and the effects on the RTM-process make it
clear that a separate evaluation of key characteristics such as permeability is the best way to understand the process. As such, characterizing the permeability of fibre structures
can offer valuable information about the general design of the preform structure as
well as the preform structure’s influence on permeability alterations.
Though the importance of an online control of the in-mould flow propagation processes
is recognized as an important tool, existing efforts to describe and control the flow front
position on a continuous basis have severe problems. Apart from others, the high temperatures
and pressures occurring, the thermosetting materials and their chemistry, as
well as the high geometrical complexity of moulds are issues to be taken into account
during the development of new mould integrated sensor systems.
A customized Capacitive Condensator Reading System (CCRS) provides the ability to
incorporate the above features with a continuous online determination of the flow-front
position in closed moulds. The condensator is integrated within the mould surface and is
able to measure the spreading of the resin by the differentiation of the complex dielectric
constant of air and resin. This system resolves the particularly difficult problem of
gathering data concerning the permeability of conductive fabrics (i.e. of carbon fibre
fabrics), which cannot be measured by a standard capacity sensor. Investigation and
experimental work lead to the result that (although exhibiting a ‘Faraday’s cage’) by
using an insulated sensor and a newly developed and customized electronic data
acquisition system the propagation of a fluid can be determined.
As a result, the newly developed capacitive sensor system allows the online determination
of the flow front propagation of liquid systems in both non electric conducting and
conducting reinforcing structures throughout the injection processes in closed moulds.
When compared to existing measurement methods, the benefits of the Capacitive Condensator
Reading System are:
• online continuous determination of flow front propagation,
• online data acquisition for permeability calculations,
• online fibre volume fraction control,
• online cavity height control,
• online curing documentation
and the ability to • allow high volume fractions and injection pressures,
• withstand high tool and resin temperatures,
• allow any geometry within the tool.
With the understanding that the process chain is a complex production cycle with its
various interacting elements and the possibility to document these completely in an
overall quality and process control, the realization of the potentials of the LCMtechnologies
will perform even more outstanding manufacturing possibilities for high
quality and high volume productions in the future.
Free Surface Lattice-Boltzmann Method To Model The Filling Of Expanding Cavities By Bingham Fluids
(2001)
The filling process of viscoplastic metal alloys and plastics in expanding cavities is modelled using the lattice Boltzmann method in two and three dimensions. These models combine the regularized Bingham model for viscoplastic with a free-interface algorithm. The latter is based on a modified immiscible lattice Boltzmann model in which one species is the fluid and the other one is considered as vacuum. The boundary conditions at the curved liquid-vacuum interface are met without any geometrical front reconstruction from a first-order Chapman-Enskog expansion. The numerical results obtained with these models are found in good agreement with available theoretical and numerical analysis.
A Lagrangian particle scheme is applied to the projection method for the incompressible Navier-Stokes equations. The approximation of spatial derivatives is obtained by the weighted least squares method. The pressure Poisson equation is solved by a local iterative procedure with the help of the least squares method. Numerical tests are performed for two dimensional cases. The Couette flow, Poiseuelle flow, decaying shear flow and the driven cavity flow are presented. The numerical solutions are obtained for stationary as well as instationary cases and are compared with the analytical solutions for channel flows. Finally, the driven cavity in a unit square is considered and the stationary solution obtained from this scheme is compared with that from the finite element method.
We introduce two novel techniques for speeding up the generation of digital \((t,s)\)-sequences. Based on these results a new algorithm for the construction of Owen's randomly permuted \((t,s)\)-sequences is developed and analyzed. An implementation of the new techniques is available at http://www.cs.caltech.edu/~ilja/libseq/index.html
The study of families of curves with prescribed singularities has a long tradition. Its foundations were laid by Plücker, Severi, Segre, and Zariski at the beginning of the 20th century. Leading to interesting results with applications in singularity theory and in the topology of complex algebraic curves and surfaces it has attained the continuous attraction of algebraic geometers since then. Throughout this thesis we examine the varieties V(D,S1,...,Sr) of irreducible reduced curves in a fixed linear system |D| on a smooth projective surface S over the complex numbers having precisely r singular points of types S1,...,Sr. We are mainly interested in the following three questions: 1) Is V(D,S1,...,Sr) non-empty? 2) Is V(D,S1,...,Sr) T-smooth, that is smooth of the expected dimension? 3) Is V(D,S1,...Sr) irreducible? We would like to answer the questions in such a way that we present numerical conditions depending on invariants of the divisor D and of the singularity types S1,...,Sr, which ensure a positive answer. The main conditions which we derive will be of the type inv(S1)+...+inv(Sr) < aD^2+bD.K+c, where inv is some invariant of singularity types, a, b and c are some constants, and K is some fixed divisor. The case that S is the projective plane has been very well studied by many authors, and on other surfaces some results for curves with nodes and cusps have been derived in the past. We, however, consider arbitrary singularity types, and the results which we derive apply to large classes of surfaces, including surfaces in projective three-space, K3-surfaces, products of curves and geometrically ruled surfaces.
Ziel dieser Arbeit ist es, einen Beitrag zur Steigerung der Nutzung von SMC als Werkstoff für Strukturbauteile in Pkw zu leisten. Zunächst wird der Stand des Wis- sens der SMC-Technologie dargestellt. Ebenso sind der aktuelle Stand der Crashsi- mulation aufgearbeitet und die verfügbaren Tools zur Berechnung des Verhaltens von Faserverbundkunststoffen beschrieben.
Aus diesem Zusammenhang erfolgt die Ableitung des Entwicklungsbedarfs zur Nut- zung von SMC als Werkstoff für Strukturbauteile. Zunächst werden das Crashver- halten und das Energieabsorptionsvermögen von SMC-Materialien verschiedener Hersteller und unterschiedlicher Konfiguration untersucht: Standard-SMC- Materialien, SMC mit unidirektionaler Faserverstärkung, Leicht-SMC, Recyclat-SMC, flexibles SMC. Dabei werden verschiedene Probengeometrien (Rechteckrohr mit/ohne Flansch) bei unterschiedlichen Aufprallgeschwindigkeiten geprüft und die Ergebnisse analysiert. Diese Untersuchungen belegen, dass sich mit SMC Energie- absorptionskennwerte erreichen lassen, die über den Kennwerten klassischer Stähle liegen.
Als Fügeverfahren ist für Faserverbundstrukturen die Klebetechnik anzustreben. Aufgrund der Empfindlichkeit von Klebeverbindungen gegen schlagartige Beanspru- chung und der Bestätigung dieses Sachverhaltes bei den durchgeführten Crashver- suchen wurden die Klebeverbindungen der Rechteckrohrproben mit Flansch detail- liert untersucht. Da das Crashverhalten einer solchen Probe in starkem Maße von der Festigkeit der Verbindung abhängt, wurde eine Methode entwickelt, um die Crashtauglichkeit mit einem einfachen Versuch zu prüfen. Das Gesamtsystem (Fü- gepartner und Klebstoff) wurde hinsichtlich seiner Crasheignung bewertet.
lm Rahmen der Arbeiten zur Erstellung eines Modells zur numerischen Beschrei- bung des Materialverhaltens von SMC wurde ausgehend von Materialmodell MT54 in LS-DYNA ein modifiziertes Materialmodell für diesen Werkstoff entwickelt. Dazu erfolgte die Anpassung sowohl des Versagenskriteriums als auch des Nach- versagensverhaltens für SMC. Die Modellierung der Proben geschah nach Richtli- nien, die auch zukünftig bei größeren Strukturen Anwendung finden können. Die Va- lidierung des Materialmodells erfolgte anhand einfacher Rohrproben unter axialer Crashbelastung durch den Vergleich mit experimentellen Ergebnissen. ln den typi- schen Energieabsorptionskennwerten wurde eine gute Übereinstimmung zwischen Experiment und Simulation erreicht. lm Folgenden wurden die Anwendbarkeit des Modells im Rahmen der Crashanalyse eines SMC-Längsträgers getestet und Richtli- nien zur Auslegung von crashoptimierten Bauteilen aus SMC abgeleitet. Im letzten Kapitel werden die Ergebnisse der Arbeit zusammengefasst.
The aim of this thesis is the experimental investigation and numerical simulation of the crash behaviour of Sheet Moulding Compound (SMC) structures. The report is organised in three sections. The first section focuses on the experimental investiga- tion of the crash behaviour of rectangular SMC tubes with and without flange. The second section presents a test method to estimate the crash performance of adhe- sive joints of SMC. The third section deals with the development and use of a mate- rial model established for the crash simulation of SMC structures. All aspects focus on the fulfilment of typical requirements expected for materials with use in structural application of vehicles.
The experimental investigation included the measurement of standard material prop- erties and crash properties of eleven different SMC materials: six standard types with different fibre content, SMC with unidirectional reinforcement, flexible SMC, low den- sity SMC, natural fibre SMC and SMC with included recycled material. The crash specimen were rectangular tubes with and without flange with the following geomet- ric data: length 250 mm, wall thickness 3 mm, cross section of the tube 50x50 mm (with flange) or 50x25 mm (without flange). Both parts of each specimen were bonded with two different adhesives: a flexible PUR and a brittle EP adhesive. These adhesives were chosen in accordance with the pre-testing results. All crash speci- men were tested in quasistatic (100 mm/min) and dynamic (10 m/s) experimental set-up. All of them failed by progressive crushing with very homogeneous force- deformation curves. The energy absorption reached values up to 30 kJ/kg, which is a higher level than standard metals are able to provide. Special tests with an non axial impact demonstrated the crash capability of a non-optimised specimen up to a slope of 10°. Temperature and humidity reduce the crash performance with an maximum amount of about 17 % compared to vehicle specific boundary conditions.
The crash tests demonstrated the importance of a high quality bonding. The pro- gressive crushing of the rectangular tubes with flange is mainly influenced by the quality of the bonding areas. Some tests of this tubes - performed with other adhe- sives - led to a global and sudden failure of the whole bonding area. This experience led to the development of a new testing method for bonded fibre reinforced polymers (FRP). Literature study led to a transfer of the double cantilever beam testing of FRP to bonding testing of SMC. The state-of-the-art focuses on quasistatic testing. The method is extended to dynamic testing in a drop tower in experimental and theoreti- cal aspects, which allows to observe the crack growth in the adhesive joint while the specimen is under load. The analysis of the test results led to information about the crack-growth velocity, crack initiation energy and energy release rate. The compari- son of test results allows a ranking of adhesives concerning their capability for crashapplication. Different adhesives were included in this investigation. The results sup- ported the former choice of the fixed adhesives.
As mentioned before, today's design process requires the use of standard CAE methods such as crash simulation. The available simulation tools were not capable to consider any FRP-typical material properties. They focus on FRP laminates and need an alignment for each application of the tool. To improve the SMC crash simu- lation a standard material model (MT54 of LS-DYNA) was modified and adapted to SMC. The material is considered to be isotropic in plane. The maximum stress crite- rion proved to be valid for SMC failure in an axial loaded crash structure. The post failure behaviour is adapted to SMC under consideration of numerical based element deletion. The simulation results correspond very well with the test data from experi- ments with rectangular tube with and without flange. The force-deformation curves are quite similar. The used input parameters gave the same accuracy of results for all SMC with randomly distributed glass fibres. The modified simulation tool was veri- fied by the simulation of a longitudinal crash member made of SMC. This conical structure showed in the experiment an increase of the load level during progressive crushing. For the crash simulation of this structure the identical material set up was used as for the rectangular tubes. The results correspond very well with the experi- mental data. To support future development of crash loaded SMC parts an overview of rules to optimise such structures is given in a short summary.
A final conclusion in relation to the requirements for structural SMC parts leads to the following statements: SMC reaches a specific energy absorption level higher than standard metals. The developed test method allows the ranking of bonded SMC specimen concerning their crash performance. The new material model for the crash simulation of axial loaded SMC structures leads to a high level of conformity to ex- perimental data and appears to be very useful to design realistic structures.
Das Crashverhalten energieabsorbierender Strukturen aus faserverstärkten
Kunststoffen, die während ihres Gebrauchs wechselnden Temperaturen ausgesetzt
sind, wurde bislang nur wenig erforscht. Typische Anwendungstemperaturen in der
Automobilindustrie, ausgenommen Bauteile, welche direkt mit dem Motor verbunden
sind, bewegen sich zwischen -40 und 100 °C. Da ein polymeres Matrixsystem in
diesem Temperaturbereich stark veränderliche Festigkeiten und Steifigkeiten
aufweist, variieren auch die mechanischen Eigenschaften eines Faser-Kunststoff-
Verbundes (FKV). Dies gilt insbesondere bei Druckbelastungen, da gerade hier die
Fasern auf die Stützwirkung der Matrix angewiesen sind.
Die vorliegende Arbeit befasst sich mit der experimentellen Untersuchung des
Crashverhaltens gewebeverstärkter Thermoplaste und deren numerischer Simulation
unter dem Einfluss der Umgebungstemperatur. Da Faser-Kunststoff-Verbunde beim
Crashvorgang ein stark von der Belastungsgeschwindigkeit abhängiges Kraftniveau
aufweisen, muss die Crashprüfung im relevanten Geschwindigkeitsbereich oberhalb
ca. 4 km/h durchgeführt werden können. Hierzu wird die Crashanlage der Institut für
Verbundwerkstoffe GmbH (IVW) um eine Klimatisierungseinrichtung für Crashversuche
erweitert.
Die Versuche werden erstmals an Strukturen aus glas- und kohlenstoffgewebeverstärkten
technischen Thermoplasten (verschiedene Polyamide und Polycarbonat)
im Temperaturbereich zwischen –30 und 90 °C durchgeführt. Dabei zeigt sich, dass
die Umgebungstemperatur einen deutlichen Einfluss auf das Crashverhalten hat und
bei der Auslegung energieabsorbierender Strukturen berücksichtigt werden muss.
Die hierfür verantwortlichen Materialparameter werden identifiziert, um eine Aussage
über geeignete Faser-Matrix-Kombinationen für temperaturbelastete Bauteile treffen
zu können.
Die wesentlichen Ergebnisse dieser Arbeit sind:
• Die Temperaturabhängigkeit des Schubmoduls der Matrix und die Crashkennwerte des Verbundes (Mittelkraft und spezifisch absorbierte Energie) stehen
in direktem Zusammenhang. Dies gilt insbesondere beim Versagen des FKV im
Laminatbiegemode.
• Teilkristalline Thermoplaste, auch hochtemperaturbeständige Thermoplaste wie
PEEK, eignen sich wegen der starken Abhängigkeit des Schubmoduls von der
Temperatur nur begrenzt als Matrixsystem für crashbelastete Strukturen.
• Amorphe Thermoplaste, deren Glasübergangstemperatur über der Einsatztemperatur
des Absorbers liegt, zeigen nur einen geringen Abfall des Kraftniveaus
bei zunehmender Temperatur und sind daher zu bevorzugen.
Die derzeit in FE-Programmen implementierten Materialmodelle ermöglichen nicht
die gewünschte Prognosefähigkeit bei der Crashsimulation von Strukturen aus
gewebeverstärkten Thermoplasten, da die komplexen Versagensmechanismen nicht
erfasst werden. Am Beispiel von kohlenstoffgewebeverstärktem Polyamid 12 wird
das Versagensverhalten der experimentell untersuchten Crashabsorber analysiert
und die erforderlichen crashrelevanten Kennwerte ermittelt. Dabei ist das Nachversagensverhalten
unter Druckbelastung von besonderer Bedeutung. Um dieses zu
untersuchen, wurde im Rahmen dieser Arbeit ein Druckversuch definiert und eine
Vorgehensweise zur Bestimmung der erforderlichen Versagensparameter vorgestellt.
Die erzielten Simulationsergebnisse korrelieren mit den experimentell ermittelten
Werten im untersuchten Temperaturbereich sehr gut.
In der vorliegenden Arbeit wird das Verhalten von thermoplastischen
Verbundwerkstoffen mittels experimentellen und numerischen Untersuchungen
betrachtet. Das Ziel dieser Untersuchungen ist die Identifikation und Quantifikation
des Versagensverhaltens und der Energieabsorptionsmechanismen von geschichteten,
quasi-isotropen thermoplastischen Faser-Kunststoff-Verbunden und die Umsetzung
der gewonnenen Einsichten in Eigenschaften und Verhalten eines Materialmodells zur
Vorhersage des Crash-Verhaltens dieser Werkstoffe in transienten Analysen.
Vertreter der untersuchten Klassen sind un- und mittel-vertreckte Rundgestricke und
glasfaserverstärkte Thermoplaste (GMT). Die Untersuchungen an rundgestrickten
glasfaser-(GF)-verstärktem Polyethylentherephthalat (PET) waren Teil eines
Forschungsprojektes zur Charakterisierung sowohl der Verarbeitbarkeit als auch des
mechanischen Verhaltens. Experimente an GMT und Schnittfaser-GMT wurden
ebenfalls zum Vergleich mit dem Gestrick durchgeführt und dienen als Bestätigung
des beobachteten Verhaltens des Gestrickes.
Besonderer Aufmerksamkeit wird der Einfluß der Probengeometrie auf die Resultate
gewidmet, weil die Crash-Charakteristiken wesentlich von der Geometrie des
getesteten Probekörpers abhängen. Hierzu wurde ein Rundhutprofil zur Untersuchung
dieses Einflußes definiert. Diese spezielle Geometrie hat insbesondere Vorteile
hinsichtlich Energieabsorptionsvermögen sowie Herstellbarkeit von thermoplastischen
Verbundwerkstoffen (TPCs). Es wurden Impakt- und Perforationsversuche zur
Untersuchung der Schädigungsausbreitung und zur Charakterisierung der Zähigkeit
der untersuchten Materialien durchgeführt.
Geschichtete TPCs versagen hauptsächlich in einem Laminat-Biegemodus mit
kombiniertem intra- und interlaminaren Schub (transversaler Schub zwischen Lagen und teilweise mit transversalen Schubbrüchen in einzelnen Lagen). Durch eine
Kopplung der aktuellen Versagensmodi und Crash-Kennwerten wie der mittleren
Crash-Spannung, konnten Indikationen über die Relation zwischen Materialparameter
und absoluter Energieabsorption gewonnen werden.
Numerische Untersuchungen wurden mit einem expliziten Finiten Elemente-
Programm zur Simulation von dreidimensionalen, großen Verformungen durchgeführt.
Das Modell besteht bezüglich des Querschnittaufbaus aus einer mesoskopischen
Darstellung, die zwischen Matrix-zwischenlagen und mesoskopischen Verbundwerkstofflagen unterscheidet. Die Modellgeometrie stellt einen vereinfachten
Längsquerschnitt durch den Probekörper dar. Dabei wurden Einflüsse der Reibung
zwischen Impaktor und Material sowie zwischen einzelnen Lagen berücksichtigt.
Auch die lokal herrschende Dehnrate, Energie und Spannungs-Dehnungsverteilung
über die mesoskopischen Phasen konnten beobachtet werden. Dieses Modell zeigt
deutlich die verschiedenen Effekte, die durch den heterogenen Charakter des Laminats
entstehen, und gibt auch Hinweise für einige Erklärungen dieser Effekte.
Basierend auf den Resultaten der obengenannten Untersuchungen wurde ein
phänomenologisches Modell mit a-priori Information des inherenten
Materialverhaltens vorgeschlagen. Daher, daß das Crashverhalten vom heterogenen
Charakter des Werkstoffes dominiert wird, werden im Modell die Phasen separat
betrachtet. Eine einfache Methode zur Bestimmung der mesoskopischen Eigenschaften
wird diskutiert.
Zur Beschreibung des Verhaltens vom thermoplastischen Matrixsystem während
„Crushing“ würde ein dehnraten- und temperaturabhängiges Plastizitätsgesetz
ausreichen. Für die Beschreibung des Verhaltens der Verbundwerkstoffschichten wird
eine gekoppelte Plastizitäts- und Schädigungsformulierung vorgeschlagen. Ein solches
Modell kann sowohl den plastischen Anteil des Matrixsystems als auch das
„Softening“ - verursacht durch Faser-Matrix-Grenzflächenversagen und Faserbrüche -
beschreiben. Das vorgeschlagene Modell unterscheidet zwischen Belastungsfällen für
axiales „Crushing“ und Versagen ohne „Crushing“. Diese Unterteilung ermöglicht
eine explizite Modellierung des Werkstoffes unter Berücksichtigung des spezifischen
Materialzustandes und der Geometrie für den außerordentlichen Belastungsfall, der
zum progressiven Versagen führt.
Die Evolution plastidärer und eubakterieller Nukleotid-Transporter, die man aufgrund biochemischer und molekularer Eigenschaften zur Familie der nicht-mitochondrialen Nukleotid-Transporter zusammenfasst, ist noch völlig ungeklärt. Im Rahmen dieser Doktorarbeit wurde die evolutive Sequenzverwandtschaft dieser nicht-mitochondrialen Nukleotid-Transportern aus Pflanzen und Eubakterien eingehender untersucht. So konnten folgende wichtige Fragestellungen beantwortet werden: 1. Ist der nicht-mitochondriale Nukleotid-Transporter ausschließlich auf intrazelluläre Bakterien und Plastiden beschränkt? Unter Anwendung molekularbiologischer Techniken sowie der Computer-gestützten Analyse laufender Genom- und EST-Projekte wurde im gesamten Organismenreich (Eu- und Prokaryoten) nach weiteren homologen nicht-mitochondrialen Nukleotid-Transportern gesucht. Aufgrund der gewonnenen Daten konnte postuliert werden, dass die nicht-mitochondrialen Nukleotid-Transporter innerhalb der Eukaryoten ausschließlich auf Plastiden-haltige Organismen beschränkt und damit im gesamten Pflanzenreich verbreitet sind. Innerhalb der Prokaryoten wurden Mitglieder dieser Transporter-Familie bislang nur in einigen wenigen endosymbiontisch bzw. endoparasitisch lebenden Eubakterien identifiziert, die der Gattung Rickettsiales und Chlamydiales angehören. 2. Wie haben sich diese Transporter innerhalb der beiden Organismenreiche entwickelt? Aufgrund der molekularen Identifizierung eines nicht-mitochondrialen Nukleotid-Transporters aus Cyanophora paradoxa, konnte ein monophyletischer Ursprung aller homologen plastidären Transportproteine postuliert werden, da somit die älteste bzw. ursprünglichste Pflanze ein entsprechendes Transportsystem besitzt. Darüber hinaus wurde angenommen, dass im Verlauf der Pflanzenevolution zwischen niederen und höheren Pflanzen infolge der Ausbildung höherer Organisationsformen (Vielzeller) und der Differenzierung in Gewebe bzw. Organen Genduplikationen stattgefunden haben. Das eingeschränkte Vorkommen der nicht-mitochondrialen Nukleotid- Transporter innerhalb der Eubakterien wurde dadurch erklärt, dass die Chlamydien und Rickettsien als obligat intrazellulär lebende Eubakterien von der Außenwelt abgeschirmt sind und daher keine Möglichkeit zum Genaustausch mit weiteren Bakterienspezies besitzen. Dass Vorkommen eines solchen Transportsystems in Vertreter wurde in dieser Arbeit als mögliche Folge eines horizontaler Gentransfers diskutiert. 3. Woher stammt das Gen (Ursprung des Gens) und über welche möglichen evolutiven Wege könnte es auf die jeweiligen Organismen übertragen worden sein? Zahlreiche Indizien sprechen für eine de novo -Entstehung der pflanzlichen Nukleotid-Transporter im Zuge der primären Endosymbiose zwischen einem heterotrophen Eukaryoten und einem Cyanobakterium (Entstehung der ersten Pflanzenzelle). Bei dieser Neuentstehung wurde ein möglicher evolutiver Zusammenhang zwischen den mitochondrialen und nicht-mitochondrialen Nukleotid- Transportern indiziert, der für eine homologe Entwicklung der Sequenzmotive GLGANVALIF/V, MAYIPLD und GKSGGA in beiden Transporter-Familie sprechen könnte. Für den chlamydialen Nukleotid-Transporter wurde in der vorliegender Arbeit postuliert, dass Chlamydien dieses Gen sowie einige andere pflanzliche Gene mittels horizontalen Gentransfer aus einer frühen, einzelligen Pflanzenzelle erworben haben. Ferner wurde diskutiert, welche Wege für einen horizontaler Gentransfer zwischen Rickettsien und Chlamydien bzw. Rickettsien und Pflanzen möglich sein könnten, um das Vorkommen rickettsieller Nukleotid-Transporter zu erklären. 4. Inwiefern haben sich die Transporteigenschaften nicht-mitochondrialer Nukleotid- Transporter im Laufe ihrer divergenten Entwicklung verändert? Der nicht-mitochondriale Nukleotid-Transporters aus Holospora obtusa (NPTHo), einem obligaten Endosymbiont des Pantoffeltierchens, zeichnet sich im Vergleich zu den bisher charakterisierten Nukleotid-Transporter durch einzigartige Transporteigenschaften aus, die dem intrazellulären Eubakterium einen erheblichen Selektionsvorteil verleihen. Aus den kinetischen Daten des NPTHo- Protein wurde ein neuer Phosphat-gekoppelten Transportmechanismus postuliert, der auf die nichtmitochondrialen Nukleotid-Transporter übertragen ist, wodurch sich die generellen Probleme des bislang postulierten einfachen ATP/ADP-Antiports lösen lassen.
Diese Arbeit beschreibt die Untersuchung der Korrelationen zwischen den optischen Eigenschaften und den laserspezifischen Parametern von laseraktiven Festkörpermaterialien. Ein Schwerpunkt dieser Arbeit lag auf der Entwicklung von zweidimensionalen Meßverfahren zur Bestimmung der optischen und laserphysikalischen Eigenschaften von kristallinen Festkörpermaterialien mit einer räumlichen Auflösung zwischen 30 und 100 microm. Dazu wurden bekannte Methoden wie Messung der Absorption, Bestimmung der Fluoreszenzlebensdauer, die Schlierenmethode, das Polariskop und das Absorptionskalorimeter hinsichtlich Genauigkeit und räumlicher Auflösung verbessert, um für die zweidimensionalen Messungen eingesetzt werden zu können. Darüber hinaus müssen die Meßverfahren langzeitstabil sein, einen vollautomatischen Ablauf und eine quantitative Auswertung erlauben. Um die großen Datenmengen von maximal 2,8*10^6 Werten je Meßparameter und Probe handhaben zu können, wurde eine umfangreiche Softwarebibliothek zur Automatisierung der Messungen und zur Auswertung der Daten entwickelt. Die Auswertungsprogramme erlauben dabei beliebige Verknüpfungen zwischen den gemessenen Parametern. Voraussetzung hierfür war die Einführung eines kalibrierten Koordinatensystems für alle Meßverfahren. Mit den entwickelten Meßverfahren wurde eine Vielzahl verschiedener Proben und Materialien charakterisiert, um im ersten Schritt einen Überblick über mögliche Kristallfehler und deren Auswirkungen auf den Laserprozeß zu erhalten. Eine derart umfassende Charakterisierung von laseraktiven Materialien mit den dargestellten Genauigkeiten ist bisher noch nicht publiziert worden. Die präzise Charakterisierung der optischen Parameter und der laserphysikalischen Eigenschaften war in Verbindung mit der selbst entwickelten Software die Voraussetzung zur Untersuchung der Korrelationen zwischen diesen Parametern. Insbesondere die Untersuchung der Boulequerschnitte mit großem Durchmesser von bis zu 50 mm war sehr wichtig, da hier in derselben Probe Bereiche sehr unterschiedlicher Kristallqualität gemeinsam auftreten. Aus den Untersuchungen der Boulequerschnitte konnten Hinweise auf eine Korrelation zwischen den oben genannten Parametern abgeleitet werden, welche im Anschluß in einer quantitativen Analyse untersucht wurden. Daher war eine quantitative Bestimmung aller Parameter der Proben unabdingbar. Es konnte, wie theoretisch abgeleitet, ein linearer Zusammenhang zwischen den durch mechanische Spannungen induzierten Verlusten und den Laserparametern differentieller Wirkungsgrad und Schwelle nachgewiesen werden. Der Regressionskoeffizient der Korrelation zwischen diesen Parametern betrug für 3100 untersuchte Meßpunkte im Mittel r=0,76. Ebenso wurde der lineare Zusammenhang zwischen dem Betrag des Brechungsindexgradienten, der ein Maß für die optische Homogenität darstellt, und den gleichen Laserparametern gezeigt. Der mittlere Regressionskoeffizient ist mit r=0,65 etwas kleiner als im vorigen Fall, allerdings wurde der komplette Boulequerschnitt mit 265.000 Meßpunkten betrachtet, was kleinere Werte für r bei gleichstarker Korrelation erlaubt. In Einklang mit der Theorie wurde die Abhängigkeit der Korrelation der Parameter von der Transmission des Auskopplungsspiegels gezeigt. Eine Abhängigkeit des Brechungsindex von der Konzentration der Dotierung wurde qualitativ an einer ND:YAG Probe gezeigt. Die Verfahren wurden erfolgreich zur Charakterisierung von Czochralski-Nd:YAG, das erstmals mit einer Dotierungskonzentration von 2 at.% hergestellt werden konnte, angewandt. Der Vergleich mit dem sehr gut bekannten Nd:YAG mit einer Konzentration von 1 at.% zeigte keine Verschlechterung der Kristallqualität durch die Verdopplung der Dotierungskonzentration. Die Variationen im Betrag des Brechungsindexgradienten sind für beide Konzentrationen gleich groß. Diese Ergebnisse der optischen Charakterisierung konnten in Laserexperimenten auch bei hohen Ausgangsleistungen von 12 W bestätigt werden. Es wurde für das 2 at.% dotierte Material ein differentieller Wirkungsgrad von 56,6% und für 1 at.% dotiertes mit 53,8% nahezu der gleiche Wert bestimmt. Gegenüber einem Vergleichskristall aus Nd:YVO lieferte der 2 at.% Nd:YAG die höhere Ausgangsleistung, wobei zusätzlich berücksichtigt werden muß, daß der Nd:YVO Kristall bei 60% seiner Bruchgrenze und der 2 at.% Nd:YAG Kristall bei 39% seiner Bruchgrenze betrieben wurde. Mit der gleichen Systematik wurde die Qualitätskontrolle am Beispiel von Nd(0,9%):YAG Stäben aus der industriellen Fertigung demonstriert. Das Ausgangsmaterial wurde nach dem Zuchtvorgang einer Vorabprüfung unterzogen, um Defekte frühzeitig erkennen zu können. In Form einer Endkontrolle wurden die optischen Eigenschaften von fünf Stäben nach Durchlaufen des letzten Produktionsschrittes untersucht. Die Ergebnisse der Charakterisierung lieferten die kleinsten im Rahmen dieser Arbeit bestimmten Werte für den Betrag des Brechungsindexgradienten. Weiterhin demonstrierte die Untersuchung der Doppelbrechung, daß die vom Kern verursachten Spannungen, die sich über den ganzen Kristallboule ausbreiten, in den einzelnen Stäben nicht mehr vorhanden sind. Durch die hervorragenden Werte der optischen Homogenität und der Doppelbrechung sowie der sehr homogenen Verteilung der Dotierung konnte auf eine ausgezeichnete Kristallqualität geschlossen werden, was durch die Messung der Laserparameter bestätigt werden konnte. Es wurde im Multimodebetrieb ein differentieller Wirkungsgrad von maximal 68% erreicht, was sehr nahe an der theoretischen Obergrenze von 72% liegt. Mit der vorliegenden Arbeit wurde gezeigt, daß eine verläßliche Vorhersage der Lasereigenschaften aus optischen und spektroskopischen Daten möglich ist. Damit ist eine wichtige Vorbedingung zur Klassifizierung von laseraktiven Materialien nach bestimmten Qualitätsmerkmalen erfüllt. Eine Einführung von Qualitätsnormen mit definierten Prüfverfahren für laseraktive Materialien ist nun möglich. Die Umsetzung der in dieser Arbeit vorgeschlagenen Verfahren kann für die Laserindustrie der entscheidende Durchbruch von der Einzelfertigung in den Massenmarkt bedeuten.
Die typische Aufgabe eines Nahbereichsradarnetzes ist es, Fahrzeuge in einem definierten Überwachungsbereich, beispielsweise dem Rollfeld eines Flughafens, zu detektieren, zu orten und ihre Spur zu verfolgen. Wegen der stark unterschiedlichen Radarrückstreuquerschnitte der Radarziele sind die Anforderungen an den verfügbaren Dynamikbereich der einzelnen eingesetzten Radarempfänger sehr hoch. Bei niedriger Radarsignalleistung ist daher die Verwendung eines Impulskompressionsverfahrens notwendig. Beim Nahbereichsnetz NRN, im Rahmen dessen Entwicklung auch die vorliegende Arbeit entstand, wird zudem ein neuartiges Ortungsprinzip eingesetzt, weshalb die Radarstationen mit feststehenden, d. h. nicht-rotierenden Antennen mit breiter Antennencharakteristik ausgestattet werden können. Radarsignale setzen sich aus den Echosignalen von den Radarsendeimpuls reflektierenden Objekten, sowie dem Rauschen zusammen. Bei den reflektierenden Objekten handelt es nicht nur um die interessierenden Radarziele, d. h. die zu detektierenden Fahrzeuge. Wegen der Bodennähe, in der ein Nahbereichsradarnetz betrieben wird, sowie der zumindest beim NRN breiten Antennencharakteristiken erfaßt der Radastrahl eine Vielzahl weiterer Radarreflektoren, deren Echosignal, Cluttersignal genannt, das eigentliche Nutzsignalüberlagert. Darüberhinaus verursacht der Einsatz eines Impulskompressionsverfahrens i. a. eine künstliche störende Signalkomponente, die sogenannten Impulskompressionsnebenmaxima, die auch Eigenclutter genannt werden. Durch den Einsatz eines erwartungstreuen Impulskompressionsverfahrens beim NRN wird theoretisch keine Eigenclutterkomponente erzeugt. Es existieren jedoch Effekte, die die Eigenclutterfreiheit zerstören. Diese werden im ersten Teil der Arbeit untersucht. Es wird gezeigt, wie die Eigenclutterfreiheit wiederhergestellt werden kann. Im zweiten Teil der Arbeit wird das Cluttersignal von reflektierenden Objekten anhand von mit dem NRN gemessenen Signalzeitreihen analysiert. Ein Modell zur Beschreibung des Cluttersignals wird entwickelt. Mit den Methoden der Detektionstheorie wird ein optimales Filter- und Detektionsverfahren für ein vollständig unbekanntes Nutzsignal in einem durch dieses Modell beschreibbaren Störsignal abgeleitet. Um dieses Verfahren einzusetzen, ist die Kenntnis der Modellparameter erforderlich. Prinzipiell existieren verschiedene Methoden, die sich im Laufe der Zeit verändernden Modellparameter zu schätzen. Das Filter- und Detektionsverfahren kann dann stetig an die aktuellen Schätzungen der Parameter des Cluttersignalmodells adaptiert werden. Die Schätzung liefert jedoch im Falle des Vorhandenseins von Nutzsignalkomponenten verfälschte Parameterwerte. In der vorliegenden Arbeit werden verschiedene Methoden zur Adaptionskontrolle vorgeschlagen, die den Einfluß dieser verfälschten Parameterschätzungen auf die Nutzsignaldetektion minimieren. Damit existiert ein Algorithmus, der adaptiv aus dem Echosignal cluttersignalbeschreibende Parameter bestimmt, die ihrerseits von einem Filter- und Detektionsalgorithmus verwendet werden, um ein eventuell im Echosignal vorhandenes Nutzsignal optimal zu detektieren. Anhand von Radarechosignalen, die mit dem NRN bei Meßkampagnen aufgezeichnet wurden, sowie anhand von Simulationen wurde schließlich die Leistungsfähigkeit des entwickelten adaptiven Filter- und Detektionsverfahrens mit Adaptionskontrolle beim Einsatz in einem Nahbereichsradarnetz gezeigt.
Endliche Gruppen
(2001)
Eine Einführung mit dem Ziel der Klassifikation von Gruppen kleiner Ordnung. Skript zum Proseminar im WS 2000/01. Inhalt: Satz von Lagrange, Normalteiler, Homomorphismen, symmetrische Gruppe, alternierende Gruppe, Operieren, Konjugieren, (semi-)direkte Produkte, Erzeuger und Relationen, zyklische Gruppen, abelsche Gruppen, Sylowsätze, Automorphismengruppen, Klassifikation, auflösbare Gruppen.
In der empirischen, fragebogengestützten Analyse wurde die Nutzung von zweck- und prozeßbezogenen Unterstützungspotentialen des Internet von umweltberichterstattenden Unternehmen in Deutschland untersucht. Die Analyse ist in drei Kapitel gegliedert: Zur thematischen Einführung wird die Umweltberichterstattung von Unternehmen im Internet skizziert (Kapitel 2). Als Systematik von internetbasierten Unterstützungspotentialen zur Umweltberichterstattung wird eine vierteilige Gliederung zugrunde gelegt. Sie enthält inhalts-, darstellungs-, zweck- und prozeßbezogene Unterstützungspotentiale. An die Systematik schließt sich eine Darstellung der Forschungssituation zur Umweltberichterstattung, insbesondere zu der im In-ternet, an (Kapitel 3). Damit ist die Basis für die eigens in 2000 durchgeführte empirische Analyse gelegt (Kapitel 4). Die Untersuchungsergebnisse umfassen - neben der Darlegung der Untersuchungsmethodik (Abschnitt 4.1) - die empirischen Befunde zu folgenden spezifischen Fragenbereichen: Allgemeines zu Internet-Umweltberichten (Abschnitt 4.2), Information der Öffentlichkeit (Abschnitt 4.3), Kommunikation mit Zielgruppen (Abschnitt 4.4), Integration von Internet-Umweltberichten in die Unternehmenskommunikation (Abschnitt 4.5), Transparenz durch Internet-Umweltberichte (Abschnitt 4.6) sowie Erstellung von Internet-Umweltberichten (Abschnitt 4.7).
Moderne Mobilfunksysteme, die nach dem zellularen Konzept arbeiten, sind interferenzbegrenzte Systeme. Ein wesentliches Ziel beim Entwurf zukünftiger Mobilfunkkonzepte ist daher die Reduktion der auftretenden Interferenz. Nur so läßt sich die spektrale Effizienz künftiger Mobilfunksysteme noch signifikant gegenüber dem Stand der Technik steigern. Die Elimination der Intrazellinterferenz, das heißt der auftretenden Wechselwirkungen zwischen Signalen mehrerer von der gleichen Zelle bedienter Teilnehmer, durch gemeinsame Detektion (engl. Joint Detection, JD) ist bereits ein wesentliches Merkmal des Luftschnittstellenkonzepts TD-CDMA. Ein bislang noch weitgehend unbeachtetes Potential zum Steigern von spektraler Effizienz und Kapazität hingegen ist die Reduktion der Interzellinterferenz, das heißt der durch Teilnehmer verschiedener Zellen wechselseitig verursachten Interferenz. Insbesondere in Systemen mit niedrigen Clustergrößen verspricht eine Reduktion der in diesem Fall sehr starken Interzellinterferenz erhebliche Gewinne. Die Interzellinterferenzreduktion ist daher der logische nächste Schritt nach der Intrazellinterferenzreduktion. Die vorliegende Arbeit leistet einen Beitrag zum Entwickeln gewinnbringender Verfahren zur Reduktion der Interzellinterferenz in zukünftigen Mobilfunksystemen durch entsprechende Berücksichtigung und Elimination des Einflusses der Interzellinterferenzsignale in der empfängerseitigen Signalverarbeitung. Ziel ist eine verbesserte Schätzung der übertragenen Teilnehmerdaten zu erhalten, dazu werden Signale von Interzellinterferenzquellen beim Datenschätzen berücksichtigt. Die dabei benötigten Informationen werden mit den ebenfalls erläuterten Verfahren zur Identifikation und Selektion starker Interzellinterferenzquellen sowie einer gegenüber dem bisherigen Systementwurf erweiterten Kanalschätzung gewonnen. Es wird gezeigt, daß sich mit einem aufwandsgünstigen Detektor die relevanten Interzellinterferenzquellen zuverlässig identifizieren lassen. Mit einem auf kurze Mobilfunkkanäle, die in Hotspots vermehrt zu erwarten sind, optimierten Kanalschätzverfahren werden die aktuellen Mobilfunkkanalimpulsantworten für alle relevanten Teilnehmer bestimmt. Um die Datenschätzung für viele Teilnehmer durchführen zu können, wird das Schätzverfahren Multi-Step Joint Detection entworfen, das die von der herkömmlichen gemeinsamen Detektion bekannte SNR-Degradation verringert. Die Simulationsergebnisse zeigen die Leistungsfähigkeit des entworfenen Systemkonzeptes. Die Interzellinterferenzreduktionsverfahren können sowohl zum Erhöhen der spektralen Effizienz des Systems, als auch zu einer Verbesserung der Dienstgüte bei gleichbleibender spektraler Effizienz gewinnbringend eingesetzt werden.
As opposed to Monte Carlo integration the quasi-Monte Carlo method does not allow for an (consistent) error estimate from the samples used for the integral approximation. In addition the deterministic error bound of quasi-Monte Carlo integration is not accessible in the setting of computer graphics, since usually the integrands are of unbounded variation. The structure of the high dimensional functionals to be computed for photorealistic image synthesis implies the application of the randomized quasi-Monte Carlo method. Thus we can exploit low discrepancy sampling and at the same time we can estimate the variance. The resulting technique is much more efficient than previous bidirectional path tracing algorithms.
Abstract: Evacuation problems can be modeled as flow problems in dynamic networks. A dynamic network is defined by a directed graph G = (N,A) with sources, sinks and non-negative integral travel times and capacities for every arc (i,j) e A. The earliest arrival flow problem is to send a maximum amount of dynamic flow reaching the sink not only for the given time horizon T, but also for any time T' < T . This problem mimics the evacuation problem of public buildings where occupancies may not known. For the buildings where the number of occupancies is known and concentrated only in one source, the quickest flow model is used to find the minimum egress time. We propose in this paper a solution procedure for evacuation problems with a single source of the building where the occupancy number is either known or unknown. The possibility that the flow capacity may change due to the increasing of smoke density or fire obstructions can be mirrored in our model. The solution procedure looks iteratively for the shortest conditional augmenting path (SCAP) from source to sink and compute the time intervals in which flow reaches the sink via this path.
Der Variantenreichtum der Pentaphosphaferrocene konnte unter Verwendung von trimethylsilyl-substituierten CpR-Liganden erweitert werden. Neben den einfach und zweifach Tms-substituierten Cp- und Cp= Liganden kommt auch der gemischt substituierte Cp-'-Ligand zum Einsatz. Bei der Cothermolyse von [CpRFe(5-P5)] und [CpRCo(CO)2] entstehen eine Reihe von neuartigen und bekannten Cobalt und Eisen Mehrkernclustern mit unsubstituierten Pn-Liganden. Die Verbindungen [{Cp=Co}4P10], [{Cp=Co}4P4] und [{Cp-Co}4P4] fungierten ebenfalls in ausgewählten Reaktionen als Phosphorquelle mit einer erstaunlichen Produktpalette.
A natural extension of point facility location problems are those problems in which facilities are extensive, i.e. those that can not be represented by isolated points but as some dimensional structures such as straight lines, segments of lines, polygonal curves or circles. In this paper a review of the existing work on the location of extensive facilities in continuous spaces is given. Gaps in the knowledge are identified and suggestions for further research are made.
Congress Report 2001.12
(2001)
Congress Report 2001.11
(2001)
Congress Report 2001.10
(2001)
Congress Report 2001.09
(2001)