Refine
Year of publication
- 2006 (139) (remove)
Document Type
- Doctoral Thesis (69)
- Report (33)
- Periodical Part (14)
- Preprint (14)
- Working Paper (3)
- Diploma Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Moving Images (1)
- Study Thesis (1)
Keywords
- Elastic BVP (3)
- Apfelsaft (2)
- Apoptosis (2)
- Approximation (2)
- Curved viscous fibers (2)
- Elastisches RWP (2)
- Elastoplastisches RWP (2)
- Fluid dynamics (2)
- Hysterese (2)
- IMRT (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (31)
- Fraunhofer (ITWM) (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich ARUBI (10)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Universität (1)
Die am Fraunhofer-Institut für Experimentelles Software Engineering entwickelte MARMOT-Methode beschreibt einen Ansatz für die komponentenbasierte Entwicklung eingebetteter Systeme. Sie baut auf der ebenfalls am IESE entwickelten KobrA-Methode auf und erweitert diese um spezielle Anforderungen für eingebettete Systeme. Die Idee dahinter ist es, einzelne Komponenten zu modellieren, implementieren und zu testen um später auf vorhandene qualitätsgesicherte Komponenten zurückgreifen zu können, und zu Applikationen zu komponieren ohne diese immer wieder neu entwickeln und testen zu müssen. Im Rahmen dieser Projektarbeit sollte mit Hilfe der MARMOT-Methode ein Antikollisionssystem für ein Modellauto entwickelt werden. Nach Auswahl der hierfür geeigneten Hardware wurde zunächst ein Grundkonzept für die Sensorik entwickelt. Die vom verwendeten RADAR-Sensor gelieferten Signale müssen für die weitere Verwendung durch einen Mikrocontroller aufbereitet werden. Vor der eigentlichen Systemmodellierung musste deshalb zu diesem Zweck eine Sensorplatine entwickelt werden. Anschließend folgte die Modellierung des Antikollisionssystems in UML 2.0 und die Implementierung in C. Zum Abschluss wurde das Zusammenspiel der Hard- und Software getestet.
Matter-wave Optics of Dark-state Polaritons: Applications to Interferometry and Quantum Information
(2006)
The present work "Materwave Optics with Dark-state Polaritons: Applications to Interferometry and Quantum Information" deals in a broad sense with the subject of dark-states and in particular with the so-called dark-state polaritons introduced by M. Fleischhauer and M. D. Lukin. The dark-state polaritons can be regarded as a combined excitation of electromagnetic fields and spin/matter-waves. Within the framework of this thesis the special optical properties of the combined excitation are studied. On one hand a new procedure to spatially manipulate and to increase the excitation density of stored photons is described and on the other hand the properties are used to construct a new type of Sagnac Hybrid interferometer. The thesis is devided into four parts. In the introduction all notions necessary to understand the work are described, e.g.: electromagnetically induced transparency (EIT), dark-state polaritons and the Sagnac effect. The second chapter considers the method developed by A. Andre and M. D. Lukin to create stationary light pulses in specially dressed EIT-media. In a first step a set of field equations is derived and simplified by introducing a new set of normal modes. The absorption of one of the normal modes leads to the phenomenon of pulse-matching for the other mode and thereby to a diffusive spreading of its field envelope. All these considerations are based on a homogeneous field setup of the EIT preparation laser. If this restriction is dismissed one finds that a drift motion is superimposed to the diffusive spreading. By choosing a special laser configuration the drift motion can be tailored such that an effective force is created that counteracts the spreading. Moreover, the force can not only be strong enough to compensate the diffusive spreading but also to exceed this dynamics and hence to compress the field envelope of the excitation. The compression can be discribed using a Fokker-Planck equation of the Ornstein-Uhlenbeck type. The investigations show that the compression leads to an excitation of higher-order modes which decay very fast. In the last section of the chapter this exciation will be discussed in more detail and conditions will be given how the excitation of higher-order modes can be avoided or even suppressed. All results given in the chapter are supported by numerical simulatons. In the third chapter the matterwave optical properties of the dark-state polaritons will be studied. They will be used to construct a light-matterwave hybrid Sagnac interferometer. First the principle setup of such an interferometer will be sketched and the relevant equations of motion of light-matter interaction in a rotating frame will be derived. These form the basis of the following considerations of the dark-state polariton dynamics with and without the influence of external trapping potentials on the matterwave part of the polariton. It will be shown that a sensitivity enhancement compared to a passive laser gyroscope can be anticipated if the gaseous medium is initially in a superfluid quantum state in a ring-trap configuration. To achieve this enhancement a simultaneous coherence and momentum transfer is furthermore necessary. In the last part of the chapter the quantum sensitivity limit of the hybrid interferometer is derived using the one-particle density matrix equations incorporating the motion of the particles. To this end the Maxwell-Bloch equations are considered perturbatively in the rotation rate of the noninertial frame of reference and the susceptibility of the considered 3-level \(\Lambda\)-type system is derived in arbitrary order of the probe-field. This is done to determine the optimum operation point. With its help the anticipated quantum sensitivity of the light-matterwave hybrid Sagnac interferometer is calculated at the shot-noise limit and the results are compared to state-of-the-art laser and matterwave Sagnac interferometers. The last chapter of the thesis originates from a joint theoretical and experimental project with the AG Bergmann. This chapter does no longer consider the dark-state polaritons of the last two chapters but deals with the more general concept of dark states and in particular with the transient velocity selective dark states as introduced by E. Arimondo et al. In the experiment we could for the first time measure these states. The chapter starts with an introduction into the concept of velocity selective dark states as they occur in a \(\Lambda\)-configuration. Then we introduce the transient velocity selective dark-states as they occur in an particular extension of the \(\Lambda\)-system. For later use in the simulations the relevant equations of motion are derived in detail. The simulations are based on the solution of the generalized optical Bloch equations. Finally the experimental setup and procedure are explained and the theoretical and experimental results are compared.
Die Arbeit stellt die wissenschaftliche Aufbereitung von 6 Jahren Beratungsarbeit im Rahmen des von der Gesellschaft für technische Zusammenarbeit (GTZ) durchgeführten Projektes „Landmanagement Georgien“ zum Aufbau eines marktwirtschaftlichen Städtebau- und Raumordnungssystems in Georgien dar. Dabei geht es um die grundsätzliche Durchdringung eines komplexen Themenfeldes und den grundlegenden Aufbau einer bislang von westlicher Seite fehlenden Wissenschaftsbasis. In Georgien begannen die Privatisierungen im Jahr 1992: Wohnungen wurden verschenkt, Betriebe (bislang rund 20 Tausend) und sonstige Grundstücke werden verkauft bzw. versteigert. 1994 begann modellhaft für die Hauptstadt Tbilisi die Erstellung von Grundbuch/Kataster, d.h. der Aufbau eines öffentlichen Eigentumssicherungssystems für privaten Grundbesitz. Daher gilt es insbesondere für die bauliche und sonstige Nutzung von privaten Grundstücken verbindliche Spielregeln zu finden. Die Ausführungen konzentrieren sich vom Zielansatz folglich auf das in Georgien unbedingt erforderliche Spektrum von rechtsverbindlichen Mindestvereinbarungen in Form von Gesetzen, Verfahren sowie weichen und harten Instrumenten zur Steuerung der baulichen und gestaltungsrelevanten Bodennutzung im Sinne eines geordneten Städtebaus. Innerhalb dieser Schwerpunktsetzung, d.h. der Auseinandersetzung mit vorhandenen und zu schaffenden städtebaulichen (Rechts)Grundlagen, werden die Schnittstellen und Wechselwirkungen zur Raumordnung sowie zu politischen und administrativen Strukturen aufgezeigt, aber nicht vertieft. Eine Betrachtung des sowjetischen Planungssystems, bei dem es letztendlich auf allen Ebenen nur um die Verwirklichung staatlicher Großprojekte zur Steigerung der volkswirtschaftlichen Bilanz ging, sollen einerseits das schwierige psychische und physiognomische Erbe im Städtebau offen legen und andererseits die Dimension notwendiger Veränderungen bei den Transformationsprozessen verdeutlichen. Anhand einer zielorientierten Beschäftigung mit örtlichen Planungssystemen/-instrumenten in den Ländern Deutschland, Frankreich, Schweiz und Tschechien wird der Frage nachgegangen, welche zentralen Regelungen in der Marktwirtschaft für einen geordneten Städtebau unerlässlich sind. Damit werden generelle Maßstäbe und Leitlinien definiert, die bei der Transformation auf das georgische System kritisch hinterfragt und angepasst werden. Der räumliche Schwerpunkt bildet die Hauptstadt Tbilisi als dominantes Zentrum baulicher Aktivitäten. Darüber hinaus werden die Städte Kutaisi, Gori und Signaghi, jeweils stellvertretend für bestimmte Siedlungstypen/-größen betrachtet. Die Ergebnisse zeigen, dass sich der Städtebau in Georgien am Scheideweg befindet. Gesetze sind trotz formaler und inhaltlicher Schwächen vorhanden und leistungsfähig. Jetzt geht es um die Anwendung, eine bedarfsorientierte Instrumentalisierung und vor allem die Beachtung. Eine weitere, enorm wichtige Aufgabe stellt in diesem Zusammenhang die Festigung von Strukturen bei der Wahrnehmung von Planungsabläufen dar. Denn im Sozialismus gab es nur eindimensionale Entscheidungsstrukturen. Heute bestehen vielschichtige Strukturen und Möglichkeiten bei der Abwicklung von Planungsaufgaben. Aber trotz des vielfältigen Handlungsbedarfs konnte im Vergleich zu den benachbarten Kaukasusrepubliken Armenien und Aserbaidschan in Georgien viel erreicht werden. Die Arbeit kann dazu beitragen, die städtebaulichen Prozesse in Georgien scharfkantiger und zielgenauer zu führen. Anderen postsowjetischen Ländern kann sie als Leitfaden bei der Transformation der räumlichen Planungssysteme dienen. Darin liegt ein bedeutender Mehrwert.
We consider a volume maximization problem arising in gemstone cutting industry. The problem is formulated as a general semi-infinite program (GSIP) and solved using an interiorpoint method developed by Stein. It is shown, that the convexity assumption needed for the convergence of the algorithm can be satisfied by appropriate modelling. Clustering techniques are used to reduce the number of container constraints, which is necessary to make the subproblems practically tractable. An iterative process consisting of GSIP optimization and adaptive refinement steps is then employed to obtain an optimal solution which is also feasible for the original problem. Some numerical results based on realworld data are also presented.
The stationary heat equation is solved with periodic boundary conditions in geometrically complex composite materials with high contrast in the thermal conductivities of the individual phases. This is achieved by harmonic averaging and explicitly introducing the jumps across the material interfaces as additional variables. The continuity of the heat flux yields the needed extra equations for these variables. A Schur-complent formulation for the new variables is derived that is solved using the FFT and BiCGStab methods. The EJ-HEAT solver is given as a 3-page Matlab program in the Appendix. The C++ implementation is used for material design studies. It solves 3-dimensional problems with around 190 Mio variables on a 64-bit AMD Opteron desktop system in less than 6 GB memory and in minutes to hours, depending on the contrast and required accuracy. The approach may also be used to compute effective electric conductivities because they are governed by the stationary heat equation.
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
Mechanische Eigenschaften von Nanoverbundwerkstoffen aus Epoxydharz und keramischen Nanoparktikeln
(2006)
Diese Arbeit zielt auf die Entwicklung duroplastischer Nanoverbundwerkstoffe mit hoher
mechanischer und tribologischer Leistungsfähigkeit. Die Basismaterialien sind
Epoxydharz als Matrix sowie keramische Nanopartikel aus Aluminiumoxid und Titandioxid
als Verstärkungsmaterial. Die systematische Variation von Partikelvolumengehalten
und die Herstellung von Nanoverbundwerkstoffen in Serien führen zum Ziel.
Aus diesen Serien lassen sich die für ein gewünschtes Eigenschaftsprofil optimalen
Partikelgehalte ableiten.
Die praxisorientierte Herstellung von Nanoverbundwerkstoffen erfordert die Anwendung
industrienaher und skalierbarer Methoden zur Einarbeitung der pulverförmigen,
agglomerierten Nanopartikel in das flüssige Harz, gefolgt von deren Dispergierung. Dazu
wurden mechanische Dispergiertechnologien ausgewählt und eingesetzt, welche
die Agglomerate durch Einwirkung hoher Kräfte zerkleinern. Dissolver und Tauchmühlen
erwiesen sich als geeignete Maschinen, denn sie erlauben die Dispergierung unter
exakt kontrollierbaren Prozessbedingungen und bewirken eine homogene Verteilung
kleiner Teilchen im flüssigen Epoxydharz, ein Zustand, der auch im ausgehärteten
Material erhalten bleibt. Diese Arbeit stellt geeignete Dispergierprozesse für Dissolver
und Tauchmühle zur Verfügung.
Die so hergestellten Serien an Nanoverbundwerkstoffen wurden umfangreich materialwissenschaftlich
charakterisiert und nach Ursachen für die Wirkung der eingebrachten
Nanopartikel gesucht. Es ergeben sich bei guter Dispergierung deutliche Verbesserungen
der mechanischen Eigenschaften, wobei geringe Nanopartikelgehalte (<5 Vol.%)
bereits ausreichen, um diese zu erzielen. Abhängig vom Partikelgehalt demonstrieren
die Materialien Steigerungen des Elastizitätsmoduls und der Festigkeit bei sehr geringen
Einbußen an Duktilität. Die eingehende Untersuchung der bruchmechanischen
Eigenschaften mittels LEBM liefert Zähigkeitsanstiege (KIc, GIc, CTOD), die mit einer
üblichen Kautschuk-Modifizierung durchaus vergleichbar sind, ohne jedoch deren
Nachteile in Form eines Modulabfalles in Kauf nehmen zu müssen. Keramische Nanopartikel
leisten damit die Auflösung des Steifigkeit-/Zähigkeits-Paradigmas, wodurch
nun Werkstoffe entwickelbar sind, die sich durch verbesserte Bruchzähigkeit bei gleichzeitiger
Steifigkeits- und Festigkeitserhöhung auszeichnen. Mit diesen Charakteristiken
geht auch die Erhöhung der Glasübergangstemperatur und Temperaturstabilität einher.
Unter dynamischer Belastung behindern Nanopartikel sogar die Ausbreitung von
Rissen im Kunststoff und heben damit den Widerstand gegen Ermüdungsrissausbreitung
auf ein höheres Niveau. Weiterhin verbessern geringe Nanopartikelgehalte (0,5-2
Vol%) den Verschleißwiderstand von Epoxydharz unter Gleitverschleißbedingungen.
Fraktographische Untersuchungen ergaben Hinweise auf die verantwortlichen Verstärkungsmechanismen.
Die Nanopartikel bewirken eine Superposition verschiedener
energiedissipativer Mechanismen im Epoxydharz, z.B. Crack pinning, Debonding,
plastische Deformation der Matrix, Mikrorissbildung, Rissablenkung und Ausrundung
der Riss-Spitze. Diese stehen in engem Zusammenhang zur Mikrostruktur der Materialien.
Den Fingerabdruck dieser Mikrostruktur lieferten mikroskopische Methoden
(REM, TEM, AFM). Sie beweisen, dass bereits das Epoxydharz eine komplexe Struktur
aufweist, die sich freilich durch den Einfluss der Nanopartikel und die resultierenden
Grenzflächenwechselwirkungen stark ändert. Um Zusammenhänge zu verdeutlichen,
wurden mikrostrukturelle und mechanische Eigenschaften korreliert, und teilweise
analytisch modelliert (Young’scher Modul). Als hilfreich erwiesen sich hier ergänzende
Untersuchungen der mikromechanischen Eigenschaften in kleinsten Bereichen der
Werkstoffe mittels Nanoindentation.
Im Hinblick auf traditionelle und seit langem bewährte Verbundwerkstoff-Rezepturen
hat sich gezeigt, dass Nanopartikeln ihre Verstärkungswirkung auch in Kombination
mit Mikropartikel (Glaskugeln, CaSiO3) bewahren, sodass bei vergleichbarem oder
erhöhtem Nutzen der Mikropartikelanteil reduziert werden kann.
Aufgrund der überzeugenden Eigenschaften bieten duroplastische Nanoverbundwerkstoffe
ein großes Anwendungspotenzial. Sie sind als tribologisch und mechanisch widerstandsfähige
Beschichtungen, als Matrizes in faserverstärkten Kompositen oder per
se einsetzbar.
This work focuses on the development of thermosetting nanocomposites with high
mechanical and tribological performance. The materials were chosen to be epoxy
resin as a matrix and ceramic nanoparticles (aluminium oxide and titanium dioxide)
as modifiers. The method of choice for reaching the aim is the systematic variation of
particle volume amounts and the manufacturing of series of nanocomposites, which
allow deducing the wished formulations.
The application oriented manufacturing of nanocomposites necessitates the use of
scalable industrial Methods for working the powdery nanoparticle agglomerates into
the liquid resin, followed by dispersion processes. For this purpose, mechanical dispersion
technologies have been chosen and applied, which break the agglomerates
under high shear forces. The Dissolver and the Torus Mill turned out to be suitable
devices allowing to disperse the particles under controlled processing conditions. This
results in a homogeneous distribution of particles in the liquid epoxy. In fact, the state
of well distributed the particles is preserved also in the cured resin. This work provides
suitable dispersion processes for both the Dissolver and the Torus Mill.
The newly developed nanocomposites were extensively characterized with respect to
their mechanical performance, and also with special attention to the reinforcing effects.
Provided that nanoparticles are well dispersed within the polymer, the mechanical
properties have proved to be strongly enhanced by the particles. Low filler amounts
(< 5 Vol.%) are already sufficient to gain the wished effects. Depending on the filler
volume fraction, the materials demonstrate improvements in modulus and strength
without reducing ductility. The detailed examination of fracture mechanical properties
by means of LEFM revealed toughness increases (KIc, GIc, CTOD) which are comparable
to that of rubber tougheners in epoxy. However, the traditional loss in modulus
in the latter systems is avoided by the use of nanoparticles. Accordingly, the ceramic
nanofillers are able to overcome the stiffness-toughness paradigm, so that materials
feature improved fracture toughness, stiffness and strength simultaneously can now be
developed. These characteristics are accompanied at the same time by an increase in
the glass transition temperature and the temperature stability. Besides, the nanoparticles hinder the propagation of small cracks within the matrix and increase the resistance
to fatigue crack propagation. As a matter of fact, one finds also the wear resistance
being improved under sliding wear conditions.
Examinations on fractured specimen surfaces provided information about the mechanisms
responsible for reinforcement. The nanoparticles generate a superposition of several energy dissipating mechanisms in the epoxy, e.g. crack pinning, debonding,
plastic deformation of the matrix, microcracking, crack deflection and crack tip blunting.
These are closely related to the microstructure of the materials. The characteristic
finger prints of the microstructure could be verified by microscopy methods (SEM,
TEM, AFM). It was proved true, that even in neat epoxy resin a complex microstructure
exists, which is, however, strongly influenced by the nanoparticles and the resulting
interfacial interactions. In order to clarify the relevant relationships, the microstructural
and mechanical properties were correlated. On the basis of the latter, the Young’s
modulus was modelled analytically. It proved to be helpful to supplementary conduct
micromechanical properties examinations by nanoindentation in small areas of the
material.
With respect to traditional and approved composite formulations, it was shown that the
nanoparticles preserve their reinforcing capabilities if combined with micro-fillers (glass
spheres, CaSiO3). Therefore, the absolute amount of micro-fillers might now be reduced
at comparable or even improved level of the material’s mechanical performance.
The persuasive properties of epoxy nanocomposites offer a great potential to be applied
in parts and components. They serve well as coatings with high wear resistance,
as matrices in fibre reinforced composites, and as bulk materials.
Das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil wurde in zwei humanen Interventionsstudien mit Biomarkern oxidativer Zellschädigung und Zellantwort charakterisiert. Ergänzend wurden ein Mehrfruchtsaftextrakt (ME) und ausgewählte potentiell antioxidativ wirksame Mehrfruchtsaftinhaltsstoffe (Anthocyane) in in vitro-Experimenten untersucht. In einer Interventionsstudie nahmen 18 männliche Probanden nach einer 3-wöchigen Run-in-Phase über vier Wochen täglich 700 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 19,1 mmol/L Trolox) auf. Anschließend folgte eine 3-wöchige Wash-out-Phase ohne Saftaufnahme. Neun der 18 Probanden nahmen zusätzlich an einer zweiten Interventionsstudie mit identischem Design teil, jedoch unter Verwendung eines Kontrollsaftes, in dem die phenolische Fraktion weitgehend technologisch entfernt wurde. Wöchentliche wurde Blut entnommen zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Lipidperoxidationsprodukte Malondialdehyd, Thiobarbitursäure-reaktive Substanzen und Isoprostane (Urin), Glutathionspiegel/-status und DNA-Bindungsaktivität des Transkriptionsfaktors NFkappaB. Ergänzend wurden die Konzentrationen der Carotinoide und des alpha-Tocopherols in Plasma bestimmt. In den in vitro-Experimenten kam ein zweistufiges Inkubationsprotokoll in humanen Blut- bzw. Kolonzelllinien (Jurkat, Caco-2) zur Anwendung: basierend auf einer 24 h bzw. 1 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Untersucht wurde neben der zellfreien Bestimmung der antioxidativen Kapazität (TEAC), die Modulation (oxidativer) DNA-Schädigung und des ROS-Levels in der Zelle. Die Ergebnisse der Interventionsstudie mit Mehrfruchtsaft zeigten eine signifikante Abnahme oxidativer DNA-Schäden (p< 0,0005), Zunahme des tGSH-Spiegels (p< 0,0005) und Anstieg des Glutathionstatus (p< 0,05) während der 4-wöchigen Saftaufnahme im Vergleich zu den 3-wöchigen Run-in-/Wash-out-Phasen. Eine signifikante Abnahme der Lipidperoxidation dagegen wurde nicht beobachtet. Es zeigte sich lediglich eine deutliche Tendenz zu einer Abnahme der Isoprostangehalte während der Saftaufnahme. Eine Verringerung der DNA-Bindungsaktivität von NFkappaB durch Saft war nicht nachweisbar. Die Plasmagehalte der Carotinoide und des alpha-Tocopherols, als mögliche und bekanntermaßen antioxidativ wirksame Substanzen, blieben während aller Interventionsphasen unverändert. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in der Studie mit Kontrollsaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte. Der ME zeigte eine ausgeprägte antioxidative Kapazität (4,64 mM Trolox) im zellfreien Testsystem. Der zelluläre ROS-Level wurde in vitro durch den Extrakt (bei 100-250 µg/mL) signifikant verringert (p< 0,05). Oxidative DNA-Schäden in Jurkat-/Caco-2-Zellen wurden durch den Extrakt nicht signifikant vermindert; es zeigte sich lediglich die Tendenz einer protektiven Wirkung (bei 10 µg/mL). Von den vergleichend in Jurkat-Zellen getesteten Anthocyanidinen zeigten Malvidin und Delphinidin nach 24 h Inkubation kein Potenzial zur Verringerung von DNA-Schäden. Bei einstündiger Antioxidansbehandlung dagegen, konnte ein einheitlicher Trend einer protektiven Modulation (bei 10-100 µM) beobachtet werden. Zusammenfassend besitzt der flavonoid/polyphenolreiche rote Mischfruchtsaft ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung in gesunden Probanden. Dieses geht, begründet aus den Ergebnissen der Saft-/Kontrollsaftstudie, vermutlich auf die phenolische Fraktion des Saftes zurück. Aufgrund der in vitro erhaltenen Daten kann die antioxidative Wirksamkeit jedoch nicht maßgeblich auf die untersuchte Substanzgruppe der Anthocyane zurückgeführt werden. Dies legt nahe, dass auch bisher nicht charakterisierte Substanzen/Stoffgruppen einen Beitrag zu der antioxidativen Wirksamkeit leisten.
Die vorliegende Arbeit beschäftigt sich mit der Synthese neuer C4,C5-funktionalisierter N-heterozyklische Carbenliganden. Der Aufbau der Liganden erfolgte über einen mehrstufigen Syntheseweg ausgehend von Glyoxyl und Trimethylamin. Das erhaltene 1,2-Diamin wurde mit Allymagnesiumchlorid in einer Additionsreaktion funktionalsiert. Anschließend erfolgte ein Ringschluß durch Umsetzung mit Triethylorthoformiat und NH4X (X = Cl, BF4, I). In einer RCM mit Grubbs 1 wurde aus den eingeführten Allylgruppen ein Cyclohexenring unter Abspaltung von Ethen gebildet. Durch eine Bromaddition bzw. Oxidation an der intramolekularen Doppelbindung wurden zwei weitere funktionalisierte Derivate synthetisiert. Das durch Oxidation entstandene trans-Diol wurde mit 3-(Triethoxysilyl)propyl- isocyanat umgesetzt, so dass ein funktionalsiertes Imidazoliumsalz synthetisiert wurde, welches eine Möglichkeit zur Immobilisierung an Kieselgel bietet. Die neu synthetisierten funktionalisierten NHC-Ligandenvorstufen wurden mit geeigneten Metallkomplexen zu NHC-Metallkomplexen umgesetzt. Dafür wurden Silber-, Rhodium-, Palladium- und Rutheniumkomplexe verwendet. Die neu hergestellten NHC-Palladium- und NHC-Rutheniumkomplexe wurden in Anwendungsreaktionen auf ihre Aktivität untersucht. Der NHC-Rutheniumkomplex besitzt eine Struktur vom Typ Hoveyda. Er wurde in einer RCM mit N,N-Diallyl-4-toluolsulfonamid als Substrat eingesetzt. Die erhaltenen Umsätze wurden mit Hoveyda II verglichen. Die NHC-Palladiumkomplexe wurden zunächst in einer Standardaminierung auf ihre Aktivität getestet. Als Testreaktion wurde die Umsetzung von p-Bromtolul mit Morpholin audgewählt. Es erfolgte ein Vergleich mit anderen Palladiumkatalysatoren: SIMes*HCl/Pd2dba3/KOtBu, Pd(OAc)2/BINAP/CsCO3. Weiterhin wurden die NHC-Palladiumkatalysatoren in der Synthese von Wirkstoffkandidaten für die präklinische Forschung eingesetzt. Bei den durchgeführten Reaktionen handelt es sich an allen Fällen um Aminierungen. Die auf diesen Weg erhalötnen neuen Verbindungen wurden in Folgereaktionen zu weiteren Testkandidaten umgesetzt. Die Wirkstoffkandidaten wurden in biologischen Assays auf ihre Wirksamkeit als Kinaseinhibitoren getestet.
Die Simulation von Prüfständen und insbesondere von Baugruppen und Gesamtfahrzeugen auf Prüfständen durch Kopplung von Mehrkörpersimulation mit Modellen für Regelung und Aktuatorik leistet einen wesentlichen Beitrag zur Entwicklungszeitverkürzung. In diesem Beitrag wird ein Kooperationsprojekt vorgestellt, in dem ein Co- Simulationsmodell für die beweglichen Massen sowie die Regelung und Hydraulik eines Gesamtfahrzeugprüfstands erstellt wurde. Es wird sowohl auf die Validierung des Fahrzeugmodells durch Straßenmessungen als auch auf die Identifikation und Validierung des Prüfstandsmodells einschließlich Servohydraulik und Regelung eingegangen.
Mit zunehmender Integration von immermehr Funktionalität in zukünftigen SoC-Designs erhöht sich die Bedeutung der funktionalen Verifikation auf der Blockebene. Nur Blockentwürfe mit extrem niedriger Fehlerrate erlauben eine schnelle Integration in einen SoC-Entwurf. Diese hohen Qualitätsansprüche können durch simulationsbasierte Verifikation nicht erreicht werden. Aus diesem Grund rücken Methoden zur formalen Entwurfsverifikation in den Fokus. Auf der Blockebene hat sich die Eigenschaftsprüfung basierend auf dem iterativen Schaltungsmodell als erfolgreiche Technologie herausgestellt. Trotzdem gibt es immer noch einige Design-Klassen, die für BIMC schwer zu handhaben sind. Hierzu gehören Schaltungen mit hoher sequentieller Tiefe sowie arithmetische Blöcke. Die fortlaufende Verbesserung der verwendeten Beweismethoden, z.B. der verwendeten SAT-Solver, wird der zunehmenden Komplexität immer größer werdender Blöcke alleine nicht gewachsen sein. Aus diesem Grund zeigt diese Arbeit auf, wie bereits in der Problemaufbereitung des Front-Ends eines Werkzeugs zur formalen Verifikation Maßnahmen zur Vereinfachung der entstehenden Beweisprobleme ergriffen werden können. In den beiden angesprochenen Problemfeldern werden dazu exemplarisch geeignete Freiheitsgrade bei der Modellgenerierung im Front-End identifiziert und zur Vereinfachung der Beweisaufgaben für das Back-End ausgenutzt.
In this study, 27 marine bacteria were screened for production of bioactive metabolites. Two strains from the surface of the soft coral Sinularia polydactyla, collected from the Red Sea, and three strains from different habitats in the North Sea were selected as a promising candidates for isolation of antimicrobial substances. A total of 50 compounds were isolated from the selected bacterial strains. From these metabolites 25 substances were known from natural sources, 10 substances were known as synthetic chemical and herein are reported as new natural products, and 13 metabolites are new. Two substances are still under elucidation. All new compounds were chemically and biologically characterized. Pseudoalteromonas sp. T268 produced simple phenol and oxindole derivatives. Production of homogentisic acid and WZ 268S-6 from this bacteria was affected by the salinity stress. WZ 268S-6 shows antimicrobial and cytotoxic activities. Its target is still unclear. Isolation of isatin from this strain points out for the possibility of using this substance as a chemotaxonomical marker for Alteromonas-like bacteria. A large number of nitro-substituted aromatic compounds were isolated from both Salegentibacter sp. T436 and Vibrio sp. WMBA1-4. They may be derived from metabolism of phenylalanine or tyrosine. From Salegentibacter sp. T436, 24 compounds were isolated, of which four compounds are new and six compounds were known as synthetic chemicals. WZ 436S-16 (dinitro-β-styrene) is the most potent antimicrobial and cytotoxic compound. It inhibits the oxygen uptake by N. coryli and causes apoptosis in the human promyelocytic leukaemia (HL-60 cells). From Vibrio sp. WMBA1-4, 13 new alkaloids were isolated, of which four were known as synthetic products and herein are reported as new substances from natural sources. The majority of these compounds show antimicrobial and cytotoxic activities. The cytotoxic activity of WMB4S-11 against the mouse lymphocytic leukaemia (L1210 cells) is due to the inhibition in the protein biosynthesis, while the remaining cytotoxic alkaloids have no effect on the synthesis of macromolecules in this cell line. The antibacterial activity of WMB4S-2, -11, -12, -13 and the antifungal activity of WMB4S-9 are not due to the inhibition in the macromolecules biosynthesis or in the oxygen uptake by the microorganisms. The biological activity of these nitro-aromatic compounds from Salegentibacter sp. T436 and Vibrio sp. WMBA1-4 is influenced by the presence of a nitro group and its position in respect to the hydroxyl group, number of the nitro groups, and the type of substitutions on the side chain. In diaryl-maleimide derivatives, types and position of substitution on the aryl rings, on the maleimide moity, and the hydrophobicity of the aryl ring itself lead to variations in the extent of the bioactivity of these derivatives. This is the first time that vibrindole (WMB4S-14) and turbomycin B or its noncationic form (WMB4S-15), isolated from Vibrio sp., are reported as cytotoxic compounds. WMB4S-15 inhibits the biosynthesis of macromolecules in L1210 cells. The structural similarity between some of the metabolites in this study and previously reported compounds from sponges, ascidians, and bryozoan indicates that the microbial origin of these compounds must be considered.
Durch vorangegangene Arbeiten wurden transgene Kartoffelpflanzen erzeugt, die eine verringerte Aktivität des plastidären ATP/ADP Transporters aufweisen (NTT-antisense). Die Knollen dieser Pflanzen zeigen nicht nur veränderte Gehalte an Primärmetaboliten sondern auch eine erhöhte Pathogen-Resistenz, zum Beispiel gegen den bakteriellen Krankheitserreger Erwinia carotovora ssp. atroseptica (Eca). In diesem Zusammenhang deuten neuere Veröffentlichungen auf eine Bedeutung von Transportproteinen für Wirt-Pathogen Wechselwirkungen hin. Im Zuge dieser Arbeit konnte durch die Herstellung eines Systems zur gezielten Erzeugung von Eca „K.O.“-Mutanten die Bedeutung von ausgewählten Sequenzen, welche für Transportproteine kodieren, analysiert werden. Hierbei zeigte sich, dass im Bezug auf die Virulenz von Eca, sowohl der Prolin- als auch der d-Galaktonattransport nur von untergeordneter Bedeutung ist. In weiteren Untersuchungen wurde allerdings der Karbonsäuremetabolismus und -transport von Eca als zentrales Element in der Entfaltung maximaler bakterieller Virulenz erkannt. Hierbei wurde das Cit1-Protein als hoch-affiner Citrattransporter, welcher über die bakterielle pmf energetisiert wird, identifiziert. Dieses Protein ist für ein Wachstum von Eca auf Citrat als einziger Kohlenstoffquelle notwendig und essentiell zur Etablierung einer vollständigen Pathogenese auf Kartoffelknollenscheibchen. So weisen Eca cit1 „K.O.“-Mutanten im Vergleich zu Wildtyp Zellen nicht nur eine geringere pektolytische Aktivität und Gewebemazeration, sondern auch ein reduziertes in planta Wachstum, auf. Des Weiteren wurde ermittelt, dass sich NTT-antisense Gewebe nicht nur durch eine erhöhte Pathogen-Resistenz auszeichnet, sondern auch erniedrigte Citratgehalte aufweist. Analog führte eine artifizielle Erhöhung des Citratgehaltes durch Infiltration von Knollengewebe zu einer deutlich erhöhten Gewebemazeration durch Eca sowie einer verringerten Akkumulation von Abwehrrelevanten pflanzlichen Gentranskripten (PR-Gene). Weitere untersuchte Eca-Mutanten belegten, dass im gemeinsamen Wirken mit anderen enzymatischen Komponenten, Citrat ein ambivalentes Molekül für pflanzliche Resistenz und bakterielle Virulenz ist. Weiterhin konnte gezeigt werden, dass Transportproteine nicht nur für die Virulenz von Eca, sondern auch für phytopathogene Pilze wie Magnaporthe grisea, von Bedeutung sind. So konnte durch die Kooperation mit der AG Thines (IBWF) das Genprodukt eines bei Pathogenese induzierten Genes (rig2), biochemisch charakterisiert werden. Hierbei wurde mittels Komplementation einer Hefemutante (22∆8AA) nachgewiesen, dass es sich bei diesem Protein um einen Prolin-Transporter handelt. Diese Arbeit zeigt, dass Transportproteine als ein wichtiges Element in Wirt-Pathogen Beziehungen wirken können und eine Charakterisierung solcher Proteine zum Verständnis dieser Wechselwirkungen unerlässlich ist.
We present the application of a meshfree method for simulations of interaction between fluids and flexible structures. As a flexible structure we consider a sheet of paper. In a two-dimensional framework this sheet can be modeled as curve by the dynamical Kirchhoff-Love theory. The external forces taken into account are gravitation and the pressure difference between upper and lower surface of the sheet. This pressure difference is computed using the Finite Pointset Method (FPM) for the incompressible Navier-Stokes equations. FPM is a meshfree, Lagrangian particle method. The dynamics of the sheet are computed by a finite difference method. We show the suitability of the meshfree method for simulations of fluid-structure interaction in several applications.
Adaptive Strukturoptimierung von Faserkunststoffverbunden unter Berücksichtigung bionischer Aspekte
(2006)
Es finden immer häufiger Faserverbundmaterialien in Strukturbauteilen Anwendung,
da bei konventionellen Materialien die Zielkriterien, wie definierte Festigkeit, Steifigkeit,
etc. nicht mehr bzw. nicht mit hinreichend geringem Bauteilgewicht erreicht werden
können. Angesichts der hohen Kosten ist es verständlich, dass Faserkunststoffverbunde
(FKV) vorzugsweise in den Bereichen eingesetzt werden, wo die eingangs
erwähnten Optimierungsziele hohe Priorität haben. Besonders hervorzuheben ist
hierbei die Luft- und Raumfahrt. Zunehmende Bedeutung gewinnt der Einsatz von
Faserverbundwerkstoffen aber auch in der Automobil- bzw. Maschinenbauindustrie.
Mit fortschreitender Verbesserung der Optimierungsmethoden sowie der Fertigungstechnologien
und der damit verbundenen Kostenreduktion, werden heute bereits
komplexe Module hergestellt. Das zieht wiederum eine lastgerechte und werkstoffspezifische
Konstruktion nach sich. Gegenstand der Arbeit ist die Entwicklung eines
Topologieoptimierungswerkzeuges zur werkstoffgerechten Auslegung von FKVStrukturen.
Ziel ist, FKV - eine Klasse von Hochleistungswerkstoffen, deren Potenzial
sich nur mit geeigneten Modellen zur Nutzung ihrer anisotropen Eigenschaften ausschöpfen
lässt - unter Berücksichtigung der technischen Realisierbarkeit zu optimieren.
Dabei werden natürliche Wachstumsprinzipien in einen iterativen Prozess überführt.
Als Ziel dieses Algorithmus kann entweder eine gezielte Steifigkeit oder eine
gewichtsoptimale Lösung bei hinreichender Festigkeit mit möglichst gleichmäßiger
Spannungsverteilung im Bauteil definiert werden. Erreicht wird dies durch eine effektive
Lastverteilung von hoch belasteten auf geringer belastete Bereiche und somit
auch die Optimierung der Materialverteilung. In diesem Designvorschlag wird die
Grundorientierung der Basisschicht, die kraftflussgerechte Orientierung der Laminateinzellagen
sowie die Topologie von Zulagenschichten bzw. des Gesamtlaminates
optimiert. Besonders interessant ist die adaptive Strukturoptimierung von FKVStrukturen
bei lokalen Zulagen an hoch belasteten Krafteinleitungsstellen bzw. allgemein
in Bereichen hoher Spannungen. Wie weiterhin gezeigt wird, ist die entwickelte
adaptive Topologie- und Faserwinkeloptimierung in Kombination aus technologischer,werkstoffmechanischer sowie wirtschaftlicher Sicht vorteilhaft und kann
problemlos in der Praxis angewandt werden.
More and more fibre-reinforced composite materials are being used in structural building
components because with conventional materials, the target criteria, such as
defined strength, rigidity etc. can no longer be achieved with a sufficiently low weight
of the structural components, if at all. In view of the high costs, it is understandable
that fibre-reinforced plastic composites tend to be used in technical areas where the
optimization goals mentioned above have a high priority. The aviation and aerospace
industry deserves special mention here. The use of fibre composite materials is also
gaining significance in the automotive and mechanical engineering industry. Thanks
to increasing improvements in optimization methods and manufacturing technologies
and the reduction in costs that this brings with it, complex modules are being produced
even today. This in turn ensures specific-material construction with the necessary
load-bearing properties. The objective of the presentation is the development of
a topology optimization tool for designing Fibre-plastic-composite (FPC)-structures
which is appropriate for each material involved. The objective is to optimize FPC – a
class of high-performance materials the potential of which can only be exploited with
suitable models for the utilization of their anisotropic properties – under consideration
of their capability for technical realization. In doing so, natural growth principles are
implemented into an iterative process, thereby enabling computer simulation. The
main goal of this algorithm is maximum rigidity with as even a distribution of tension
as possible throughout the component, which is achieved by distributing the load
from high-load to lower load bearing areas, thereby optimizing the material distribution.
The weight optimization of specific components is possible in this way. The basic
orientation of the base layer, the orientation of the individual laminate layers in a
manner appropriate to the power flux, as well as the topology of bonding layers
and/or the entire laminate are optimized in this design recommendation. Of particular
interest here is the adaptive structural optimization of FPC structures with localized
bonding to high-load bearing load introduction points or generally, in areas with high
stresses. As continues to be shown, the developed adaptive topology and fibre angle optimization is beneficial from a technological, material-mechanical and economical
point of view, and can be applied in everyday practice without any problems.
It is commonly believed that not all degrees of freedom are needed to produce good solutions for the treatment planning problem in intensity modulated radiotherapy treatment (IMRT). However, typical methods to exploit this fact have either increased the complexity of the optimization problem or were heuristic in nature. In this work we introduce a technique based on adaptively refining variable clusters to successively attain better treatment plans. The approach creates approximate solutions based on smaller models that may get arbitrarily close to the optimal solution. Although the method is illustrated using a specific treatment planning model, the components constituting the variable clustering and the adaptive refinement are independent of the particular optimization problem.
Die Gestaltungslehre setzt sich häufig das Ziel, die Wahrnehmung von Lernenden zu sensibilisieren, um deren Wahrnehmungsfähigkeit zu verbessern. Dabei steht vornehmlich der visuelle Aspekt von Wahrnehmung im Mittelpunkt. Nun stellt sich die Frage, ob und in welchem Maße die Gestaltungslehre dem Ziel einer solchen Wahrnehmungssensibilisierung überhaupt gerecht werden kann. Die vorliegende Arbeit untersuchte deshalb, in wieweit die visuelle Wahrnehmung durch eine fachspezifische Trainingssituation innerhalb einer Ausbildung zu beeinflussen ist. Dabei wurde die Veränderung der Wahrnehmungsfähigkeit differenziert betrachtet, geleitet von der Annahme, dass diese Veränderung sich sowohl in Bezug auf fachspezifische, als auch auf nicht fachspezifische Inhalte vollziehen könnte. Um also diese Frage nach der Beeinflussung von Wahrnehmung durch Training zu klären, wurden an der Fachhochschule Weihenstephan in den Studiengängen Landschaftsarchitektur und Landschaftsbau und -Management vergleichende Untersuchungen angestellt. Das Ziel: eventuelle Auswirkungen der Teilnahme von Studierenden am Gestaltungsfach Schrift abzubilden. In der Vorgehensweise orientierte sich die Untersuchung an den Erkenntnissen zum Wahrnehmungslernen. Weil Wahrnehmungslernen nach Gibson und Gibson bedeutet, dass die Differenzierungsleistung zunimmt, wurde in der Studie nach Unterschieden und Veränderungen im Differenzierungsvermögen bei den Untersuchungsteilnehmern gefahndet. Weil Wahrnehmungslernen nur in Folge eines entsprechenden Trainings einsetzt, lässt sich aus dem Nachweis einer Steigerung der Differenzierungsleistung schließen, dass eine vorweggegangene Trainingssituation – also in diesem Fall im Unterricht des Gestaltungsfaches Schrift – stattgefunden haben muss. Um die Differenzierungsleistung beim Wahrnehmen abzubilden, wurden Sortierungsaufgaben gestellt. Karten mit Schriftarten waren zu sortieren, um festzustellen ob sich die Differenzierungsleistung bezüglich fachspezifischer Inhalte verändert hat. Karten mit Abdrucken von Handflächen waren zu sortieren, um festzustellen ob sich auch die Differenzierungsleistung bezüglich allgemeiner nicht fachbezogener Inhalte verändert hat. Quantitative und qualitative Unterschiede in der Kategorienbildung der Sortierungen stehen für die Differenzierungsleistung. Im Ergebnis sprechen verschiedene Indizien dafür, dass die Differenzierungsleistung bezüglich fachspezifischer Inhalte bei den Teilnehmern am Unterricht zum Fach Schrift zugenommen hat – die Wahrnehmungsfähigkeit hat sich demzufolge zumindest fachbezogen steigern lassen. Eine Steigerung bezüglich allgemeiner Inhalte ließ sich hingegen nicht verzeichnen. Die Ergebnisse einer weiteren Gruppe von Studierenden zeigte, dass aber die Möglichkeit, Wahrnehmungsfähigkeit auch allgemein zu beeinflussen, nicht grundsätzlich auszuschließen ist. Der Nachweis scheint aber nur dann gelingen zu können, wenn die Testobjekte des Verfahrens entsprechend wissenschaftlicher Erkenntnisse in ihrer Struktur in ganz besonderer Weise den Objekten der Trainingssituation gleichen. Die Ergebnisse dieser weiteren Gruppe lassen außerdem vermuten, dass sich auch eine einmalig angewandte Sensibilisierung auf die Wahrnehmungsfähigkeit trainierend auswirken kann, dass aber ein solcher Trainingseffekt nicht zwingend anhält. Der Zeitrahmen des Trainings hat also offenbar Auswirkungen auf die Nachhaltigkeit des Effekts, Übung und Wiederholung ist – und so haben es auch Gibson und Gibson bestätigt – für das Eintreten von Wahrnehmungslernen von Bedeutung. Aus den Ergebnissen lässt sich folgern, dass die Wahrnehmungsfähigkeit im Sinne des Ziels der Gestaltungslehre hinsichtlich fachlicher Inhalte gesteigert werden kann.
For the last decade, optimization of beam orientations in intensitymodulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity proles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity proles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity proles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity proles for every selection of beam orientations, making the dependence between beam orientations and its intensity proles less important. We take advantage of this property to present a dynamic algorithm for beam orientation in IMRT which is based on multicriteria inverse planning. The algorithm approximates beam intensity proles iteratively instead of doing it for every selection of beam orientation, saving a considerable amount of calculation time. Every iteration goes from an N-beam plan to a plan with N + 1 beams. Beam selection criteria are based on a score function that minimizes the deviation from the prescribed dose, in addition to a reject-accept criterion. To illustrate the eciency of the algorithm it has been applied to an articial example where optimality is trivial and to three real clinical cases: a prostate carcinoma, a tumor in the head and neck region and a paraspinal tumor. In comparison to the standard equally spaced beam plans, improvements are reported in all of the three clinical examples, even, in some cases with a fewer number of beams.
The topic of this thesis is the coupling of an atomistic and a coarse scale region in molecular dynamics simulations with the focus on the reflection of waves at the interface between the two scales and the velocity of waves in the coarse scale region for a non-equilibrium process. First, two models from the literature for such a coupling, the concurrent coupling of length scales and the bridging scales method are investigated for a one dimensional system with harmonic interaction. It turns out that the concurrent coupling of length scales method leads to the reflection of fine scale waves at the interface, while the bridging scales method gives an approximated system that is not energy conserving. The velocity of waves in the coarse scale region is in both models not correct. To circumvent this problems, we present a coupling based on the displacement splitting of the bridging scales method together with choosing appropriate variables in orthogonal subspaces. This coupling allows the derivation of evolution equations of fine and coarse scale degrees of freedom together with a reflectionless boundary condition at the interface directly from the Lagrangian of the system. This leads to an energy conserving approximated system with a clear separation between modeling errors an errors due to the numerical solution. Possible approximations in the Lagrangian and the numerical computation of the memory integral and other numerical errors are discussed. We further present a method to choose the interpolation from coarse to atomistic scale in such a way, that the fine scale degrees of freedom in the coarse scale region can be neglected. The interpolation weights are computed by comparing the dispersion relations of the coarse scale equations and the fully atomistic system. With this new interpolation weights, the number of degrees of freedom can be drastically reduced without creating an error in the velocity of the waves in the coarse scale region. We give an alternative derivation of the new coupling with the Mori-Zwanzig projection operator formalism, and explain how the method can be extended to non-zero temperature simulations. For the comparison of the results of the approximated with the fully atomistic system, we use a local stress tensor and the energy in the atomistic region. Examples for the numerical solution of the approximated system for harmonic potentials are given in one and two dimensions.
The popularity of composite materials is constantly growing, which can be verified by
the rising number of composite parts in our everyday life. Examples of composite
parts can be found in the Airbus A 380 or the constantly increasing number of wind
turbines which contain composite rotor blades of over 50m length. Because of the
main features of composites, which are light weight combined with high strength and
the possibility of tailoring the strength and the stiffness of the composite according to
the requirements, their application is highly efficient and economic.
In order to manufacture a composite part by employing a Liquid Composite Molding
Process (LCM), it is first necessary to select an appropriate manufacturing process
such as the Resin Transfer Molding Process (RTM) and to design a mold which corresponds
to the requirements of the selected process. Then the stacking sequence of
the individual fibrous reinforcements is designed to withstand the loads on the final
part. To achieve an efficient composite manufacturing process, pre-shaped, handable,
dry reinforcing structures, so called preforms, need to be applied. Such preforms
can be assembled either by using conventional binder technologies or by the
recently developed “cut and sew approach”. A variety of available software simulation
tools support the design engineer in this task. These tools are, on the one hand, a
fast way of gaining information about the expected loads the mold has to endure during
the injection process. On the other hand, they provide the possibility to optimize
the injection process and its process parameters and to identify critical points of incomplete
saturation. With this information at hand, the design of the mold can be adjusted
in order to obtain optimal processing conditions for a slim and efficient production
cycle.
A prerequisite for employing these powerful simulation tools is to obtain thorough
knowledge of the required input parameters concerning the fibrous reinforcement to
be used. The most important input parameters are the compaction behavior and the
permeability of the fibrous stacking sequence. Because of the absence of modelbased
tools to provide this input information experimental determination methods
have to be employed.
This work introduces two semi-automated measurement cells which determine the inplane
permeability of fibrous reinforcements in an efficient manner, i.e. the dielectrical permeability work cell and the optical compaction and permeability work cell. The
latter of which can determine both the required compaction and the permeability information
in one single experiment. The design and manner of operating of the optical
compaction and permeability work cell is described and its functionality is validated
by a comparison of experimental results.
Die Arbeit beschäftigt sich mit den Charakteren des Normalisators und des Zentralisators eines Sylowtorus. Dabei wird jede Gruppe G vom Lie-Typ als Fixpunktgruppe einer einfach-zusammenhängenden einfachen Gruppe unter einer Frobeniusabbildung aufgefaßt. Für jeden Sylowtorus S der algebraischen Gruppe wird gezeigt, dass die irreduziblen Charaktere des Zentralisators von S in G sich auf ihre Trägheitsgruppe im Normalisator von S fortsetzen. Diese Fragestellung entsteht aus dem Studium der Höhe 0 Charaktere bei endlichen reduktiven Gruppen vom Lie-Typ im Zusammenhang mit der McKay-Vermutung. Neuere Resultate von Isaacs, Malle und Navarro führen diese Vermutung auf eine Eigenschaft von einfachen Gruppen zurück, die sie dann für eine Primzahl gut nennen. Bei Gruppen vom Lie-Typ zeigt das obige Resultat zusammen mit einer aktuellen Arbeit von Malle einige dabei wichtige und notwendige Eigenschaften. Anhand der Steinberg-Präsentation werden vor allem bei den klassischen Gruppen genauere Aussagen über die Struktur des Zentralisators und des Normalisators eines Sylowtorus bewiesen. Wichtig dabei ist die von Tits eingeführte erweiterte Weylgruppe, die starke Verbindungen zu Zopfgruppen besitzt. Das Resultat wird in zahlreichen Einzelfallbetrachtungen gezeigt, bei denen in dieser Arbeit bewiesene Vererbungsregeln von Fortsetzbarkeitseigenschaften benutzt werden.
Testing a new suspension based on real load data is performed on elaborate multi channel test rigs. Usually wheel forces and moments measured during driving maneuvers are reproduced on the rig. Because of the complicated interaction between rig and suspension each new rig configuration has to prove its efficiency with respect to the requirements and the configuration might be subject to optimization. This paper deals with modeling a new rig concept based on two hexapods. The real physical rig has been designed and meanwhile built by MOOG-FCS for VOLKSWAGEN. The aim of the simulation project reported here was twofold: First the simulation of the rig together with real VOLKSWAGEN suspension models at a time where the design was not yet finalized was used to verify and optimize the desired properties of the rig. Second the simulation environment was set up in a way that it can be used to prepare real tests on the rig. The model contains the geometric configuration as well as the hydraulics and the controller. It is implemented as an ADAMS/Car template and can be combined with different suspension models to get a complete assembly representing the entire test rig. Using this model, all steps required for a real test run such as controller adaptation, drive file iteration and simulation can be performed. Geometric or hydraulic parameters can be modified easily to improve the setup and adapt the system to the suspension and the load data.
Long fiber reinforced plastics with thermoplastic resin were steadily growing with an
ongoing success over many industries mainly automotive. Even during economically
difficult periods, they increased their output and their market share.
In addition to flow compression molding, semi-finished LFRT in form of granules were
introduced to new processes like injection molding.
This work covers two major topics to enlarge the performance of LFRTs. Firstly, it
shows a material development, which leads to flame retarded LFRT. Secondly, it
presents a new process method to improve especially dynamic mechanical properties
by laminating two compression molded sheets with no additional equipment.
One major restriction for further applications is represented by flammability of thermoplastics.
This thesis gains for a new potential. Encountering future legislative restrictions
a combination of halogen-free flame retardant and LFRT based on polypropylene
has been developed. Test results match the requirements in accordance to
flammability test UL 94 V0 (2.6 mm). Furthermore the mechanical properties
achieved a similar performance as standard-LFRTs. The polymer flow in compression
molding provokes a fiber orientation parallel to the direction of the flow front development.
A x-ray analysis in combination with a fiber orientation analysis show, that
rheology has a strong influence on the flow front development, fiber orientation and
compression work needed.
One advantage of flow compression molding is the free option in placing the polymer
melts in the cavity. The common mold design with male and female mold without slides
allows changing part thickness by different polymer melt volumes charged in the
cavity. This allows to proceed the compression molding process twice without demolding the first part. On a flat panel, the process of laminating two sheets by compression
molding is demonstrated. A first panel gets over molded by a second polymer
melt. This laminate provides a better performance than a singular molded panel
of the same thickness.
The higher substrate’s temperature the better is the adhesion of the first to the second
layer. Additionally, the best adhesion is achieved in the area of the second polymer
melt cavity placement. Furthermore an optimum in mechanical properties can be
obtained utilizing the same resin for the first and the second layer. A more advanced
material is shown with the combination of a standard-LFRT layer and a flame retarded
layer.
Calculations show, that the flame retardancy of LFRT on polypropylene can be economically
advantageous in comparison to the utilization of higher flame resistant polymer
for large parts. Nevertheless for each specific geometry as well as for certain
mechanical demands an evaluation on the best material to fit has to be carried out.
This work shows economically reasonable options either to improve the mechanical
performance and to enlarge materials properties by flame retardancy or to combine
both.
Die Inhalte der in zwei verschiedenen Bundesländern angebotenen Weiterbildungsveranstaltungen für Lehrer und Lehrerinnen aus dem psychologischen Themenfeld wurden den Themenbereichen des Rahmencurriculums "Psychologie in den Lehramtsstudiengängen" der Deutschen Gesellschaft für Psychologie (DGPs, 2002) zugeordnet. Sodann wurden die Angebote der Weiterbildungsinstitute mit Relevanzeinschätzungen derselben Themenbereiche durch Lehrkräfte aller Schularten verglichen. Diese Relevanzeinschätzungen waren in einer Fragebogenstudie (Dutke & Singleton, 2006a,b) von 233 Lehrkräften erhoben worden. Angebots- und Relevanzprofile waren korreliert. Im Vergleich zu den Relevanzurteilen unterrepräsentiert waren Themen wie motivationale und emotionale Bedingungen des Lernens und Lehrens, Interventionsmöglichkeiten bei Lern- und Leistungsauffälligkeiten oder der Umgang mit sozial-emotional auffälligem Verhalten. Im Angebot eher überrepräsentiert schienen Grundlagenfragen der Beratung und Intervention zu sein. Implikationen einer nachfrageorientierten Gestaltung der Weiterbildungsangebote sowie Konsequenzen für die Positionierung der Psychologie im Weiterbildungssektor für Lehrkräfte werden diskutiert.
Traffic flow on road networks has been a continuous source of challenging mathematical problems. Mathematical modelling can provide an understanding of dynamics of traffic flow and hence helpful in organizing the flow through the network. In this dissertation macroscopic models for the traffic flow in road networks are presented. The primary interest is the extension of the existing macroscopic road network models based on partial differential equations (PDE model). In order to overcome the difficulty of high computational costs of PDE model an ODE model has been introduced. In addition, steady state traffic flow model named as RSA model on road networks has been dicsussed. To obtain the optimal flow through the network cost functionals and corresponding optimal control problems are defined. The solution of these optimization problems provides an information of shortest path through the network subject to road conditions. The resulting constrained optimization problem is solved approximately by solving unconstrained problem invovling exact penalty functions and the penalty parameter. A good estimate of the threshold of the penalty parameter is defined. A well defined algorithm for solving a nonlinear, nonconvex equality and bound constrained optimization problem is introduced. The numerical results on the convergence history of the algorithm support the theoretical results. In addition to this, bottleneck situations in the traffic flow have been treated using a domain decomposition method (DDM). In particular this method could be used to solve the scalar conservation laws with the discontinuous flux functions corresponding to other physical problems too. This method is effective even when the flux function presents more than one discontinuity within the same spatial domain. It is found in the numerical results that the DDM is superior to other schemes and demonstrates good shock resolution.
* naive examples which show drawbacks of discrete wavelet transform and windowed Fourier transform; * adaptive partition (with a 'best basis' approach) of speech-like signals by means of local trigonometric bases with orthonormal windows. * extraction of formant-like features from the cosine transform; * further proceedingings for classification of vowels or voiced speech are suggested at the end.
Die vorliegende Arbeit befasst sich mit dem Tragverhalten eines belasteten quadratischen Fundamentes, das durch nachträglich oder gleichzeitig hergestellte Bohrpfähle unterfangen wird. Die Auswirkungen nachträglich unter Fundamenten hergestellter Pfähle auf das Tragverhalten des Gesamtsystems Fundament und Pfähle werden untersucht. Es sind sowohl numerische Untersuchungen als auch Versuche an einem großmaßstäblichen Labor-Modell durchgeführt worden. Die Einflüsse einer nachträglichen Herstellung von Bohrpfählen auf das Fundamenttragverhalten sowie Herstellungseinflüsse werden numerisch simuliert und mit Hilfe der Methode der Finiten Elemente (FEM) untersucht. Als Untergrund ist Sand angenommen. Es sind sowohl die unterfangenen Fundamente als auch zum Vergleich eine Fundamentplatte untersucht. Für die Fundamentplatte sowie die Pfähle wird ein linear elastisches Materialverhalten angenommen. Das Materialverhalten des Sandes ist durch ein elasto-plastisches Stoffmodell beschrieben. Die numerische Berechnungen sind mit dem 3D-Finite Elemente Programm NONSAP durchgeführt, in das das Stoffmodell für trockenen Sand implementiert wurde. Zur Überprüfung der Güte des verwendeten numerischen Rechenverfahrens einschließlich Stoffgesetz sind die Ergebnisse aus Modellversuche herangezogen. In den Parameterstudien wird das Tragverhalten des Pfahl-Fundamentes in Abhängigkeit verschiedener Parameter, z.B. Pfahllänge, Pfahldurchmesser, Porenzahl des Sands sowie Überlagerungsdruck numerisch berechnet. Anhand dieser Ergebnisse werden geschlossene analytische Beziehungen hergeleitet, mit denen das Tragverhalten des untersuchten Modells prognostiziert werden kann. Weiter sind die Widerstände des Fundamentes und der Pfähle getrennt ermittelt und es ist das Interaktionsverhalten beider Gründungselemente aufgezeigt worden.
Epidemiologische Studien geben Hinweise, dass eine obst- und gemüsereiche Kost präventiv gegen verschiedene ROS-assoziierte Krankheiten wirksam ist. Aufgrund der komplexen Zusammensetzung von Nahrungsmitteln ist schwer zu erfassen, welche Inhaltsstoffe für die Wirksamkeit maßgeblich sind. Phenolische Apfelsaftextrakte (AEs) aus Säften unterschiedlicher Apfelsorten und ein Tresterextrakt (APE03) wurden auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Darmzellen untersucht. Ein zweistufiges Inkubationsprotokoll kam in humanen Kolonzelllinien (Caco-2, HT29) zur Anwendung: basierend auf einer 24 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Die Apfelsaftextrakte wurden im Vergleich zu als Antioxidanzien beschriebenen Saftinhaltsstoffen (Rutin, Phloridzin, Epicatechin, Kaffeesäure, Chlorogensäure) und zu entsprechenden rekonstituierten Mischungen (rAEs) geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level und Glutathionspiegel. Zusätzlich wurden antioxidative Kapazität und die Stabilität der Einzelstoffe unter Inkubationsbedingungen erfasst. Die Apfelsaftextrakte zeigten eine ausgeprägte antioxidative Kapazität (3.6-4.2 mM Trolox), der Tresterextrakt APE03 war dabei wirksamer als die drei Saftextrakte. Die höheren TEAC-Werte der entsprechenden rAEs (4.7-7.3 mM Trolox) deuten auf eine zentrale Rolle der Einzelstoffe in der Mischung hin. Der zelluläre ROS-Level wurde durch die Extrakte AE01, AE02 und APE03 (1-100 µg/mL) und rAEs (0.5-50 µg/mL) in beiden Zelllinien signifikant verringert. AE04 war nur in HT29 Zellen wirksam. Oxidative DNA-Schäden in Caco-2 Zellen wurden durch die Extrakte (50-100 µg/mL) und deutlicher durch die rekonstituierten Mischungen (1 µg/mL) von AE01 und APE03 verringert. Von den Saftinhaltsstoffen zeigten Kaffeesäure und Rutin das höchste Potenzial zur Verringerung von DNA-Schäden; der zelluläre ROS-Level wurde am effektivsten durch Kaffeesäure und Chlorogensäure verringert. Der Glutathionspiegel von Caco-2 Zellen wurde durch AE02 und APE03 sowie durch Kaffeesäure, nicht jedoch durch andere Einzelstoffe oder Mischungen erhöht. Die Aglyka Quercetin und Phloretin, die aus Glykosiden im Intestinaltrakt freigesetzt werden können, wiesen in allen Endpunkten die höchste Wirksamkeit auf. Humane primäre Kolonzellen erwiesen sich in den Untersuchungen als ein weniger geeignetes Modellsystem, möglicherweise aufgrund der Art der gewählten Inkubation. Insgesamt erwiesen sich die phenolischen Apfelsaftextrakte als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzelllinien. Mit den begleitenden Untersuchungen von Mischungen und Einzelstoffen wurden Polyphenole (Kaffeesäure, Rutin, Chlorogensäure) identifiziert, die wesentlich zur protektiven Wirkung der Saftextrakte beitragen. Der gewählte in vitro-Prüfansatz erwies sich dabei als geeignet zur Charakterisierung der antioxidativen Wirksamkeit von Apfelsaftinhaltsstoffen in Darmzellen. Die antioxidative Wirksamkeit kann nicht alleine auf die untersuchten Hauptkomponenten zurückgeführt werden. Es liegt nahe, dass auch bisher nicht charakterisierte Substanzen/ Substanzgruppen ebenfalls einen Beitrag an der antioxidativen Wirksamkeit leisten. Eine möglichst umfassende Charaktersisierung von Apfelsaftinhaltsstoffen ist notwendig, gerade im Hinblick auf eine mögliche Prävention von Darmerkrankungen durch die Aufnahme von Apfelsaft.
Ownership Domains generalize ownership types. They support programming patterns like iterators that are not possible with ordinary ownership types. However, they are still too restrictive for cases in which an object X wants to access the public domains of an arbitrary number of other objects, which often happens in observer scenarios. To overcome this restriction, we developed so-called loose domains which abstract over several precise domains. That is, similar to the relation between supertypes and subtypes we have a relation between loose and precise domains. In addition, we simplified ownership domains by reducing the number of domains per object to two and hard-wiring the access permissions between domains. We formalized the resulting type system for an OO core language and proved type soundness and a fundamental accessibility property.
Biological Soil Crusts (BSCs), composed of lichens, mosses, green algae, microfungi and cyanobacteria are an ecological important part of the perennial landcover of many arid and semiarid regions (Belnap et al. 2001a), (Büdel 2002). In many arid and hyperarid areas BSCs form the only perennial "vegetation cover" largely due to their extensive resistance to drought (Lange et al. 1975). For the Central Namib Desert (Namibia), BSCs consisting of extraordinary vast lichen communities were recently mapped and classified into six morphological classes for a coastal area of 350 km x 60 km. Embedded into the project "BIOTA" (www.biota-africa.org) financed by the German Federal Ministry of Education and Research the study was undertaken in the framework of the PhD thesis by Christoph Schultz. Some of these lichen communities grouped together in so called "lichen fields" have already been studied concerning their ecology and diversity in the past (Lange et al. 1994), (Loris & Schieferstein 1992), (Loris et al. 2004), (Ullmann & Büdel 2001a), (Wessels 1989). Multispectral LANDSAT 7 ETM+ and LANDSAT 5 TM satellite imagery was utilized for an unitemporal supervised classification as well as for the establishment of a monitoring based on a combined retrospective supervised classification and change detection approach (Bock 2003), (Weiers et al. 2003). Results comprise the analysis of the mapped distribution of lichen communities for the Central Namib Desert as of 2003 as well as reconstructed distributions for the years 2000, 1999, 1992 and 1991 derived from retrospective supervised classification. This allows a first monitoring of the disturbance, destruction and recovery of the lichen communities in these arid environments including the analysis of the major abiotic processes involved. Further analysis of these abiotic processes is key for understanding the influence of Namib lichen communities on overall aeolian and water induced erosion rates, nutrient cycles, water balance and pedogenic processes (Belnap & Gillette 1998), (Belnap et al. 2001b), (Belnap 2001c), (Evans & Lange 2001), (McKenna Neumann & Maxwell 1999). In order to aid the understanding of these processes SRTM digital elevation model data as well as climate data sets were used as reference. Good correlation between geomorphological form elements as well as hydrological drainage system and the disturbance patterns derived from individual post classification change comparisons between the timeframes could be observed. Conjoined with the climate data sets sporadic foehn-like windstorms as well as extraordinary precipitation events were identified to largely affect the distribution patterns of lichen communities. Therefore the analysis and monitoring of the diversity, distribution and spatiotemporal change of Central Namib BSCs with the means of Remote Sensing and GIS applications proof to be important tools to create further understanding of desertification and degradation processes in these arid regions.
In this paper we address the improvement of transfer quality in public mass transit networks. Generally there are several transit operators offering service and our work is motivated by the question how their timetables can be altered to yield optimized transfer possibilities in the overall network. To achieve this, only small changes to the timetables are allowed. The set-up makes it possible to use a quadratic semi-assignment model to solve the optimization problem. We apply this model, equipped with a new way to assess transfer quality, to the solution of four real-world examples. It turns out that improvements in overall transfer quality can be determined by such optimization-based techniques. Therefore they can serve as a first step towards a decision support tool for planners of regional transit networks.
Im Rahmen dieser Arbeit wurden verschiedene Verbesserungspotentiale von Ottomotoren mit besonderer Berücksichtigung von Verbrauch und Drehmoment mit Hilfe der Motorprozeßrechnung untersucht. Insbesondere wurden die Zusammenhänge von Ursache und Wirkung einzelner Verbesserungsmaßnahmen herausgestellt. Zur Modellierung realer Motoren wurde die Simulationssoftware GT-Power verwendet, wobei die Regelung über Matlab/Simulink vorgenommen wurde. Aber auch mit vereinfachten Rechenmodellen, die unter dem Fortran-Programm VOMO oder der Rapid-Prototype-Software ASCET-SD erstellt wurden, waren aussagekräftige Motormodelle erstellt und Potentiale abgeleitet worden. Wenn das Auslassventil öffnet, geht dem Arbeitsprozeß in der Hochdruckschleife ein nicht unerheblicher Anteil an Abgasenergie verloren. Rechnungen zeigen ein hohes Potential zur Wirkungsgradsteigerung, wenn das Abgas bis zum Umgebungsdruck entspannt werden könnte. Die zur vollständigen Abgasexpansion notwendigen Expansionsverhältnisse lassen jedoch einen sinnvollen Motorbetrieb nicht zu. Eine realistischere Abschätzung mit einem vorgegeben Expansionsverhältnis von 20 zeigt immer noch ein theoretisches Wirkungsgradpotential von 7 bis 10%. Der drosselgesteuerte Ottomotor hat stets den Nachteil von hohen Pumpverlusten während des Ladungswechsels in der Teillast. Hier gibt es verschiedene Ansätze, diese Verluste zu minimieren. Benzin-Direkt-Einspritzung nutzt das Verfahren einer Verbrennung mit sehr hohem Luftüberschuss und erreicht dadurch nahezu eine vollständige Entdrosselung des Motors. Das Problem ist hierbei jedoch der erhöhte Mehraufwand zur Abgasnachbehandlung. Eine andere Möglichkeit, die selbe Wirkung der Entdrosselung zu erzielen, ist, den Motor mit sehr hohem Überschuss an Restgas zu betreiben. Der Vorteil gegenüber BDE ist, dass die Verbrennung konventionell mit Lambda=1 ablaufen kann. Die sehr hohe AGR-Rate, die hierfür notwendig ist, reduziert NOx gleichermaßen auf ein Minimum. Die hohen AGR-Mengen können durch einen variablen Ventiltrieb mit geeigneten Steuerzeiten bereit gestellt werden. Simulationen zeigen, dass in Teillastpunkten bei 60% AGR der Kraftstoffverbrauch um bis zu 20% verringert werden kann. Die Aufladung nimmt bei Ottomotoren einen immer wichtigeren Stellenwert ein. Der freisaugende Motor hat jedoch immer noch einige Vorteile, was Vollastverbrauch, transienten Hochlauf und Katalysator Light-off angeht. Mit einer variablen Saugrohrgeometrie, gepaart mit einem variablem Einlassventil, ist es möglich, in einem weiten Drehzahlbereich den Luftaufwand zu verbessern. Simulationen zeigen, dass bei optimaler Auslegung der Saugrohrlänge Luftaufwände von 110% erreicht werden können. Überlagert man hierbei noch ein variables Einlassventil, bringt dies darüber hinaus weitere Vorteile im Bereich des Anfahrdrehmomentes des Motors. Downsizing-Konzepte sind die konsequente Umsetzung turboaufgeladener Motoren zur Reduktion des Kraftstoffverbrauchs. Die Kombination von Abgasturboaufladung, BDE und variabler Einlassnockenwelle wurde an einem hubraumkleinen Forschungsmotor getestet und nachgebildet. Bei früher Phasenstellung war es möglich, das Drehmoment um 50% zu steigern. In diesen Betriebspunkten mit extrem hoher Ventilüberschneidung kommt es jedoch auch zu einem unerwünscht hohen Anteil von Überspülen von Frischluft, was zur Verminderung des Fanggrades führt. Die Abgaszusammensetzung ist hier charakterisiert durch Auftreten über- und unterstöchiometrischer Bereiche, bedingt durch Überspülen einerseits und fetter Verbrennung andererseits. Gelänge die vollständige Oxidation der unverbrannten Komponenten vor der Abgasturbine, könnte das Drehmoment um 30% angehoben werden. Eine weitere Möglichkeit, das stationäre und das transiente Drehmoment ottoaufgeladener Motoren zu verbessern, ist die Unterstützung durch einen elektrisch angetriebenen zusätzlichen Verdichter. Experimentelle Untersuchungen mit einem 14V betriebenen Zusatzverdichter im Fahrzeug dienten als Basis, um rechnerische Optimierungspotentiale herauszuarbeiten. Eine Strombegrenzung in Abhängigkeit von der Motordrehzahl erscheint sinnvoll, um die Belastung auf den Motor und das Bordnetz zu minimieren. Stromstärken zwischen 120 und 180A und kurzzeitige Leistungsanforderungen von 1,5 bis 2,4kW sind ausreichend, um einen transienten Hochlauf innerhalb 1 sec zu gewähren. Der Einfluss unterschiedlicher Verdichterradwerkstoffe spielt hierbei nur eine untergeordnete Rolle auf die Dynamik des Systems.
The validity of formulas w.r.t. a specification over first-order logic with a semantics based on all models is semi-decidable. Therefore, we may implement a proof procedure which finds a proof for every valid formula fully automatically. But this semantics often lacks intuition: Some pathological models such as the trivial model may produce unexpected results w.r.t. validity. Instead, we may consider just a class of special models, for instance, the class of all data models. Proofs are then performed using induction. But, inductive validity is not semi-decidable -- even for first-order logic. This theoretical drawback manifests itself in practical limitations: There are theorems that cannot be proved by induction directly but only generalizations can be proved. For their definition, we may have to extend the specification. Therefore, we cannot expect to prove interesting theorems fully automatically. Instead, we have to support user-interaction in a suitable way. In this thesis, we aim at developing techniques that enhance automatic proof control of (inductive) theorem provers and that enable user-interaction in a suitable way. We integrate our new proof techniques into the inductive theorem prover QuodLibet and validate them with various case studies. Essentially, we introduce the following three proof techniques: -We integrate a decision procedure for linear arithmetic into QuodLibet in a close way by defining new inference rules that perform the elementary steps of the decision procedure. This allows us to implement well-known heuristics for automatic proof control. Furthermore, we are able to provide special purpose tactics that support the manual speculation of lemmas if a proof attempt gets stuck. The integration improves the ability of the theorem prover to prove theorems automatically as well as its efficiency. Our approach is competitive with other approaches regarding efficiency; it provides advantages regarding the speculation of lemmas. -The automatic proof control searches for a proof by applying inference rules. The search space is not only infinite, but grows dramatically with the depth of the search. In contrast to this, checking and analyzing performed proofs is very efficient. As the search space also has a high redundancy, it is reasonable to reuse subproofs found during proof search. We define new notions for the contribution of proof steps to a proof. These notions enable the derivation of pruned proofs and the identification of superfluous subformulas in theorems. A proof may be reused in two ways: upward propagation prunes a proof by eliminating superfluous proof steps; sideward reuse closes an open proof obligation by replaying an already found proof. -For interactive theorem provers, it is essential not only to prove automatically as many lemmas as possible but also to restrict proof search in such a way that the proof process stops within a reasonable amount of time. We introduce different markings in the goals to be proved and the lemmas to be applied to restrict proof search in a flexible way: With a forbidden marking, we can simulate well-known approaches for applying conditional lemmas. A mandatory marking provides a new heuristics which is inspired by local contribution of proof steps. With obligatory and generous markings, we can fine-tune the degree of efficiency and extent of proof search manually. With an elaborate case study, we show the benefits of the different techniques, in particular the synergetic effect of their combination.
Ökonomische Prozessanalyse und Modellintegration zur Kostenberechnung von Faser-Kunststoff-Verbunden
(2006)
The introduction to the topic is a description of the techno-economic evolution of
composites. Apart from this, today’s market state of the art of composites is also explained.
As a conclusion, the principal trend towards the higher quality by the increased
application of carbon fibers is ascertained. In particular, it is pointed out that
the restraints of the market growth are mainly caused by the high price, most notably,
of the fiber materials. This situation, in connection with the maturation of the composite
manufacturing processes, demands the need of a cost calculation tool.
In the second step, former composite cost models and their implementations into
software – if available – are described and benchmarked. As a result it is proposed to
combine, different approaches because of their fundamental potential as well as the
deficits. It is suggested to use a resource-based methodology combined with the
PBKM (prozessbasierte Kostenmodellierung = process-based cost modelling) and to
implement the models in a cost calculation software.
The first aim is an economic process analysis which is carried out to receive an abstract
and modular system. Thereby, it is possible to describe the production processes
by successive refinement more and more detailed. The process is divided in
multiple steps which are itself subdivided in technical activities or handlings. The
relevant cost objects with the identifiable cost positions are assigned to those handlings.
This approach assures modularity and offers the possibility of an easy software
implementation. In addition, the functionality of this methodology is demonstrated
considering the two examples “thermoplastic tape placement” and “continuous
pressing”. For that reason these composite manufacturing techniques are analyzed
and the structure is mapped within the use of suggested methodology.
The next topic deals with the modelling of the cycle time for the thermoplastic tape
placement with the use of the PBKM. Within this methodology the derivation of the
cycle time depends only on physical process parameters, which results in a geometrical
complexity based model. The developed model is verified by comparing of the
theoretically derived values with practical experiments. Along with this, the assumptions
for this model are revised and verified. As a technical enhancement of the tape
placement process, different designs of a geometry-adaptive consolidation role are introduced. This technical extension of the process technology is necessary for the
final verification of the model. The new consolidation unit enables to move all geometrical
degrees of freedom and complexities with the same laminate quality. Finally,
a possibility to transfer the methodology of the PBKM to other technologies is proved.
Therefore, it is offered a modus operandi how the continuous pressing technique can
be modelled with the help of the PBKM.
The last chapter deals with the cost calculation tool concerning the structural configuration,
design, and functionality of the software. It is the consequential synthesis of
the results of the economic process analysis and the cycle time models. The practicability
of the modularity is proved by its application in the design phase of the software
and by the integration of the modelling into the tool. The developed cost calculation
software for composite manufacturing processes offers a standardization of the
inputs and calculation algorithms by the use of introduced process analysis, the subdivision
into smallest units. The cycle time calculation models are process specific
know-how which can easily be used unlike an expert's system. The separation of the
single functional entities assures a stringent data management, possibilities for the
advancement, and furthermore, the variableness of representation and reuse of the
derived data. The functionality of the cost tool concerning evaluations and comparisons
are pointed out with two case studies. Plus, the postulated transferability of the
methodology on other composite technologies is demonstrated. The main advantage
of this system is that the modelling offers economical statements of different process
variations without experimentation. Besides, the values ascertained by the PBKM are
more precise compared to other existing models. Therefore, the PBKM can be the
basis for investment decisions like technology change or modifications and helps to
identify techno-economic limitations and potentials.
This version of the cost calculation software offers only the standard repertoire of
cost evaluations and comparisons which turn out to be upgradeable. Thus, there exists
potential to enhance the functionality concerning sensitivity analyses, the integration
of cycle time models for other composite processing technologies, and further
possibilities for the graphic processing. As a conclusion the software with the combination
of different attempts offers a good starting position with respect to the current
evolution status and should be extended.
Die vorliegende Arbeit stellt die Ergebnisse vor, die unter Einsatz von optischer Molekülspektroskopie und quantenchemischen Berechnungen von Merocyanin-Dimeraggregaten erzielt wurden. Mit Hilfe der UV/Vis-Spektroskopie konnten aus der Vielzahl der zur Verfügung stehenden Farbstoffe diejenigen mit ausgeprägter Aggregationsneigung identifiziert werden. Für neun positiv getestete Verbindungen wurden konzentrations- und temperaturabhängige UV/Vis-Spektren aufgenommen. Die Auswertung gelang dabei mit einem selbst entwickelten Algorithmus, der neben der Aggregationskonstante auch die reinen Spektren von Monomer und Dimer berechnet. Für eine Serie von acht neuen Merocyaninen wurde eine umfassende Charakterisierung der elektrooptischen Eigenschaften vorgestellt und die Ergebnisse im Hinblick auf deren Anwendung diskutiert. Für zwei weitere Farbstoffe konnte eine Beeinflussung der Dimerisierung durch ein äußeres elektrisches Feld frei von Diskrepanzen bestätigt werden. Implikationen der beobachteten Befunde auf das Design photonischer Materialien mit exzitonisch gekoppelten Dimeren wurden besprochen. Durch die stationären und dynamischen Fluoreszenzmessungen konnte das bislang nur für einen Farbstoff bekannte Phänomen der Emission von H-Typ Dimeren an drei weiteren Merocyaninen nachgewiesen werden. Es gelang eine präzise spektrale Trennung der Teilbeiträge von Monomer und Dimer in Absorption sowie Emission vorzunehmen und damit erstmals den von Kasha[1] 1965 vorhergesagten Relaxationskanal für H-Typ Aggregate in allen Details quantitativ zu belegen. Durch quantenchemische Berechnungen auf MP2-Niveau konnte die Geometrie von sechs Monomeren und Dimeren optimiert und mit Hilfe experimenteller Strukturinformationen verifiziert werden. Auf Basis dieser Geometrien wurden essentielle Eigenschaften vom elektronischen Grund- und Anregungszustand berechnet und damit Übereinstimmungen und Unterschiede zu den Experimenten aufgezeigt. Weiterhin wurde eine Möglichkeit zur Vorhersage der Aggregationsneigung für einen gegebenen Strukturtyp alleine auf Grundlage von quantenchemischen Ergebnissen vorgestellt. Im Hinblick auf die grundlegenden Triebkräfte der Aggregation ergab die Analyse, dass die Dimerisierung im Wesentlichen auf elektrostatischen Dipol-Dipol- und Dispersionswechselwirkungen beruht, daneben aber auch von der Topologie der Chromophore abhängige lokale Wechselwirkungen einen Beitrag leisten.
This thesis discusses methods for the classification of finite projective planes via exhaustive search. In the main part the author classifies all projective planes of order 16 admitting a large quasiregular group of collineations. This is done by a complete search using the computer algebra system GAP. Computational methods for the construction of relative difference sets are discussed. These methods are implemented in a GAP-package, which is available separately. As another result --found in cooperation with U. Dempwolff-- the projective planes defined by planar monomials are classified. Furthermore the full automorphism group of the non-translation planes defined by planar monomials are classified.
Die Begrenzung und Minimierung der Belastung der Bevölkerung durch Umgebungslärm ist ein wichtiges Handlungsfeld der Raumplanung und insbesondere der Stadtplanung als koordinierender Gesamtplanung auf örtlicher Ebene. Obwohl für die Immissionssituation empfindlicher Gebiete in vielen Fällen nicht nur eine Anlage, sondern die Kombination mehrerer, z. T. unterschiedlicher Emittenten maßgeblich ist, fehlt bisher ein fachlich abgesichertes und in der Planungspraxis anwendbares Konzept zur Modellierung und zum Management kombinierter Umgebungslärmimmissionen. Die unter dem Stichwort ’Gesamtlärm’ geführte fachliche und rechtliche Diskussion hat sich in diesem Zusammenhang bislang sehr stark auf Summationsregeln für Immissionspegel und daraus abgeleitete Belastungsgrenzwerte reduziert. Zielsetzung der Arbeit ist es, eine strukturierte Modellierung als Basis für ein Managementkonzept zu erarbeiten, das die Erfassung und Interpretation kombinierter Umgebungslärmbelastungen ermöglicht. Maßgeblich für die Modellierungsparadigmen ist der Anspruch, die Anforderungen und Handlungsspielräume der Stadtplanung zu berücksichtigen, sich also an praktisch verfügbaren und planerisch steuerbaren Daten und Erkenntnissen zu orientieren, mit Unschärfen transparent umzugehen und auch die im internationalen Umfeld schon praktisch angewandten Konzepte auf Übertragbarkeit zu untersuchen. Der dafür gewählte Modellierungsansatz basiert auf der Charakterisierung des Umgebungslärms als Interaktion zwischen emittierenden und empfindlichen Raumnutzungen und damit als Raumnutzungskonflikt, der sich zum Einen als räumliches Risiko (z. B. für die menschliche Gesundheit) und zum Anderen als Ressourcenkonflikt um die Ruhe als Qualitätsmerkmal von Standorten darstellen lässt. Durch die Vielzahl der in die Modellierung einzubeziehenden Elemente und Parameter in den Bereichen Emission, Transmission, räumliche Immission, Exposition und Lärmwirkung ergibt sich die Notwendigkeit, neben fachlichen Vereinfachungen auch räumliche Abschichtungen vorzunehmen. Im Ergebnis wird ein dreistufiges Modellkonzept vorgeschlagen, das auf der ersten Stufe - Raumbezogenes Belästigungsrisiko - Optimierungskriterien für Gesamträume mit dem Ziel der Risikominimierung auf Basis vorliegender, stark generalisierender Belästigungskenngrößen herleitet und sich vor allem für räumlich übergeordnete Planungsaufgaben wie die Flächennutzungs- und die Gesamtverkehrsplanung eignet. Als räumliche Konkretisierung wird für die Bearbeitung quartiersbezogener Planungsaufgaben eine Modellebene ’Ruhezonierung’ vorgeschlagen, die sich vom Risikoansatz löst und Maßstäbe für die qualitätsorientierte Optimierung kleinräumiger Immissionssituationen enthält. Die letzte, in der Arbeit nur skizzierte Modellebene - Lokale akustische Qualität - enthält gebäudebezogene Ansätze zur Qualitätssteigerung. Damit entsteht ein durchgängiges Managementkonzept zur Anwendung in der örtlichen Gesamtplanung, das versucht, die vorhandenen Erkenntnisse der Lärmwirkungsforschung unter Beachtung der Datenqualität und des erforderlichen Detaillierungsgrads in schlüssiger und anwendbarer Weise für die räumlichen Handlungsebenen der Stadtplanung nutzbar zu machen.
Das Recycling von Automobilen leistet einen wesentlichen Beitrag zur Schonung der natürlichen Ressourcen und Reduzierung der entstehenden Abfallmengen. Dabei kommt dem Automobilhersteller eine zentrale Rolle zu, da nur durch die frühzeitige Berücksichtigung der Recyclinganforderungen bei der Entwicklung der Produkte sichergestellt werden kann, dass diese zukünftig auch in umweltgerechter und wirtschaftlicher Weise einer erneuten Nutzung zugeführt werden können.
Im Rahmen dieser Arbeit wird ein Konzept vorgestellt, welches die Recycling-anforderungen systematisch in die Ablauf- und Aufbauorganisation von Fahrzeug-entwicklungsprojekten integriert. Die Grundlage bildet ein Prozessmodell, welches in den frühen Phasen der Entwicklung die Ableitung von Recyclingzielen mit Hilfe der Szenario-Technik ermöglicht und in den nachfolgenden Phasen der Entwicklung die Zielerreichung durch einen formalisierten Recycling-Problemlösezyklus sicherstellt. Das zentrale Element stellt ein Planungsinstrument dar, welches mögliche Demontage- und Recyclingprozesse bereits innerhalb der Produktentwicklung simuliert und dadurch eine ganzheitliche Optimierung des Fahrzeuges unterstützt.
Die Auswertung verschiedener Recyclingszenarien am Beispiel eines Mittelklasse- PKW hat gezeigt, dass mit der heutigen Prozesskette der Altfahrzeugverwertung eine Reduzierung der Abfallmengen nicht kostendeckend erreichbar ist. Erst unter Berücksichtigung neuer Verwertungstechnologien für die heute zu entsorgenden Restmengen kann die wirtschaftliche Situation verbessert werden. Gleichzeitig konnte durch die Bewertung unterschiedlicher Rohbaukonzepte nachgewiesen werden, dass der Ersatz konventioneller Materialsysteme durch innovative Leichtbauwerkstoffe das Recycling am Lebensende des Fahrzeuges zunehmend erschwert.
Um bereits innerhalb der Produktentwicklung die Voraussetzung für ein hochwertiges Fahrzeugrecycling zu schaffen ist somit das Zusammenführen und Ausbalancieren von produkt- und prozessbezogenen Maßnahmen unabdingbar. Die organisa-torische Umsetzung erfolgt dabei durch ein Recyclingteam, welches es ermöglicht das Recyclingwissen in die komplexen Entwicklungsabläufe zu integrieren und mit allen Prozessbeteiligten zeitlich und inhaltlich abzustimmen.
Die Computerisierung der Gesellschaft bedingt ein ständiges Zunehmen der Geschwindigkeit, mit der neue Daten erzeugt werden. Parallel zu dieser Entwicklung steigt der Bedarf an geeigneten Analyseverfahren, die in diesen großen und oftmals heterogenen Datenmengen Muster finden, Zusammenhänge entdecken und damit Wissen erzeugen. Das in dieser Arbeit entwickelte Verfahren findet die passende Struktur in einer ungeordneten, abstrakten Datenmenge, ordnet die zugrunde liegenden Informationen und bündelt diese somit für eine gezielte Anwendung. Dieser Prozess des Information Clustering ist zweistufig, es erfolgt zuerst ein generelles Clustering, an das sich eine interpretierende Visualisierung anschliesst. Für das Clustering wird das Verfahren der Voronoidiagramme erweitert. Durch den Einsatz einer generellen Distanzfunktion wird die Modellierung der durch die großen Datenmengen entstehenden multidimensionalen Parameter sowie weiterer Gewichte ermöglicht. Eine anschließende Visualisierung aus dem Bereich der Informationsvisualisierung unterstützt die Interpretation der neu gewonnenen Informationen. Für die praktische Anwendung wird die Stadtplanung betrachtet. In der Stadtplanung wird das Modell des Planungsablaufes eingesetzt, mit dem verschiedene Planungsalternativen erzeugt werden. Dieses Modell ist jedoch zu starr, um den dynamischen Anforderungen in der Realität gerecht zu werden. Das Information Clustering erweitert den klassischen Planungsablauf, die Flexibilität des Modells wird dadurch erhöht und die Komplexität reduziert. Das Ergebnis der Berechnung ist genau eine Planungsalternative, die sämtliche Eingabeparameter kanalisiert.
The new international capital standard for credit institutions (“Basel II”) allows banks to use internal rating systems in order to determine the risk weights that are relevant for the calculation of capital charge. Therefore, it is necessary to develop a system that enfolds the main practices and methods existing in the context of credit rating. The aim of this thesis is to give a suggestion of setting up a credit rating system, where the main techniques used in practice are analyzed, presenting some alternatives and considering the problems that can arise from a statistical point of view. Finally, we will set up some guidelines on how to accomplish the challenge of credit scoring. The judgement of the quality of a credit with respect to the probability of default is called credit rating. A method based on a multi-dimensional criterion seems to be natural, due to the numerous effects that can influence this rating. However, owing to governmental rules, the tendency is that typically one-dimensional criteria will be required in the future as a measure for the credit worthiness or for the quality of a credit. The problem as described above can be resolved via transformation of a multi-dimensional data set into a one-dimensional one while keeping some monotonicity properties and also keeping the loss of information (due to the loss of dimensionality) at a minimum level.
In dem Forschungsvorhaben “Schubtragverhalten des Stahlbetongurtes von Verbundträgern im Bereich von großen Stegöffnungen“ wurden umfangreiche experimentelle und rechnerische Untersuchungen zum Querkrafttragverhalten und zur Querkrafttragfähigkeit des Betongurts im Bereich von großen Stegöffnungen durchgeführt. Anhand von 21 großmaßstäblichen Traglastversuchen, die erstmals so konzipiert waren, dass im Öffnungsbereich nahezu die gesamte Querkraft durch den Betongurt übertragen werden musste, konnte die Querkrafttragfähigkeit des Betongurts bestimmt werden. Neue Erkenntnisse über den Lastabtragungs- und Versagensmechanismus im Öffnungsbereich konnten durch die Auswertung der Dehnungen der Kopfbolzendübel im Öffnungsbereich und das nachträgliche Aufsägen des Betongurts der Versuchsträger gewonnen werden. Im rechnerischen Teil wurden ein dreidimensionales FE-Modell erstellt, das die Versuche in ihren wesentlichen Teilen abbildete, und Vergleichsberechnungen durchgeführt. Durch den Vergleich der rechnerischen mit den experimentell ermittelten Werten wurde das Modell überprüft. Auf dieser Grundlage wurden anschließend Parameteruntersuchungen durchgeführt. Schließlich wurde auf der Basis der experimentellen und rechnerischen Untersuchungen ein Ingenieurmodell zur Bestimmung der Querkrafttragfähigkeit im Öffnungsbereich entwickelt, mit dem sich die Querkrafttragfähigkeit des Betongurts im Öffnungsbereich nachweisen lässt. Ferner stellte sich heraus, dass die Querkrafttragfähigkeit des Betongurts im Öffnungsbereich durch Dübelleisten erheblich gesteigert werden kann, was wirtschaftliche Vorteile eröffnet.
Uncoupling protein1 (UCP1) in brown adipose tissue was discovered earlier as the main uncoupling source of respiration. We describe the basic facts and a modest contribution of our group to the area of research on mitochondrial uncoupling proteins. After defining the terms uncoupling, leak, proton-mediated uncoupling, we discuss the assumption that due to its low abundance, uncoupling protein 2 (UCP2) can provide only mild uncoupling, i.e. can decrease the proton motive force by several mV only. A fatty acid cycling mechanism is described as a plausible explanation for the protonophoretic function of all uncoupling proteins together with our experiments supporting it. A speculation for the phylogenesis of all uncoupling proteins can be deduced by estimated UCP2 content in several tissues, and details of its activation are explained on the basis of our experiments. In the present study a solubilization and refolding method for UCP2 from inclusion bodies was developed and characterized. As it was known and also demonstrated from previous experiments on UCP1 that fatty acids are substrates, we used the same procedure to study the function of UCP2. Utilizing spin-labelled fatty acids (SLFA) for our experiments we demonstrated the binding of fatty acids to UCP2, and the competition of other natural fatty acids like oleic acid, palmitic acid, arachidonic acid and eicosatrienoic acid to the preformed complex emphasizes the presence of a fatty acid binding site for mitochondrial UCP2. The findings were observed by EPR spectroscopy where the highly immobilized spectra with presence of spin-labelled fatty acid eventually end up as free spin label spectra with a particular concentration of the natural fatty acid added to the UCP2 bound with spin-labelled fatty acid. This fits in significantly with the earlier findings of UCP1 and also leads to assumption of functional explanation about the physiological relevance between the uncoupling proteins functions. The present study, in which representative and sensitive parameters for EPR spectroscopy were established, at the same time describes the concentration effects of fatty acids upon the protein bound with spin-labelled fatty acids which are much of importance in comparison to physiological levels, being in the micromolar range (µM) as compared with milli molar (mM) as for UCP1 previously. In appropriate examples, different fatty acids are used and compared with competitors like alkylsulfonates also emphasizing the function of the protein. And the studies with the effect of nucleotides inhibition demonstrate that there exists a putative binding site for fatty acids. Much significance lies in demonstration with the spin-labelled-ATP studies where competition of ATP to the protein bound to spin-labelled ATP explains about the inhibition effect of nucleotides on the UCP2. So the present study applies different methods for the functional characterization of UCP2. The studies of natural fatty acids and alkylsulfonates with UCP2 bound to spin-labelled fatty acid, and study of nucleotide inhibition on UCP2 are closely related and give the much awaited answer to the question of functional similarities between UCP1 and UCP2. This supports the discussion of many groups which predict the functional similarity between these two proteins based upon sequence homology. Also many attempts have been reported in literature to explain the physiological functional relevance where by this present study can also be added to as we now suppose from the present conclusions of our experiments.
Um die in der Automatisierung zunehmenden Anforderungen an Vorschubachsen hinsichtlich Dynamik, Präzision und Wartungsaufwand bei niedriger Bauhöhe und kleiner werdendem Bauvolumen gerecht zu werden, kommen immer mehr Synchron-Linearmotoren in Zahnspulentechnik mit Permanentmagneterregung in Werkzeugmaschinen zum Einsatz. Als hauptsächlicher Vorteil gegenüber der rotierenden Antriebslösung mit Getriebeübersetzung und Kugelrollspindel wird die direkte Kraftübertragung ohne Bewegungswandler genannt. Der Übergang vom konventionellen linearen Antriebssystem zum Direktantriebssystem eröffnet dem Werkzeugmaschinenherstellern und den Industrieanwendungen eine Vielzahl neuer Möglichkeiten durch beeindruckende Verfahrgeschwindigkeit und hohes Beschleunigungsvermögen sowie Positionier- und Wiederholgenauigkeit und bietet darüber hinaus die Chance zu einer weiteren Produktivitäts- und Qualitätssteigerung. Um alle dieser Vorteile ausnutzen zu können, muss der Antrieb zuerst hinsichtlich der für Linearmotoren typisch Kraftwelligkeit optimiert werden. Die Suche nach wirtschaftlichen und praxistauglichen Gegenmaßnahmen ist ein aktuelles Forschungsthema in der Antriebstechnik. In der vorliegenden Arbeit werden die Kraftschwankungen infolge Nutung, Endeffekt und elektrischer Durchflutung in PM-Synchron-Linearmotor rechnerisch und messtechnisch untersucht. Ursachen und Eigenschaften der Kraftwelligkeit werden beschrieben und Einflussparameter aufgezeigt. Es besteht die Möglichkeit, die Kraftwelligkeit durch bestimmte Maßnahmen zu beeinflussen, z. B. mit Hilfe des Kraftwelligkeitsausgleichs bestehend aus ferromagnetischem Material oder durch gegenseitigen Ausgleich mehrerer zusammengekoppelter Primärteile. Wie die Untersuchungen gezeigt haben, ist eine Abstimmung der Einflussparameter auf analytischem Weg kaum möglich, in der Praxis führt das auf eine experimentell-iterative Optimierung mit FEM-Unterstützung. Die gute Übereinstimmung zwischen Messung und Simulation bietet einen klaren Hinweis, dass die hier vorgestellten Maßnahmen als geeignet angesehen werden können, sie ermöglichen eine Kraftwelligkeitsreduzierung von ursprünglichen 3-5% bis auf 1%, wobei eine leichte Herabsetzung der Kraftdichte in Kauf genommen werden muss. Beim Maschinenentwurf muss rechtzeitig ermittelt werden, welches Kompensationsverfahren günstig ist bezüglich der vorgesehenen Anwendungen.
Stop Location Design in Public Transportation Networks: Covering and Accessibility Objectives
(2006)
In StopLoc we consider the location of new stops along the edges of an existing public transportation network. Examples of StopLoc include the location of bus stops along some given bus routes or of railway stations along the tracks in a railway system. In order to measure the ''convenience'' of the location decision for potential customers in given demand facilities, two objectives are proposed. In the first one, we give an upper bound on reaching a closest station from any of the demand facilities and minimize the number of stations. In the second objective, we fix the number of new stations and minimize the sum of the distances between demand facilities and stations. The resulting two problems CovStopLoc and AccessStopLoc are solved by a reduction to a classical set covering and a restricted location problem, respectively. We implement the general ideas in two different environments - the plane, where demand facilities are represented by coordinates and in networks, where they are nodes of a graph.
We study model reduction techniques for frequency averaging in radiative heat transfer. Especially, we employ proper orthogonal decomposition in combination with the method of snapshots to devise an automated a posteriori algorithm, which helps to reduce significantly the dimensionality for further simulations. The reliability of the surrogate models is tested and we compare the results with two other reduced models, which are given by the approximation using the weighted sum of gray gases and by an frequency averaged version of the so-called \(\mathrm{SP}_n\) model. We present several numerical results underlining the feasibility of our approach.
This work deals with the mathematical modeling and numerical simulation of the dynamics of a curved inertial viscous Newtonian fiber, which is practically applicable to the description of centrifugal spinning processes of glass wool. Neglecting surface tension and temperature dependence, the fiber flow is modeled as a three-dimensional free boundary value problem via instationary incompressible Navier-Stokes equations. From regular asymptotic expansions in powers of the slenderness parameter leading-order balance laws for mass (cross-section) and momentum are derived that combine the unrestricted motion of the fiber center-line with the inner viscous transport. The physically reasonable form of the one-dimensional fiber model results thereby from the introduction of the intrinsic velocity that characterizes the convective terms. For the numerical simulation of the derived model a finite volume code is developed. The results of the numerical scheme for high Reynolds numbers are validated by comparing them with the analytical solution of the inviscid problem. Moreover, the influence of parameters, like viscosity and rotation on the fiber dynamics are investigated. Finally, an application based on industrial data is performed.
The paper at hand presents a slender body theory for the dynamics of a curved inertial viscous Newtonian ber. Neglecting surface tension and temperature dependence, the ber ow is modeled as a three-dimensional free boundary value problem via instationary incompressible Navier-Stokes equations. From regular asymptotic expansions in powers of the slenderness parameter leading-order balance laws for mass (cross-section) and momentum are derived that combine the unrestricted motion of the ber center-line with the inner viscous transport. The physically reasonable form of the one-dimensional ber model results thereby from the introduction of the intrinsic velocity that characterizes the convective terms.
This thesis deals with modeling aspects of generalized Newtonian and of non-Newtonian fluids, as well as with development and validation of algorithms used in simulation of such fluids. The main contribution in the modeling part are the introduction and analysis of a new model for the generalized Newtonian fluids, where constitutive equation is of an algebraic form. Distinction between shear and extensional viscosities leads to anisotropic viscosity model. It can be considered as a natural extension of the well known (isotropic viscosity) Carreau model, which deals only with shear viscosity properties of the fluid. The proposed model takes additionally into account extensional viscosity properties. Numerical results show that the anisotropic viscosity model gives much better agreement with experimental observations than the isotropic one. Another contribution of the thesis consists of the development and analysis of robust and reliable algorithms for simulation of generalized Newtonian fluids. For such fluids the momentum equations are strongly coupled through mixed derivatives appearing in the viscous term (unlike the case of Newtonian fluids). It is shown in this thesis, that a careful treatment of those derivatives is essential in deriving robust algorithms. A modification of a standard SIMPLE-like algorithm is given, where all the viscous terms from the momentum equations are discretized in an implicit manner. Moreover, it is shown that a block diagonal preconditioner to the viscous operator is good enough to be used in simulations. Furthermore, different solution techniques, namely projection type methods (consists of solving momentum equations and pressure correction equation) and fully coupled methods (momentum and continuity equations are solved together), are compared. It is shown, that explicit discretization of the mixed derivatives lead to stability problems. Further, analytical estimates of eigenvalue distribution for three different preconditioners, applied to the transformed system arising after discretization and linearization of the momentum and continuity equations, are provided. We propose to apply a block Gauss-Seidel preconditioner to the transformed system. The analysis shows, that this preconditioner is able to cluster eigenvalues around unity independent of the transformation step. It is not the case for other preconditioners applied to the transformed system as discussed in the thesis. The block Gauss-Seidel preconditioner has also shown the best behavior (among all preconditioners discussed in the thesis) in numerical experiments. Further contribution consists of comparison and validation of numerical algorithms applied in simulations of non-Newtonian fluids modeled by time integral constitutive equations. Numerical results from simulations of dilute polymer solutions, described by the integral Oldroyd B model, have shown very good quantitative agreement with the results obtained by differential Oldroyd B counterpart in 4:1 planar contraction domain at low Weissenberg numbers. In this case, the Weissenberg number is changed by changing the relaxation time. However, contrary to the differential Oldroyd B model, the integral one allows to perform stable simulations also in the range of high Weissenberg numbers. Moreover, very good agreement with experimental observations has been achieved. Simulations of concentrated polymer solutions (polystyrene and polybutadiene solutions), modeled by the integral Doi Edwards model, supplemented by chain length fluctuations, have shown very good qualitative agreement with the results obtained by its differential approximation in 4:1:4 constriction domain. Again, much higher Weissenberg numbers can be achieved when the integral model is used. Moreover, very good quantitative results with experimental data of polystyrene solution for the first normal stress difference and shear viscosity defined here as the quotient of a shear stress and a shear rate. Finally, comparison of the two methods used for approximating the time integral constitutive equation, namely Deformation Field Method (DFM) and Backward Lagrangian Particle Method (BLPM), is performed. In BLPM the particle paths are recalculated at every time step of the simulations, what has never been tried before. The results have shown, that in the considered geometries both methods give similar results.
On a multigrid solver for the threedimensional Biot poroelasticity system in multilayered domains
(2006)
In this paper, we present problem–dependent prolongation and problem–dependent restriction for a multigrid solver for the three-dimensional Biot poroelasticity system, which is solved in a multilayered domain. The system is discretized on a staggered grid using the finite volume method. During the discretization, special care is taken of the discontinuous coefficients. For the efficient multigrid solver, a need in operator-dependent restriction and/or prolongation arises. We derive these operators so that they are consistent with the discretization. They account for the discontinuities of the coefficients, as well as for the coupling of the unknowns within the Biot system. A set of numerical experiments shows necessity of use of the operator-dependent restriction and prolongation in the multigrid solver for the considered class of problems.