Refine
Year of publication
- 2000 (152) (remove)
Document Type
- Preprint (81)
- Doctoral Thesis (34)
- Article (18)
- Report (7)
- Lecture (5)
- Master's Thesis (3)
- Diploma Thesis (1)
- Periodical (1)
- Periodical Part (1)
- Study Thesis (1)
Keywords
- resonances (6)
- Quantum mechanics (5)
- lifetimes (5)
- AG-RESY (4)
- HANDFLEX (4)
- Internet (4)
- Wannier-Stark systems (4)
- Hypermediale Umweltberichte (3)
- Internetbasierte Umweltberichterstattung (3)
- branch and cut (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Physik (53)
- Kaiserslautern - Fachbereich Mathematik (44)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Informatik (13)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (9)
- Fraunhofer (ITWM) (4)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
Zur Untersuchung des Abflussverhaltens gängiger Befestigungsarten wurden mit Hilfe des Modells KOSMO Niederschlag-Abfluss-Simulationen durchgeführt. Betrachtet wurden hier-bei sowohl Einheitsflächen als auch ganze Einzugsgebiete verschiedener städtebaulicher Struktur. Die Berechnungen erfolgten unter Vorgabe empfohlener Verlustparameter zur Benetzung und zur Muldenauffüllung sowie angepasster Parameterwerte zur Beschreibung der Versickerung. Die Abflusssimulationen wurden für ein weitreichendes Spektrum bemessungsrelevanter Niederschlagsbelastungen vollzogen. Es wurden Einzelregen konstanter und variabler Intensität unterschiedlicher Regendauer sowie eine neunmonatige Nieder-schlagsreihe simuliert. Aus der Bilanzierung des Niederschlag-Abfluss-Prozesses wurden die verschiedenen Abflussbeiwerte der unterschiedlichen Flächenarten ermittelt. Die Modellsimulationen haben gezeigt, dass eine signifikante Abhängigkeit der rechneri-schen Abflussbeiwerte von der zugrunde gelegten Niederschlagsbelastung besteht, die mit zunehmender Versickerungsfähigkeit der Flächen ansteigt. Während die weitestgehend undurchlässigen Flächentypen recht konstante Werte aufweisen, sind die Abflussbeiwerte der durchlässig befestigten Flächen großen niederschlagsbedingten Schwankungen von bis zu 0,5 unterlegen. Hierbei spielen sowohl die Regenintensität als auch die Regendauer und der zeitliche Verlauf des Regens eine Rolle. Die Berechnungsergebnisse für den mittleren Abflussbeiwert, den Endabflussbeiwert sowie den Spitzenabflussbeiwert zeigten für die Simulation von Einzelereignissen unter Berück-sichtigung der belastungsbezogenen Abhängigkeit eine gute Übereinstimmung mit den Richtwerten. Den Berechnungen des mittleren Abflussbeiwertes und des Endabflussbeiwertes wurden hierbei wesentlich geringere Parameterwerte zur Versickerung zugrunde gelegt als für den Spitzenabflussbeiwert, für den die Richtwerte nur mit deutlich höher angesetzten Infiltrationsleistungen bestätigt werden konnten. Diese Versickerungsleistungen liegen zwar noch deutlich unter den von Borgwardt und Muth in neueren Untersuchungen festgestellten Werten und sind somit wissenschaftlich begründet. Dennoch erscheint es fraglich, ob das Versickerungsvermögen durchlässig befestigter Flächen tatsächlich derart hoch ist. Diese Frage kann jedoch anhand der vorliegenden Untersuchung nicht geklärt werden. Des Weiteren wurde festgestellt, dass die Langzeitsimulation von Niederschlagsreihen mit den an Einzelereignisse angepassten Modellparametern sehr geringe Ergebniswerte für den mittleren Abflussbeiwert und teilweise auch für den Endabflussbeiwert der durchlässigen Flächenbefestigungen liefert. Hier stellt sich die Frage, ob der Abflussbeitrag von diesen Flächen im Jahresmittel tatsächlich derart gering ausfällt. Dies wäre aufgrund der Abhängigkeit der Abflussbeiwerte von der Regenbelastung durchaus plausibel, da ein Großteil der jährlichen Niederschlagsereignisse nur geringe Intensitäten aufweist. Der Ansatz geringerer Parameterwerte zur Versickerung erscheint im Hinblick auf die in der Literatur genannten Untersuchungsergebnisse nicht sinnvoll. Darüber hinaus trat hinsichtlich der Endabflussbeiwerte die Problematik auf, dass sich aus der Definitionsgleichung für stark durchlässige Flächenbefestigungen unzutreffenden Werte ergeben. Die Langzeitsimulation von Einzugsgebieten mit einem hohen Anteil versickerungsintensiver Flächen muss daher als problematisch beurteilt werden. Betrachtungen zur Genauigkeit der durchgeführten Untersuchungen (hier nicht aufgeführt) haben gezeigt, dass zahlreiche gebiets- und modellspezifische Faktoren Einfluss auf die Zuverlässigkeit der Berechnungsergebnisse haben. Die rechnerischen Abflussbeiwerte weisen insbesondere hinsichtlich der Parameterwerte im Versickerungsansatz nach Horton eine starke Sensitivität auf, die bei der Anwendung von Abflussmodellen zur Berechnung des Oberflächenabflusses berücksichtigt werden muss. Aufgrund der im Rahmen dieser Arbeit durchgeführten Modellberechnungen kann die Kompatibilität von Berechnungen des Oberflächenabflusses durch Abflusssimulation mit den empfohlenen Standardwerten der einschlägigen Literatur grundsätzlich festgestellt werden. Durch die Anwendung gängiger Modellansätze zur Beschreibung der Abflussbildung unter Ansatz angepasster Parameterwerte können insbesondere bei der Simulation von Einzelereignissen weitgehend übereinstimmende Ergebnisse erzielt werden. Es ist jedoch zu beachten, dass die Simulationsergebnisse entscheidend von der angesetzten Niederschlagsbelastung bestimmt werden, so dass die Anwendung von Berechnungsmodellen nur bezogen auf bestimmte Niederschlagsbelastungen erfolgen kann. Darüber hinaus empfiehlt es sich dringendst, das eingesetzte Modell vorab unter Berück-sichtigung der gebietsspezifischen Gegebenheiten bezüglich der angesetzten Parameterwerte zu eichen. Die Anwendung von Abfluss- und Schmutzfrachtmodellen setzt daher stets voraus, dass die abflussrelevanten Randbedingungen sorgfältig erfasst und bei der Abflusssimulation ausreichend berücksichtigt werden. Die Anwendung von Abflussmo-dellen zur Berechnung des Oberflächenabflusses ist insbesondere im Hinblick auf eine differenzierte Betrachtung der Teilflächen und der Berücksichtigung des Versickerungsbei-trages durchlässiger Befestigungsarten sinnvoll, während diesbezüglich die Angaben des ATV-Arbeitsblattes A 118 nicht ausreichend sind. Des Weiteren machten die Untersuchungen deutlich, dass der derzeitige Kenntnisstand bezüglich des Infiltrationsvermögens durchlässig befestigter Flächen nicht ausreicht. Die vorzugebenden Modellparameter zur Versickerung sind bislang noch mit größeren Unsicherheiten behaftet, die sich unmittelbar auf die Zuverlässigkeit der Berechnungsergebnisse niederschlagen. Hier werden langfristige und großflächig angelegte Freilandmessungen empfohlen, die zur Erarbeitung von Versickerungswerten als Eingangsgrößen in die Abflussberechnungen und zur Festlegung von Abflussbeiwerten dienen können.
Um eine weitere Zunahme der Umweltbelastung infolge des stetig anwachsenden Leergewichtes heutiger Kraftfahrzeuge zu vermeiden, wird dem vermehrten Einsatz von Faser-Kunststoff-Verbundwerkstoffen (FKV) auch für hochbelastete Sekundärstrukturen zukünftig eine zentrale Rolle beim intelligenten Fahrzeug-Leichtbau zukommen. Die hierzu erforderliche Substitution metallischer Bauweisen durch FKV-Lösungen bietet das Potential, aufgrund des herausragenden gewichtsspezifischen Eigenschaftsprofils der Werkstoffgruppe und der Möglichkeit einer weitreichenden Teile- und Funktionsintegration eine deutliche Gebrauchswerterhöhung und auch Kostenreduktion zu erzielen.
Die im Rahmen dieser Arbeit durchgefüh1ie Analyse des heutigen Entwicklungsstandes von
Fahrzeug-Sitzstrukturen und Fahrwerkselc1nenten in FKV-Bauweise zeigte, daß bei vorderen
Pkw-Sitzen die Grenzen des mit FKV derzeit Umsetzbaren erreicht sind. Bei Pkw-Fahrwerken konnte festgehalten werden, daß bislang keine längsorientierte, nicht angetriebene Hinterachse in FKV-Bauweise ohne zusätzliches Querelement bekannt ist, obwohl diese Achsbauart zunehmend eingesetzt wird. Zielsetzung der Arbeit war es daher, innovative Ansätze für die integrierte Gestaltung vorderer Sitzstruktur-Komponenten zu entwickeln, die Leichtbau und hohe Funktionalität mit Großserienfertigung verbinden und weiter Vorschläge zur Gestaltung längsorientierter, nicht angetriebener Pkw-Hinterachsen in FKV-Bauweise zu erarbeiten. Die Arbeit geht zunächst detailliert auf die Besonderheiten der FKV-Bauweisenentwicklung im Vergleich zum klassischen Konstruktionsablauf bei metallischen Strukturen ein. Darauf aufbauend wird die werkstoff- und fertigungsgerechte Spritzgieß-Konstruktion einer oberen Lehnen-Quertraverse aus diskontinuierlich langglasfaserverstärktem Thermoplasten (DLFRP oder LFT) vorgestellt, die zwei Kopfstützen-Führungselemente und die eigentliche metallische Quertraverse integriert. Zudem ermöglicht die Funktionserweiterung der axialen Drehbarkeit des gesamten Bauteils ein verbessertes Anstellen der Kopfstütze an den Insassen-Hinterkopf. Quasi-statische und auch dynamische Kopfaufprall-Prüfungen an Prototypen zeigten eine gute
Übereinstimmung mit den numerischen Simulationsergebnissen und bestätigten das geforderte „gutmütige" Versagensverhalten des Bauteils durch den Einsatz von Langfasern.
Im weiteren stellt die Arbeit erstmals ein schlüssiges werkstoff- und fertigungsgerechtes Konzept für eine längsorientierte, nicht angetriebene Hinterachse in FKV-Bauweise auf der Basis eines funktionsintegrierten CFK-Doppel-Blattfeder-Elementes mit in Reihe geschalteter FKV-Drehrohrfeder-Anordnung vor. Die im Vergleich zu herkömmlichen Metallbauweisen um etwa 40 % leichtere Konstruktion verzichtet auf ein mitfederndes Querelement zur Aufnahme der Seitenkräfte und ermöglicht ein elastokinematisch basiertes In-Vorspur-Gehen des kurvenäußeren Hinterrades. Die grundsätzliche Funktionstüchtigkeit der Konstruktion konnte in ausführlichen strukturmechanischen Simulationsrechnungen nachgewiesen werden.
In der vorliegenden Arbeit wurde ein vereinfachtes Rechenmodell zur Berechnung von Verbundträgern, mit der Berücksichtigung des Verbundanschlusses mit einer bilinearen Anschlußfeder hergeleitet. Die Entwicklung des Rechenmodells basiert dabei auf der Auswertung von Versuchen, die im Labor für Konstruktiven Ingenieurbau an der Universität Kaiserlautern durchgeführt worden sind. Besonders das beobachtete Trag-und Verformungsverhalten der Großversuche lieferte einen sehr wichtigen Beitrag zur Entwicklung des Modells. Es wurde Wert auf die Entwicklung eines einfachen Verfahrens gelegt, das trotzdem einen guten Kompromiß zwischen den Anforderungen an die Wirtschaftlichkeit und die Sicherheit findet. Zur Bestimmung der verschiedenen, im Modell benötigten Rechengrößen, wurden insgesamt 56 Versuche mit Verbundanschlüssen ausgewertet. Die benötigten Rechengrößen sind folgende: Das vom Anschluß erreichbare, maximale Moment Die Auswertung der Versuche hat gezeigt, daß das rechnerische plastische Moment nicht von allen Anschlüssen erreicht wurde. Diesen Anschlüssen war gemeinsam, daß sie mit Matten bewehrt waren (oder mit Stabstahl d8mm), oder es wurde der Stützensteg für das Versagen des Anschlusses maßgebend. Auch die gelenkigen Fahnenblechanschlüsse (mit einem Spalt zwischen dem Trägeruntergurt und der Stütze) erreichten nicht immer das plastische Moment. Für diese Anschlüsse muß die Biegetragfähigkeit elastisch berechnet werden. Ausdrücklich zu betonen ist, daß die Bezeichnung plastischer Anschluß im Zusammenhang mit dem Rechenmodell nur etwas über die Größe des erreichbaren, rechnerischen Anschlußmomentes aussagt. Ein plastisch berechneter Anschluß kann sich, im Bezug auf die Duktilität, trotzdem spröde verhalten. Die Duktilität des Anschlusses wird gesondert ermittelt. Die Steifigkeit des Anschlusses Die im vereinfachten Rechenmodell zu ermittelnde Steifigkeit des Verbundanschlusses wird auf die Steifigkeit des angeschlossenen Trägers (im Zustand II) bezogen. Desweiteren hängt diese noch von der Geometrie des Anschlusses selbst ab. Die Zahlenwerte für die bezogenen Steifigkeiten der verschiedenen Anschlußtypen wurden mit Hilfe von 56 ausgewerteten Verbundanschluß-Versuche und mit Hilfe von wirklichkeitsnahen, physikalisch nichtlinearen Berechnungen kalibriert. Die rechnerische Grenzverdrehung des Anschlusses Für die Ermittlung der rechnerischen Grenzverdrehung wird, auf der sicheren Seite liegend, der Drehpunkt des Anschlusses in Höhe des Träger-Untergurtes festgelegt. Dann wird die rechnerische Grenzdehnung des Betongurtes berechnet und die Grenzverdrehung aus den Geometriewerten des Anschlusses und der Grenzdehnung des Betongurtes ermittelt. Die Kalibrierung des Verfahrens und die Justierung der Korrekturfaktoren wurden mit Hilfe der vorliegenden 56 Verbundversuche durchgeführt. Das reduzierte, plastische Feldmoment und die rechnerische Grenzverdrehung des Anschlusses Um noch eine zusätzliche Sicherheit gegen das Überschreiten der Maximallast des Trägers im Rechenmodell zu berücksichtigen, wird das größte Feldmoment auf das reduzierte, plastische Feldmoment begrenzt. Die Einführung dieser Reduzierung begründet sich in den nichtlinearen Berechnungen und insbesondere in der Auswertung der Großversuche. Um die letzten 10 % der Biegetragfähigkeit im Feld zu aktivieren, benötigt der Träger besonders große Verformungen. Dies bedeutet, daß die Duktilität des Verbundanschlusses dann benötigt wird, wenn der Verbundträger die 90%-Grenze seiner Biegebeanspruchbarkeit im Feld überschreitet. Im Rechenmodell wird diesem Verhalten dadurch Rechnung getragen, daß die Biegetragfähigkeit im Feld auf 90% des plastischen Feldmomentes begrenzt wird. Die restlichen 10% der Biegetragfähigkeit werden nur anteilmäßig in Abhängigkeit von der Größe der rechnerischen Grenzverdrehung des Verbundanschlusses dazu addiert. Die Rechenergebnisse des Modells wurden mit wirklichkeitsnahen, physikalisch nichtlinearen Gegenrechnungen überprüft. Die nichtlinearen Berechnungen wurden ihrerseits an den Großversuchen, die im Labor für Konstruktiven Ingenieurbau der Universität Kaiserslautern durchgeführt wurden, kalibriert. Für das Rechenmodell wurden getestet: Anschlüsse mit großer Steifigkeit, Anschlüsse mit geringer Steifigkeit, Anschlüsse mit sehr geringer Verdrehungsfähigkeit, Anschlüsse mit großer Verdrehungsfähigkeit, desweiteren die Grenzwerte nach [2.24] für die Einordnung eines Anschlusses in die Kategorie gelenkig , die Grenzwerte nach [2.24] für die Einordnung eines Anschlusses in die Kategorie starr , die Auswirkungen von Überfestigkeiten in den Anschlüssen, die Auswirkungen von veränderten Annahmen für die Festigkeiten beim gleichen System und beim gleichen Anschluß. Die Teilsicherheitsbeiwerte gegen ein Systemversagen bei den Berechnungen mit den Bemessungswerten (Berechnungs-Nr.: 12 und 22) liegen zwischen 1,18 und 1,59. Es wurden auch Vergleichsrechnungen mit hohen Werkstoffestigkeiten durchgeführt (Berechnungs-Nr.: 11 und 21), bei denen die angesetzten Bemessungswerte die wirklichen Festigkeiten z.T. sogar übersteigen. Hier liegen die Sicherheiten zwischen 1,01 und 1,49. Diese Werte stellen einen guten Kompromiß zwischen sicher und wirtschaftlich dar. Der Abstand zwischen den mit dem Rechenmodell ermittelten Verformungen und den nichtlinear ermittelten Verformungen wird i.a. erst kurz vor dem Erreichen der rechnerischen Grenzlast groß. Auf dem Gebrauchslastniveau werden die Verformungen vom vereinfachten Rechenmodell gut angenähert. Die Grenzen für die Einordnung der Anschlüsse in die Kategorien starr , verformbar und gelenkig , die in [2.24] angegeben sind, können durch die hier durchgeführten, vergleichenden Berechnungen bestätigt werden. Die Vergleichrechnungen zeigen, daß ein Anschluß im Zweifelsfall besser etwas steifer angenommen werden sollte. Dadurch wird er rechnerisch stärker beansprucht, und die Anschlußkonstruktion liegt auf der sicheren Seite. Die Auswirkungen auf das Feld sind gering. Auch verhält sich der Feldquerschnitt im allgemeinen gegenüber Abweichungen in den rechnerischen Annahmen gutmütiger . Durch die konzentrierte Verdrehung im Bereich des Verbundanschlusses und durch die Kerbe, die das Stützenprofil für den Betongurt darstellt werden direkt am Stützenprofil Risse im Betongurt hervorgerufen. Die erforderliche Betongurtdehnung aus der Anschlußverdrehung findet hier konzentriert in 2, bis maximal 3 Rissen statt. Dieses Rißgeschehen läßt sich bei großen Anschlußverdrehungen und mit einer normalen Bewehrung nur sehr schwer beherrschen, siehe Bild 4.13. Versuche mit unterschiedlichen Arten von Bewehrungen und Bewehrungsführungen sollten durchgeführt werden (z.B. stahlfaserbewehrter Beton im Anschlußbereich, Zulage von Stäben mit hochfestem Stahl, Zulage von Glasfiebermatten). Das Ziel muß es dabei sein, die Rißbreiten im Gebrauchszustand unter Kontrolle zu halten. Zu beachten ist dabei, daß der Gebrauchszustand des Anschlusses vom ganzen System -Träger mit Verbundanschluß - vorgegeben wird. Die Möglichkeit, die Bewehrung wirtschaftlich herstellen und einbringen zu können, sollte ein weiterer Gesichtspunkt bei der Planung der Versuche sein.
Aufgrund der vernetzten Strukturen und Wirkungszusammenhänge dynamischer Systeme werden die zugrundeliegenden mathematischen Modelle meist sehr komplex und erfordern ein hohes mathematisches Verständnis und Geschick. Bei Verwendung von spezieller Software können jedoch auch ohne tiefgehende mathematische oder informatorische Fachkenntnisse komplexe Wirkungsnetze dynamischer Systeme interaktiv erstellt werden. Als Beispiel wollen wir schrittweise das Modell einer Miniwelt entwerfen und Aussagen bezüglich ihrer Bevölkerungsentwicklung treffen.
Abstract: Winding number transitions from quantum to classical behavior are studied in the case of the 1+1 dimensional Mottola-Wipf model with the space coordinate on a circle for exploring the possibility of obtaining transitions of second order. The model is also studied as a prototype theory which demonstrates the procedure of such investigations. In the model at hand we find that even on a circle the transitions remain those of first order.
Abstract: Following our earlier investigations we examine the quantum-classical winding number transition in the Abelian-Higgs system. It is demonstrated that the winding number transition in this system is of the smooth second order type in the full range of parameter space. Comparison of the action of classical vortices with that of the sphaleron supports our finding.
A simple method of calculating the Wannier-Stark resonances in 2D lattices is suggested. Using this method we calculate the complex Wannier-Stark spectrum for a non-separable 2D potential realized in optical lattices and analyze its general structure. The dependence of the lifetime of Wannier-Stark states on the direction of the static field (relative to the crystallographic axis of the lattice) is briefly discussed.
The paper studies the effect of a weak periodic driving on metastable Wannier-Stark states. The decay rate of the ground Wannier-Stark states as a continuous function of the driving frequency is calculated numerically. The theoretical results are compared with experimental data of Wilkinson et at. [Phys.Rev.Lett.76, 4512 (1996)] obtained for cold sodium atoms in an accelerated optical lattice.
Vorlesung Logik
(2000)
For most applications the used transport service providers are predetermined during the development of the application. This makes it difficult to consider the application communication requirements and to exploit specific features of the network technology. Specialized protocols that are more efficient and offer a qualitative improved service are typically not supported by most applications because they are not commonly available. In this paper we propose a concept for the realization of protocol independent transport services. Only a transport service is predetermined during the development of the application and an appropriate transport service provider is dynamically selected at run time. This enables to exploit specialized protocols if possible, but standard protocols could still be used if necessary. The main focus of this paper is how a transport service could provide a new transport service provider transparently to existing applications. A prototype is presented that maps TCP/IP based applications to an ATM specific transport service provider which offers a reliable and unreliable transport service like TCP/IP.
Untersuchungen zur Synthese von c-BN-Schichten mit ECWR-PACVD und Boran-Ammonia als Eduktmaterial
(2000)
Boron nitride films were deposited by controlled plasma assisted chemical vapor deposition (PACVD) on the basis of borane-ammonia (BH3NH3) as B- and N- supplier. Having a high vapor pressure, this white crystalline solid of less toxicity in comparision to generally used boron precursors can easily be transferred into the gas phase by moderate heating. Together with argon as working gas the BH3NH3-vapor is led into a two-circuit plasma source utilizing the electron cyclotron wave resonance technique (ECWR) for ionization and dissoziation of the gas mixture by electron impact in the low pressure range (~10 microbar). For a precise adjustment of the energy of the ionic plasma species arriving at the growing film, an r.f.-diode circuit is superimposed to the discharge. Since for a controlled film deposition by PACVD a stationary plasma composition is mandatory, the evaporation characteristics of the reactant source was determined primarily. Therefore the evolution of the plasma and the vapor composition in dependence of evaporation time and temperature was investigated by optical emission spectroscopy (OES) and by mass spectrometric measurements respectively. By these investigations it was shown that stationary plasma conditions are established in a temperature range of 120 - 160°C. This behavior can be explained by a change in the chemical composition of the reactant during the evaporation process. In the following thin boron nitride films were deposited onto Si(100)-substrates for fixed partial pressures of BH3NH3 (2,9 mbar) and argon (9,3 microbar, FAr=5 sccm). For all experiments the plasma power as well as the substrate temperature was kept at 200 W (B0=34 G) and 380°C, respectively. By a defined tuning of the r.f.-amplitude in the diode circuit it was demonstrated that the energy of the ionic species arriving at the growing film is an essential process parameter for c-BN growth. For these experiments c-BN growth took place in a small energy window with a width of about 25 eV. The maximum c-BN content was achieved at 107 eV. The fraction of h-BN and c-BN phases were determined by Fourier Transform Infrared Spectroscopy (FTIR). At a film thickness of 61 nm the volume fraction of c-BN, derived from the IR-absorption peak areas of h-BN at 1385 cm -1 and c-BN at 1081 cm -1 , already achieved 68 vol%. This is due to an early starting point of c-BN growth, which was confirmed by cross sectional high resolution transmission electron microscopy measurements (HRTEM). Furthermore these investigations confirmed the growth of a thin amorphous BN-layer followed by a (0002)-textured h-BN-film primarily to the c-BN-nucleation step as commonly observed in literature. After the c-BN-nucleation step has finished the growth of a nearly pure c-BN-phase is achieved. This was emphasized by auger electron spectroscopy. By means of secondary ion mass spectrometry in the MCs + -mode (MCs + -SIMS) it was shown that the c-BN-films contain a certain amount of hydrogen, which can be estimated to be around 10 - 15 at%. Since in FTIR no perceptible amount on B-H- or N-H-bindings in the c-BN- films could be detected, it must be concluded that the hydrogen is located as H2-molecules in the c-BN-network. Finally the elastic properties of a c-BN-film were estimated by calculations, based on Brillouin light scattering (BLS) results.
In der vorliegenden Arbeit wurde an einem kleinen Spektrum humaner Xenograft-Tumoren exemplarisch die cAMP-hydrolysierende PDE-Aktivität untersucht. Dabei konnte gezeigt werden, dass sich Tumoren unterschiedlichen Gewebeursprungs stark in ihrer cAMP-hydrolysierenden PDE-Aktivität unterscheiden können, aber dass auch bei verschiedenen Tumoren des gleichen Gewebes die PDE-Aktivität ebenfalls stark variiert. Gleichzeitig wurden große Unterschiede im prozentualen Anteil an PDE4 gefunden. In nahezu der Hälfte der untersuchten Xenografts stellen Isoenzyme der PDE4-Familie weniger als 50% an der Gesamt-PDE-Aktivität dar. Bei Untersuchungen des großzelligen humanen Lungenxenografts LXFL529, der verglichen mit allen anderen untersuchten Tumoren die höchste PDE-Aktivität aufweist, konnte gezeigt werden, dass dieses Tumorgewebe PDE4D3 zu enthalten scheint, die jedoch sehr leicht proteolytisch gespalten wird. Außerdem wurden kurze Formen des PDE4D-Gens detektiert. Dabei könnte es sich um PDE4D1, PDE4D2 oder die von Eyschen (1999) aus LXFL529-Tumorgewebe isolierte trunkierte PDE4D3 handeln. Möglicherweise wird in LXFL529-Xenograftgewebe auch eine kurze Form einer nicht zur PDE4D-Isoenzymfamilie gehörenden PDE exprimiert. Zur genauen Bestimmung müssen noch weitere Untersuchungen durchgeführt werden. Bislang wurden wirkmechanistische Untersuchungen mit PDE4-Hemmstoffen ausschließlich an Permanent-Zelllinien durchgeführt. Um Aussagen über die Übertragbarkeit der Ergebnisse in vitro auf die in vivo-Situation zu ermöglichen, wurde Tumorgewebe zweier unterschiedlicher Lungentumor-Xenografts, LXFL529 und das humane kleinzellige Lungenkarzinom LXFS650, bezüglich seiner cAMP-hydrolysierenden PDE-Aktivität und dem Gehalt an PDE4 mit den entsprechenden Permanent-Zelllinien verglichen. Dabei wiesen beide Zelllinien eine wesentlich niedrigere PDE-Gesamtaktivität als die entsprechenden soliden Xenograft-Tumoren auf. Der Anteil an PDE4 liegt in LXFL529L-Zellen und soliden Tumor in der gleichen Größenordnung. Auch im Cytosol von LXFS650 (Zelllinie und Tumor) wird der gleiche Prozentsatz PDE4 nachgewiesen, während er im Partikular der Zelllinie deutlich höher liegt im entsprechenden Tumor. Ein wesentlicher Bestandteil dieser Arbeit waren Untersuchungen zum Wirkmechanismus des potenten PDE4-Inhibitors DC-TA-46. Dieser Hemmstoff zeigt große Unterschiede in den IC50-Werten der Hemmung isolierter PDE4 aus LXFL529-Tumorgewebe (0,016 microM) bzw. der Wachstumshemmung von LXFL529L-Zellen (2,3 microM). Im Rahmen dieser Arbeit konnte gezeigt werden, dass die subzelluläre Verteilung des Hemmstoffs vermutlich eine wesentliche Rolle spielt. Die PDE-Aktivität von Proteinpräparationen aus LXFL529L-Zellen wird durch DC-TA-46 mit IC50-Werten von 0,22 microM (Cytosol) und 0,5 microM (Partikular) gehemmt und unterscheidet sich in der Sensitivität damit nicht von Proteinpräparationen aus solidem Tumorgewebe. Inkubiert man jedoch LXFL529L-Zellen mit der Substanz, so erreicht man erst bei Konzentrationen > 10 -6 M eine Hemmung der cytosolischen PDE-Aktivität. Im Partikular der Zellen zeigt sich hingegen durch die Anreicherung von DC-TA-46 in Membranstrukturen eine deutliche Erhöhung der Hemmwirkung im Vergleich zur entsprechenden isolierten Proteinpräparation. Die Hemmung der intrazellulären PDE-Aktivität scheint dabei auch zelltyp-spezifisch zu sein. Analoge Versuche mit LXFS650L-Zellen zeigten eine deutlich höhere Hemmung der cytosolischen PDE im Vergleich zu LXFL529L-Zellen. Dies scheint mit der höheren Sensitivität von LXFS650L-Zellen gegenüber der wachstumshemmenden Wirkung von DC-TA-46 im Sulforhodamin B-Test zu korrelieren. Diese Untersuchungen zeigten, dass die Bestimmung der intrazellulären Hemmwirkung eine wesentliche Messgröße zur Untersuchung potentieller PDE-Hemmstoffe darstellt. Deshalb wurde für die bislang in unserem Arbeitskreis zur Verfügung stehenden Pteridinderivate die Hemmung der intrazellulären PDE untersucht. Fluoreszenzmikroskopische Untersuchungen an LXFL529L-Zellen ergaben keine Anhaltspunkte für Unterschiede in der subzellulären Lokalisation der verschiedenen Derivate. Alle Substanzen scheinen sich ebenso wie DC-TA-46 in Membranstrukturen in der perinuklearen Region anzureichern. Die Derivate unterscheiden sich jedoch deutlich in ihrer Hemmung. Durch Variation der Substituenten in 4- und 7-Position bzw. an 6-Position konnte am ehesten eine gute PDE-Hemmung erreicht werden. Zwei an 7-Position substituierte Derivate mit basischem Stickstoff ohne H-Donorfunktion zeigten sogar eine bessere Inhibition der zellulären PDE als DC-TA-46. Durch Variationen der Substituenten in 2-Position des Grundgerüsts kann keine bzw. nur geringe Hemmung zellulärer PDE erreicht werden. Die meisten Veränderungen an 4 -Position konnten keine PDE-Hemmung erzielen. Für die Hemmung zellulärer PDE scheint also ein größerer Rest an 6-Position als Wasserstoff wichtig zu sein bzw. eine Wasserstoffdonorfunktion des basischen Stickstoffs in 4 -Position. Lediglich eine an 4 -Position mit einem Acetylrest substituierte Verbindung war in LXFL529L-Zellen ein potenter PDE-Hemmstoff, nicht jedoch am isolierten Enzym, was auf die Freisetzung der Leitsubstanz DC-TA-46 durch metabolische Prozesse in der Zelle zurückzuführen sein kann. Deshalb sollte bei zukünftigen biologischen Testungen nicht nur am isolierten Enzym, sondern auch in Zellen getestet werden sollte, da nur so pharmakologische Prozesse einbezogen werden. In vitro führt die Behandlung von Tumorzellen mit DC-TA-46 zu einem Zellzyklusarrest in der G1-Phase des und zur Induktion von Apoptose [Wagner, 1998; Marko et al., 1998]. Im Rahmen dieser Arbeit konnte gezeigt werden, dass dieser Zellzyklus-Arrest nicht durch die Wirkung des Pteridinderivats auf die Cyclin-abhängigen Kinase-Inhibitoren p21 cip1 und p27 kip1 zustande kommt. Der cAMP-Gehalt von Zellen kann während des Zellzyklus periodischen Schwankungen unterliegen [Millis et al., 1974]. In LXFL529L-Zellen konnte eine positive Korrelation zwischen der PDE-Aktivität im Cytosol und dem Anteil der Zellen in der G0/G1-Phase des Zellzyklus detektiert werden. Im Partikular hingegen ist ein deutlicher Zusammenhang zwischen der PDE-Aktivität und des Gehalts von G2/M-Phase-Zellen bzw. eine negative Korrelation zwischen partikulärer PDE-Aktivität und dem Anteil der G1-Phase-Zellen zu sehen. Da DC-TA-46 aufgrund seiner subzellulären Lokalisation hauptsächlich im Partikular wirksam ist, scheint v.a. die Hemmung der partikulären Isoenzyme für den G1-Arrest wesentlich zu sein. Im Rahmen dieser Arbeit konnte nun umgekehrt gezeigt werden, dass in LXFL529L-Zellen in der G1-Phase eine geringe partikuläre PDE-Aktivität vorliegt.
In den letzten Jahren konnte ein beachtlicher Fortschritt bei der Entwicklung kostengünstiger, hoch effektiver Si-Solarzellen mit kristalliner Basis und einem Emitter aus amorphem Silizium (a-Si:H) beobachtet werden. Für die Herstellung dieser Emitter wird zur Zeit ausschliesslich die plasmaunterstützte chemische Gasphasenabscheidung (PECVD)verwendet, die jedoch aufgrund ihrer Hochfrequenztechnik sehr aufwendig ist. Die Hot-wire CVD, das heisst die Abscheidung durch Zersetzung eines Gases an einem heissen Draht, ist in dieser Hinsicht eine viel versprechende Alternative. Ziel dieser Arbeit ist es, das Hot-wire Wachstum auf Si-Wafern zu charakterisieren, um auf diese Weise eine systematische Optimierung von Solarzellen mit kristalliner Basis zu erreichen. Daher wurden sowohl grundlegende materialwissenschaftliche als auch bauelementspezifische Fragen diskutiert. Mittels kinetischer in-situ Ellipsometrie wurde erstmals die Hot-wire CVD von Silizium auf poliertem HF-geätztem (100)-Silizium untersucht und die zeitliche Entwicklung eines epitaktischen Wachstums beobachtet. Im Verlauf der Deposition kann die Epitaxie abbrechen und sich eine Mischphase aus kristallinem und amorphem Silizium bilden, wobei der c-Si-Volumenanteil nahezu linear mit der Zeit abnimmt und anschließend reines a-Si:H-Wachstum stattfindet. Die Dicken der rein epitaktischen Schicht als auch der Mischphase nehmen mit ansteigender Substrattemperatur Ts und sinkender Depositionsrate R zu. Bei Ts=300 °C und R=1.4 A/s konnte eine epitaktische Schichtdicke grösser 200 nm abgeschieden werden. Untersuchungen zur Hot-wire CVD von Germanium auf poliertem HF-geätztem (100)-Silizium zeigten erstmals, dass ein über 170 nm dickes heteroepitaktisches Wachstum bei Ts= 350°C und R=2.8 A/s möglich ist. Daher besitzt die Hot-wire CVD viel versprechende Perspektiven hinsichtlich der industriellen Herstellung (opto-)elektronischer Bauelemente auf der Nanometerskala. Verschiedenartige Si-Schichten (amorph/nanokristallin/einkristallin, n/p-dotiert) wurden mittels Hot-wire CVD hergestellt und als Emitter von Solarzellen mit kristalliner Si-Basis aufgebracht. Mit (n)a-Si:H-Emittern auf texturierten Wafer wurde ein intrinsischer Wirkungsgrad von 15.2% erreicht. Ausserdem ermöglicht die Hot-wire Deposition epitaktischer Emitter die Verwendung von SiO2 oder SiN als Antireflexionsschicht anstelle von transparenten leitfähigen Oxiden (TCO) und damit eine deutliche Reduzierung der Herstellungskosten. Die Leerlaufspannung und der Füllfaktor der hergestellten Solarzellen hängen stark von der Passivierung der Waferoberlfäche ab, wobei beide Hellkennlinienparameter durch eine optimierte Hot-wire Wasserstoffbehandlung des Substrats vor der Emitterdeposition hohe stabile Werte erreichen. Abschliessend wird festgestellt, dass die in-situ Ellipsometrie hervorragend zur zerstörungsfreien und oberflächensensitiven Untersuchung des Schichtwachstum mittels Hot-wire CVD geeignet ist. Ausserdem ist die Hot-wire CVD sehr gut für die Herstellung von Si-Solarzellen mit kristalliner Basis geeignet und besitzt viel versprechende Perspektiven bezüglich (opto-)elektronischer Bauelemente auf der Nanometerskala.
Elektronen in einem kristallinen Festkörper oder, allgemeiner formuliert, Teilchen in einem räumlich periodischen Potential bilden ein System, das schon seit den Anfängen der Quantenmechanik von fundamentalem Interesse ist. Ein wichtiges physikalisches Problem ist dabei die Berechnung der quantenmechanischen Zustände solcher Teilchen, die zusätzlich einem homogenen elektrischen Feld ausgesetzt sind. Die exakte Lösung dieses Problems ist jedoch selbst für eindimensionale Systeme nicht möglich, da der Versuch einer analytischen Berechnung auf unüberwindliche mathematische Probleme stößt. Diese versuchte Wannier 1960 zu umgehen, indem er die nach ihm benannten Wannierzustände einführte. Mit seiner Veröffentlichung stieß er eine jahrzehntelange Diskussion an. Vor allem die Begriffe Blochoszillationen, Zener-Tunneln und Wannier-Stark-Quantisierung standen im Mittelpunkt einiger Kontroversen. Ein physikalisch wichtiges Ergebnis der Diskussion ist die Erkenntnis, daß es sich bei den Eigenzuständen des betrachteten Systems um Resonanzen, d.h. metastabile Zustände, handelt, die sich auf eine ganz bestimmte Art und Weise anordnen lassen. Jede Resonanzenergie ist nämlich Teil einer Folge von äquidistanten Energieeigenwerten, den sogenannten Wannier-Stark-Leitern. Die Wannier-Stark-Quantisierung wurde zuvor lange Zeit in Frage gestellt, denn Zak zeigte, daß der Hamiltonoperator des Systems ein kontinuierliches Spektrum besitzt und widersprach damit der Aussage, das Systeme habe diskrete Energieeigenwerte. Tatsächlich ist das Spektrum, wenn man nur die reelle Achse betrachtet, kontinuierlich. Die Diskretisierung ergibt sich erst, wenn man zur Betrachtung der komplexen Ebene übergeht. Den ersten experimentellen Hinweis auf die Existenz von Wannier-Stark-Leitern fand man in Versuchen zur optischen Absorption in einem Festkörperkristall. In jüngster Zeit wurde das Interesse an diesem Gebiet der Physik durch Experimente mit Halbleiter-Übergittern und optischen Gittern erneut geweckt, denn man findet hier weitere Realisierungen des untersuchten Hamiltonoperators. Insbesondere erweisen sich neutrale Atome in stehenden Laserwellen als geeignete Studienobjekte. Die Untersuchungen mit Hilfe dieser Experimente haben den Vorteil, daß sie nicht wie Versuche mit Elektronen in Festkörpern durch spezifische Probleme wie Gitterfehler, Verunreinigungen, Phonon-Elektron-Wechselwirkung, Elektron-Elektron-Wechselwirkung, etc. gestört werden. Genauer gesagt, viele theoretische Aussagen über das System lassen sich erst durch das Fehlen der festkörpereigenen Störeinflüsse experimentell überprüfen. Andererseits lösen die neuen Ergebnisse der Experimentalphysik eine Weiterentwicklung der zugehörigen Theorie aus. Den Ausgangspunkt der Untersuchungen zu dieser Thematik in unserer Arbeitsgruppe bildete die Entwicklung einer effizienten Methode zur Berechnung von Wannierzuständen. Anschließend wurden verschiedene Aspekte des Wannier-Stark-Systems betrachtet, u.a. die Auswirkungen eines zusätzlichen zeitperiodischen äußeren Feldes, wie es beispielsweise im Experiment auftaucht. Die vorliegende Arbeit soll in diesem Zusammenhang klären, wie die Lebensdauer der Wannier-Stark-Resonanzen durch den periodischen Antrieb beeinflußt wird.
Abstract: The calculation of absorption cross sections for minimal scalars in supergravity backgrounds is an important aspect of the investigation of AdS/CFT correspondence and requires a matching of appropriate wave functions. The low energy case has attracted particular attention. In the following the dependence of the cross section on the matching point is investigated. It is shown that the low energy limit is independent of the matching point and hence exhibits universality. In the high energy limit the independence is not maintained, but the result is believed to possess the correct energy dependence.
An asymptotic preserving numerical scheme (with respect to diffusion scalings) for a linear transport equation is investigated. The scheme is adopted from a class of recently developped schemes. Stability is proven uniformly in the mean free path under a CFL type condition turning into a parabolic CFL condition in the diffusion limit.
Von den Umweltberichten deutscher Unternehmen werden bisher erst unter 3% im Internet veröffentlicht. Die Tendenz ist steigend. Hier werden die im Internet verfügbaren Umweltberichte ausgewertet und Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen. Der Beitrag ist in fünf Abschnitte gegliedert: Zur thematischen Einführung werden betriebliche Umweltberichte durch eine Morphologie charakterisiert (Abschnitt 2). Es schließen sich die IKT-spezifischen Herausforderungen an umweltberichterstattende Unternehmen als Ansatzpunkte für Umweltberichte im Internet an (Abschnitt 3). Damit ist die Basis für eine Systematisierung der internetbasierten Unterstützungspotenziale zur Umweltberichterstattung gelegt (Abschnitt 4). Der Systematik folgt eine detaillierte Bestandsaufnahme der Umweltberichte deutscher Unternehmen im Internet in fünffacher Hinsicht (Abschnitt 5): Die zugrunde gelegte Untersuchungsmethodik zur Bestandsaufnahme wird erläutert (Abschnitt 5.1). Die ergänzend herangezogenen empirischen Studien zu Umweltberichten im Internet werden ausgewertet (Abschnitt 5.2). Die Ergebnisse bzgl. Inhalt und Darstellung von Umweltberichten im Internet werden ausführlicher beschrieben (Abschnitt 5.3) und durch Erklärungsansätze interpretiert (Abschnitt 5.4). Abschließend werden auf der Grundlage der konzeptionell erschließbaren Unterstützungspotenziale einerseits und der empirischen Studien andererseits zentrale Tendenzen zur zukünftigen Entwicklung von Umweltberichten im Internet vorgetragen (Abschnitt 5.5).
Hier werden die im Internet verfügbaren Umweltberichte von Unternehmen ausgewertet, Praxiserfahrungen von im Internet umweltberichterstattenden Unternehmen dokumentiert, generelle Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen, eine Klassifikation von Umweltberichten im Internet entworfen und Entwicklungstendenzen in der Umweltberichterstattung skizziert. Die Studie ist in sechs Kapitel gegliedert: Zur thematischen Einführung werden Umweltberichte als Kern der Umweltkommunikation von Unternehmen behandelt (Kapitel 2). Es schließen sich die spezifischen informations- und kommunikationstechnischen (IKT) Herausforderungen an umweltberichterstattende Unternehmen an. Diese werden als Ansatzpunkte für eine Umweltberichterstattung im Internet sowie zur Ausschöpfung der technischen Unterstützungspotentiale des Internet betrachtet (Kapitel 3). Damit ist die Basis für eine Übersicht über die verschiedenen technischen Unterstützungspotentiale beim Einsatz von Internettechnologien und -diensten für die Umweltberichterstattung gelegt (Kapitel 4). Der Übersicht folgt eine detaillierte Bestandsaufnahme zu Umweltberichten von Unternehmen im Internet für Deutschland (Kapitel 5). Auf der Grundlage der Bestandsaufnahme wird abschließend für den Einsatz des Internet zur Umweltberichterstattung argumentiert (Kapitel 6).
Die Umweltberichterstattung spielt sowohl für den ökonomischen Erfolg von Unternehmen als auch für eine ökologisch nachhaltige Entwicklung eine zunehmend wichtige Rolle. Dafür sprechen drei Gründe: Erstens können Unternehmen kön-nen durch eine freiwillige und informative Umweltberichterstattung ökologische Schwachstellen aufdecken, Umweltbelastungen reduzieren und Wettbewerbsvorteile im Markt erzielen. Zweitens nehmen gesetzliche und moralische Verpflichtungen zur Umweltberichterstattung zu. Drittens sind die technischen Möglichkeiten zur Umweltberichterstattung durch den Einsatz des Internet enorm gestiegen. Alle drei Tendenzen sind gute Gründe für den Einsatz des Internet zur Umweltberichterstattung. Allerdings sind bei den Umweltberichten von kleinen und mittelständischen Unternehmen (KMU) insgesamt bisher erst weniger als 3% im Internet veröffentlicht, die Tendenz ist jedoch steigend. Bislang nutzen überwiegend internationale und weltweit tätige Großunternehmen das Internet zur Umweltberichterstattung. KMU präsentieren bislang nur selten Umweltberichte im Internet. Hier werden die im Internet verfügbaren Umweltberichte von KMU ausgewertet, generelle Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen und die Möglichkeiten von KMU für eine internetbasierte Umweltbe-richterstattung am Beispiel von Umweltberichten dargestellt. Die Studie ist in sechs Kapitel gegliedert: Zur thematischen Einführung werden Umweltberichte als Kern der Umweltkommunikation von Unternehmen behandelt (Kapitel 2). Es schließen sich die informations- und kommunikationstechnischen (IKT) Herausforderungen an umweltberichterstattende Unternehmen an. Sie werden als Ansatzpunkte für Umweltberichte im Internet und zur Ausschöpfung der technischen Unterstützungspotentiale des Internet betrachtet (Kapitel 3). Damit ist die Basis für eine Übersicht über die verschiedenen technischen Unterstützungspotentiale beim Einsatz von Internettechnologien und -diensten für die Umweltbe-richterstattung gelegt (Kapitel 4). Der Übersicht folgt eine detaillierte Bestandsauf-nahme von Umweltberichten im Internet von KMU in Deutschland (Kapitel 5). Auf der Grundlage der empirischen Bestandsaufnahme werden dann die Möglichkeiten einer internetbasierten Umweltberichterstattung für KMU abgeleitet (Kapitel 6).
Abstract: A Born-Infeld theory describing a D2-brane coupled to a 4-form RR field strength is considered, and the general solutions of the static and Euclidean time equations are derived and discussed. The period of the bounce solutions is shown to allow a consideration of tunneling and quantum-classical transitions in the sphaleron region. The order of such transitions, depending on the strength of the RR field strength, is determined. A criterion is then derived to confirm these findings.
Der Schwerpunkt der vorliegenden Arbeit lag in der Etablierung und Validierung transgener und endogener Reporter zur Erfassung und Charakterisierung estrogenartiger Fremdstoffe. Für den Aufbau transgener Reportergensysteme sollten eigene Reportergenplasmide konstruiert werden. Als transgene Reporter wurden die sekretierbare Alkalische Phosphatase sowie das Luciferase Enzym ausgewählt. Die Expression der Reportergene sollte unter der Kontrolle des estrogenrezeptorinduzierbaren Wildtyp Promotors Vitellogenin A2, der im Gegensatz zu synthetischen Tandemkopien alle Vorteile eines natürlichen Promotors aufweist, stehen. Dazu wurde der Vitellogenin A2 Promotor in die Multiple Cloning Site des Reportergenvektors vor die codierende Sequenz des Reportergens kloniert. Es gelang die Konstruktion beider Reportergenplasmide mit Hilfe zweier unterschiedlicher Verfahren. Die Zwischenschritte der Konstruktion wurden jeweils überprüft. Die abschließende Funktionsprüfung der Plasmide nach Transfektion in geeignete estrogenrezeptorpositive Zellinien durch entsprechende Inkubation der Zellen und Nachweis der Reportergene mittels spezifischer enzymatischer Reaktion war erfolgreich. Für den Aufbau eines neuen Reportergensystems wurde die humane Mammacarcinomzellinie MCF-7 mit dem Reportergenkonstrukt pSEAP2/VITA2 transfiziert. Die Etablierung und Validierung erfolgte mit bekannten Estrogenrezeptoragonisten und Antagonisten. Exemplarisch wurden zwei Estrogenrezeptoragonisten, Diethylstilbestrol (DES) und b-Sitosterol geprüft. Der nach DES-Inkubation aus den erhaltenen Kurven berechnete RE-Wert (RE=Relative Effektivität) lag, wie in der Literatur beschrieben, in der gleichen Größenordnung wie der von Estradiol. Zusätzlich gelang die Cotransfektion der Plasmide pSEAP2/VITA2 und pSV2neo in MCF-7 Zellen und die Selektion der transfizierten Zellen mit Geneticinsulfat (G418). Untersuchungen der Alkalischen Phosphatase Aktivität der Zellen nach entsprechender Substanzinkubation ergaben, daß die Zellen bis zu einem halben Jahr beide Plasmide integriert haben und zur Charakterisierung potentiell hormonaktiver Verbindungen verwendet werden können. Danach ist eine erneute Transfektion erforderlich. Die Entdeckung eines zweiten Estrogenrezeptors, ERb, in Ratte, Maus und Mensch verdeutlicht, daß estrogenrezeptorvermittelte Mechanismen sehr komplex sind. Da beide Subtypen eine unterschiedliche Gewebeverteilung aufweisen, wird ein Zusammenhang mit den selektiven Wirkungen der Estrogene auf deren Zielgewebe diskutiert. Durch den Einsatz spezifischer Primer für ERa und ERb konnte mittels RT-PCR gezeigt werden, daß in der humanen Mammacarcinomzellinie MCF-7 beide Subtypen exprimiert werden, was mit den Literaturergebnissen übereinstimmt. Aus diesem Grund sollten Reportergensysteme mit dem jeweiligen Estrogenrezeptorsubtyp in geeigneten Zellinien etabliert werden, um potentielle estrogenaktive Fremdstoffe am entsprechenden Subtyp getrennt zu untersuchen und so mögliche Unterschiede bezüglich der Genaktivierung zu erkennen. Es wurden verschiedene Zellinien, die endogen keinen Estrogenrezeptor exprimieren, mit den Rezeptorexpressionsplasmiden und den Reportergenplasmiden mit Hilfe unterschiedlicher Transfektionsmethoden transfiziert. Als geeignetste Zellinie erwies sich hierbei die embryonale Nierenzellinie HEK 293, als effektive und daneben auch kostengünstigste Transfektionsmethode wurde die Elektroporation gewählt. Die Etablierung und Validierung dieser Systeme konnte sowohl für Alkalische Phosphatase als auch für Luciferase erfolgreich abgeschlossen werden. Erste Substanzen wurden an beiden Subtypen durch Nachweis des Luciferasereportergens getestet. Signifikante Unterschiede wie von Kuiper et al [Kuiper et al, 1997] für die Phytoestrogene Coumestrol und Genistein beschrieben, konnte für die untersuchten Verbindungen (DES, Resveratrol und o,p'-DDT) nicht beobachtet werden. Neben transgenen Nachweismethoden sollte ein Verfahren zur Detektion eines endogenen Reporters etabliert und validiert werden. Dafür wurde das in der MCF-7 Zellinie estrogenabhängig exprimierte pS2 Protein als geeigneter Parameter ausgewählt. Zur Detektion des pS2-Proteins wurden zwei Nachweisverfahren eingesetzt. Auf Protein-Ebene ein immunradiometrischer Assay, auf mRNA-Ebene die RT-PCR. Der Nachweis des pS2-Proteins mittels immunradiometrischem Assay zeigte eine gute Sensitivität, der EC50-Wert von Estradiol lag im Vergleich zur stabilen MCF-7-Luc Zellinie eine Zehnerpotenz niedriger. Ergänzend wurden die Substanzen Bisphenol A, o,p'-DDT, Daidzein sowie p-tert.-Octyl- bzw. Nonylphenol untersucht. Der durch die jeweilige Verbindung hervorgerufene Verlauf der Proteininduktion ist mit den Ergebnissen des MCF-7-Luc-Systems vergleichbar. Im Vergleich zum MCF-7-Luc System konnte eine höhere intrinsische Potenz beobachtet werden. Die Etablierung der RT-PCR-Methode zum Nachweis der mRNA mit pS2 spezifischen Primern war erfolgreich. Weiterführende Untersuchungen zur Quantifizierung der pS2 mRNA mittels nicht-genomischem Standard wurden von Gensler durchgeführt. [Gensler, 1999] Verbindungen unterschiedlichster Herkunft wurden mit dem stabilen MCF-7-Luc System auf ein eventuell hormonelles Potential untersucht. Das Phytosterol b-Sitosterol (aus Soja und technisch erzeugtes) zeigte eine signifikante estrogene Wirkung, das als Negativkontrolle mitgeführte Cholesterol führte nicht zur Reportergeninduktion. Verschiedene Parabene wurden aufgrund der in der Literatur beschriebenen estrogenen Wirkung untersucht. Eine Expression der Luciferase durch die Parabene konnte im Transaktivierungsassay nicht nachgewiesen werden. Die Untersuchung verschiedener natürlich vorkommender Zimtsäureanaloga ergab, im Gegensatz zu Zimtsäuremethylester, keine Hinweise auf eine estrogene Aktivität. Neben der Prüfung von Einzelverbindungen kann dieses etablierte System auch zur Prüfung von Kombinationseffekten herangezogen werden. Kombinationen von Bisphenol A, o,p'-DDT, Daidzein, p-tert.-Octyl- oder Nonylphenol unterschiedlicher Konzentrationen mit Estradiol 1 nM ergaben hohe Reportergeninduktionen, die maximal bis zum Wirkungsplateau von Estradiol reichten. Zusätzliche Kombination mit ICI 182 780 1 microM führte zur Antagonisierung der beobachteten Effekte, was darauf hinweist, daß diese estrogenrezeptorvermittelt ablaufen. Es konnten neue funktionelle Testsysteme und Methoden zur effektiven Prüfung potentiell hormonell aktiver Verbindungen etabliert und validiert werden, die auf der Detektion transgener oder endogener Reporter beruhen. Diese können sowohl zur Wirkstofffindung als auch zur Erkennung und Charakterisierung möglicher toxikologisch relevanter Wirkungen dienen.
Abstract: We analyze the above-threshold behavior of a mirrorless parametric oscillator based on resonantly enhanced four wave mixing in a coherently driven dense atomic vapor. It is shown that, in the ideal limit, an arbitrary small flux of pump photons is sufficient to reach the oscillator threshold. We demonstrate that due to the large group velocity delays associated with coherent media, an extremely narrow oscillator linewidth is possible, making a narrow-band source of non-classical radiation feasible.
The balance space approach (introduced by Galperin in 1990) provides a new view on multicriteria optimization. Looking at deviations from global optimality of the different objectives, balance points and balance numbers are defined when either different or equal deviations for each objective are allowed. Apportioned balance numbers allow the specification of proportions among the deviations. Through this concept the decision maker can be involved in the decision process. In this paper we prove that the apportioned balance number can be formulated by a min-max operator. Furthermore we prove some relations between apportioned balance numbers and the balance set, and see the representation of balance numbers in the balance set. The main results are necessary and sufficient conditions for the balance set to be exhaustive, which means that by multiplying a vector of weights (proportions of deviation) with its corresponding apportioned balance number a balance point is attained. The results are used to formulate an interactive procedure for multicriteria optimization. All results are illustrated by examples.
Abstract: We analyse 4-dimensional massive "phi" ^ 4 theory at finite temperature T in the imaginary-time formalism. We present a rigorous proof that this quantum field theory is renormalizable, to all orders of the loop expansion. Our main point is to show that the counterterms can be chosen temperature independent, so that the temperature flow of the relevant parameters as a function of T can be followed. Our result confirms the experience from explicit calculations to the leading orders. The proof is based on flow equations, i.e. on the (perturbative) Wilson renormalization group. In fact we will show that the difference between the theories at T > 0 and at T = 0 contains no relevant terms. Contrary to BPHZ type formalisms our approach permits to lay hand on renormalization conditions and counterterms at the same time, since both appear as boundary terms of the renormalization group flow. This is crucial for the proof.
Einer der Schwerpunkte dieser Arbeit ist die Reaktivitätsstudie von Mesitylphosphaalkin gegnüber 1,3-Butadien. Durch diese Umsetzung gelingt erstmals die Synthese eines 1-Phosphacyclohexa-1,4-diens und somit ein Beweis für die Gültigkeit des postulierten Reaktionsmechanismus zum Aufbau von Diphosphatricyclooctenen. Die Isolierung dieses Phosphacyclohexadiens ermöglicht auch erstmals die Darstellung von in 2- und 8-Position sterisch aufwendig gemischt substituierter Tricyclooctene aus je einem Äquivalent zweier verschiedener Phosphaalkine und einem Molekül eines offenkettigen 1,3-Diens. Ein weiteres Hauptaugenmerk lag auf dem Reaktionsverhalten von kinetisch stabilisierten Phosphaalkinen gegenüber Vinylallenen. Diese reagieren, obwohl sie auch die konstitutionelle Voraussetzung für En-Reaktionen mit sich bringen, fast ausnahmslos im Sinne offenkettiger 1,3-Diene. Je nach Wahl des Substitutionsmusters der Reaktanden sind so Tricyclooctene, Phosphinine, Phosphacyclohexadiene, Tetrahydrophosphinolizine und auch ein hochsubstituiertes Phosphan zugänglich. Trotz sterischer Abschirmung eignen sich die neuen Phosphine und Tricyclooctene als Liganden in Übergangsmetallcarbonylkomplexen. Im zweiten Teil der Arbeit steht die Synthese neuer auch perfluorierter Phosphaalkene des Becker-Typs im Vordergrund. Sie lassen sich als Syntheseäquivalente der entsprechenden Phosphaalkine einsetzen, auch wenn deren Darstellung nur in einem einzigen Fall gelingt. Das neu synthetisierte Phosphaalkin entzieht sich aufgrund seines hohen Dampfdrucks einer Isolierung. Seine Existenz steht jedoch außer Frage, da es in 1,3-dipolaren Cycloadditionen die erwarteten Heterophosphole liefert. Im letzten Abschnitt der Arbeit wurden Untersuchungen bezüglich der En-Reaktivität eines perfluorierten Phosphaalkens angestellt. Umsetzungen mit kinetisch nicht stabilisierten Phosphaalkenen ermöglichen hier den Zugang zu sehr hydrolyseempfindlichen Diphosphanen. Eine Dimerisierung der Reaktionspartner wird unterdrückt.
Im Rahmen dieser Arbeit wurde das biologisch aktive Alkaloid Lycorin aus Pflanzenmaterial isoliert. Durch Oxidation von Lycorin konnte das biologisch ebenfalls wirksame Lycobetain (Ungeremine) dargestellt werden. Zur Identifizierung der für die biologischen Wirkungen wesentlichen strukturellen Elemente dieser Substanzen, wurden verschiedene Phenanthridin- und Benzo[c]phenanthridin-Derivate synthetisiert und auf ihre cytotoxische Wirkung untersucht. Die biologische Wirkung der synthetisierten Substanzen wurde mittels Sulforhodamin-B-Assay, Ethidiumbromid-Verdrängungsassay und dem Kompetitionsassay mit Hoechstfarbstoff H33258 untersucht. Die wachstumshemmende Wirkung der Phenanthridin- und Benzo[c]phenanthridin-Derivate war im Vergleich zu Lycorin (~ 2 microM) und Lycobetain (~ 3 microM) deutlich niedriger und lag bei allen Substanzen über 10 microM. Auch bei den Ergebnissen zur DNA-Interaktion zeigte sich, dass keine der Phenanthridin- und Benzo[c]phenanthridin-Derivate im Ethidiumbromid-Verdrängungsassay einen ED50-Wert kleiner als 20 microM (Lycobetain: ED50 = 13 microM) bzw. im Kompetitionsassay mit H33258 einen ED50-Wert kleiner als 1 microM (Lycobetain: ED50 = 0,5 microM) besaßen.
The quality of freeform surfaces is one of the major topics of CAD/CAM. Aesthetic and technical demands require the construction of high quality surfaces with strong shape conditions. Quality diminishing properties like dents or flat points have to be eliminated while approximation conditions must hold at the same time. Our approach combines quality and approximation criteria to a nonlinear multicriteria optimization problem and achieves an automatic approximation and fitting process.
For the next generation of high data rate magnetic recording above 1 Gbit/s, a better understanding of the switching processes for both recording heads and media will be required. In order to maximize the switch-ing speed for such devices, the magnetization precession after the magnetic field pulse termination needs to be suppressed to a maximum degree. It is demonstrated experimentally for ferrite films that the appropriate adjustment of the field pulse parameters and/or the static applied field may lead to a full suppression of the magnetization precession immediately upon termination of the field pulse. The suppression is explained by taking into account the actual direction of the magnetization with respect to the static field direction at the pulse termination.
Abstract: Let H_1 , H_2 be complex Hilbert spaces, H be their Hilbert tensor product and let tr_2 be the operator of taking the partial trace of trace class operators in H with respect to the space H_2 . The operation tr_2 maps states in H (i.e. positive trace class operators in H with trace equal to one) into states in H_1 . In this paper we give the full description of mappings that are linear right inverse to tr_2 . More precisely, we prove that any affine mapping F(W) of the convex set of states in H_1 into the states in H that is right inverse to tr_2 is given by W -> W x D for some state D in H_2 . In addition we investigate a representation of the quantum mechanical state space by probability measures on the set of pure states and a representation - used in the theory of stochastic Schrödinger equations - by probability measures on the Hilbert space. We prove that there are no affine mappings from the state space of quantum mechanics into these spaces of probability measures.
Die Flechtenfamilie Lichinaceae (lichenisierte Ascomyceten) wurde erstmals einer umfassenden phylogenetischen Studie unterzogen. Anlaß waren die gravierenden Widersprüche in der Konzeption und Umschreibung der Familie und ihrer Gattungen sowie die Tatsache, daß die stammesgeschichtlichen Beziehungen der Familie und ihrer Gattungen völlig unzureichend bekannt waren. Als Ursachen wurden die zahlreichen Konflikte in der Merkmalsverteilung erkannt. Diese wurden in zurückliegenden Arbeiten über die Lichinaceae oft subjektiv gelöst oder auch gänzlich ignoriert. Daher bestand das Ziel der Arbeit darin, den Merkmalsumfang der Lichinaceae zunächst kritisch zu überprüfen und auf der Grundlage phylogenetisch-systematischer Methodik neu zu analysieren. Neben klassischen Merkmalen wurden als weitere Informationsquelle Sequenzdaten des Gens der kleinen ribosomalen Untereinheit (18S rDNA) benutzt. Die Merkmalsanalysen wurden manuell und rechnergestützt durchgeführt. Die Berechnung der Stammbäume wurde zunächst nach Datentyp getrennt und danach kombiniert vorgenommen. Der Typ, die Art der Zustandsänderung und das Gewicht morphologischer Merkmale wurden in verschiedenen Berechnungen variiert. Die Sequenzdaten wurden nach vorgegebenen Standards als ungeordnet und gleich gewichtet definiert. Nach den gewonnen Erkenntnissen ist die Ordnung Lichinales eine monophyletische Einheit, die aus den Familien Peltulaceae, Lichinaceae, Gloeoheppiaceae und Heppiaceae aufgebaut ist. Die Ordnung gründet sich mutmaßlich auf den Besitzt unitunicat-rostrater Asci sowie Befunde aus 18S rDNA-Analysen. Die Beziehungen der Lichinales sind noch weitgehend ungeklärt, doch ist eine nähere Verwandtschaft mit den Lecanorales oder einer Teilgruppe daraus anzunehmen. Die Familie Lichinaceae im herkömmlichen Sinne konnte nicht als Monophylum begründet werden. Durch den Einschluß der Heppiaceae und Gloeoheppiaceae konnte der prototunicate Ascus als mutmaßliche Autapomorphie der Lichinaceae in erweiterter Fassung gefunden werden und die Familie damit den Peltulaceae als Schwestergruppe gegenüber gestellt werden. Die Entstehung des prototunicaten Ascus der Lichinaceae wurde als Reduktionsfolge interpretiert. Es muß angenommen werden, daß unitunicat-rostrate Asci in den Lichinales mehrfach entstanden sind. Die gleich sparsame Alternative, daß der prototunicate Ascus mehrfach reduziert wurde, mußte zumindest vorläufig abgelehnt werden, da dies ein mehrfaches Entstehen des Ontogenie-Typs Pycnoascocarp gefordert hätte. Letzteres ist nach den gewonnenen Erkenntnissen sehr unwahrscheinlich. Anatomische Details, die Wuchsform oder Pyknidien taugen nicht zur Abgrenzung monophyletischer Gruppen oberhalb der Gattungsebene. Das hohe Maß an Parallelentwicklungen in dieser Ebene behinderte die phylogenetische Analysen zum Teil erheblich. Die Ergebnisse wurden in ein geschriebenes System und eine darauf aufbauende Klassifikation integriert. Es wurde eine Emendierung der Lichinaceae vorgenommen und darin die Heppiaceae und Gloeoheppiaceae in die Synonymie verwiesen. Die Gattung Thyrea wurde emendiert. Jenmania ist nach den gewonnenen Erkenntnissen in der ursprünglichen Form als monotypische Gattung zu belassen. Die Gattung Paulia wurde erweitert. Die Namen folgender Taxa wurden provisorisch umkombiniert: Jenmania osorioi Henss. = Thyrea osorioi (Henss.) Schultz, Synalissa nitidula Müll. Arg. = Paulia nitidula (Müll. Arg.) Schultz, Synalissa salevensis Müll. Arg. = Paulia salevensis (Müll. Arg.) Schultz. Folgende Artnamen wurden in die Synonymie verwiesen: Thyrea schroederi Zahlbr. = Paulia nitidula (Müll. Arg.) Schultz, Paulia schroederi (Zahlbr.) Henss. = Paulia nitidula (Müll. Arg.) Schultz. Es wurde ein Schlüssel zur Bestimmung aller derzeit in die Lichinaceae gestellten Gattungen vorgelegt sowie einige Schlüssel zur Bestimmung der Arten überarbeitet, erweitert oder neu erstellt.
Spherical Tikhonov Regularization Wavelets in Satellite Gravity Gradiometry with Random Noise
(2000)
This paper considers a special class of regularization methods for satellite gravity gradiometry based on Tikhonov spherical regularization wavelets with particular emphasis on the case of data blurred by random noise. A convergence rate is proved for the regularized solution, and a method is discussed for choosing the regularization level a posteriori from the gradiometer data.
The analyticity property of the one-dimensional complex Hamiltonian system H(x,p)=H_1(x_1,x_2,p_1,p_2)+iH_2(x_1,x_2,p_1,p_2) with p=p_1+ix_2, x=x_1+ip_2 is exploited to obtain a new class of the corresponding two-dimensional integrable Hamiltonian systems where H_1 acts as a new Hamiltonian and H_2 is a second integral of motion. Also a possible connection between H_1 and H_2 is sought in terms of an auto-B"acklund transformation.
Many polynomially solvable combinatorial optimization problems (COP) become NP when we require solutions to satisfy an additional cardinality constraint. This family of problems has been considered only recently. We study a newproblem of this family: the k-cardinality minimum cut problem. Given an undirected edge-weighted graph the k-cardinality minimum cut problem is to find a partition of the vertex set V in two sets V 1 , V 2 such that the number of the edges between V 1 and V 2 is exactly k and the sum of the weights of these edges is minimal. A variant of this problem is the k-cardinality minimum s-t cut problem where s and t are fixed vertices and we have the additional request that s belongs to V 1 and t belongs to V 2 . We also consider other variants where the number of edges of the cut is constrained to be either less or greater than k. For all these problems we show complexity results in the most significant graph classes.
It is well-known that some of the classical location problems with polyhedral gauges can be solved in polynomial time by finding a finite dominating set, i.e. a finite set of candidates guaranteed to contain at least one optimal location. In this paper it is first established that this result holds for a much larger class of problems than currently considered in the literature. The model for which this result can be proven includes, for instance, location problems with attraction and repulsion, and location-allocation problems. Next, it is shown that the approximation of general gauges by polyhedral ones in the objective function of our general model can be analyzed with regard to the subsequent error in the optimal objective value. For the approximation problem two different approaches are described, the sandwich procedure and the greedy algorithm. Both of these approaches lead - for fixed epsilon - to polynomial approximation algorithms with accuracy epsilon for solving the general model considered in this paper.
Da gerade in der heutigen Zeit viele zusammenarbeitende Softwareentwickler benötigt werden, um immer komplexer werdende Applikationen zu entwerfen, geht der Trend mehr und mehr in die Richtung des räumlich getrennten Arbeitens. Begünstigt wird diese Entwicklung nicht zuletzt durch die Möglichkeiten der Kommunikation und des Datenaustauschs, die durch das Internet geboten werden. Auf dieser Basis sollen Werkzeuge konzipiert und entwickelt werden, die eine effiziente verteilte Softwareentwicklung ermöglichen. Die Nutzung des Internet zu diesem Zweck löst das Verbindungsproblem für sehr große Entfernungen, die Nutzung von Webservern und -browsern wird der Anforderung der Betriebssystemunabhängigkeit und der Realisierung der Verteiltheit im Sinne des Client/Server-Prinzips gerecht. Unter dem Oberbegriff "Software Configuration Management" versteht man die Menge aller Aufgaben, die bei der Produktverwaltung im Bereich der Softwareherstellung anfallen. In dieser Ausarbeitung sollen zunächst die Anforderungen an ein webbasiertes SCM-System formuliert, einige technische Möglichkeiten genannt und verschiedene existierende SCM-Produkte, die eine Web-Schnittstelle bieten auf die Anforderungen überprüft und miteinander verglichen werden.
Abstract: The duality symmetries of various chiral boson actions are investigated using D = 2 and D = 6 space-time dimensions as examples. These actions involve the Siegel, Floreanini-Jackiw, Srivastava and Pasti-Sorokin-Tonin formulations. We discover that the Siegel, Floreanini-Jackiw and Pasti-Sorokin-Tonin actions have self-duality with respect to a common anti-dualization of chiral boson fields in D = 2 and D = 6 dimensions, respectively, while the Srivastava action is self-dual with respect to a generalized dualization of chiral boson fields. Moreover, the action of the Floreanini-Jackiw chiral bosons interacting with gauge fields in D = 2 dimensions also has self-duality but with respect to a generalized anti-dualization of chiral boson fields.
Abstract: The self-duality of chiral p-forms was originally investigated by Pasti, Sorokin and Tonin in a manifestly Lorentz covariant action with non-polynomial auxiliary fields. The investigation was then extended to other chiral p-form actions. In this paper we point out that the self-duality appears in a wider context of theoretical models that relate to chiral p-forms. We demonstrate this by considering the interacting model of Floreanini- Jackiw chiral bosons and gauge fields, the generalized chiral Schwinger model (GCSM) and the latter's gauge invariant formulation, and discover that the self-duality of the GCSM corresponds to the vector and axial vector current duality.
Die Arbeit will die Methode der Selbstorganisation explizieren und vermittels systemtheoretischer Begriff operationaliseren. Dies soll es ermöglichen beliebige Teile des Ganzen der Natur als je ein Ganzes begreifen zu können, um es seinerseits mit der Methode der Selbstorganisation untersuchen zu können. Aus den methodischen und operationalen Zusammenhängen werden Implikationen für eine Ethik im Kontext der Selbstorganisation aufgezeigt. Basierend auf den unbedingten Werten Bejahung und Entfaltung sowie der unbedingten Forderung nach Verantwortung wird gezeigt, dass Ethik und Moral prinzipiell wandelbar und flexibel sind. Die Arbeit soll den methodischen Boden dafür schaffen, ein holistisches Weltbild und Selbstverständnis mittels der Methode der Selbstorganisation entwickeln zu können, von dem ausgehend unterschiedliche Applikationsbereiche erschlossen werden können.
In this paper we construct a multiscale solution method for the gravimetry problem, which is concerned with the determination of the earth's density distribution from gravitational measurements. For this purpose isotropic scale continuous wavelets for harmonic functions on a ball and on a bounded outer space of a ball, respectively, are constructed. The scales are discretized and the results of numerical calculations based on regularization wavelets are presented. The obtained solutions yield topographical structures of the earth's surface at different levels of localization ranging from continental boundaries to local structures such as Ayer's Rock and the Amazonas area.
Linear viscoelastic properties for a dilute polymer solution are predicted by modeling the solution as a suspension of non-interacting bead-spring chains. The present model, unline the Rouse model, can describe the solution's rheological behavior even when the solvent quality is good, since excluded volume effects are explicitly taken into account through a narrow Gaussian repulsive potential between pairs of beads in a bead-spring chain. The use of the narrow Gaussian potential, which tends to the more commonly used delta-function repulsive potential in the limit of a width parameter d going to zero, enables the performance of Brownian dynamics simulations. The simulations results, which describe the exact behavior of the model, indicate that for chains of arbitrary but finite length, a delta-function potential leads to equilibrium and zero shear rate properties which are identical to the predictions of the Rouse model. On the other hand, a non-zero value of d gives rise to a predictionof swelling at equilibrium, and an increase in zero shear rate properties relative to their Rouse model values. The use of a delta-function potential appears to be justified in the limit of infinite chain length. The exact simulation results are compared with those obtained with an approximate solution, which is based on the assumption that the non-equilibrium configurational distribution function is Gaussian. The Gaussian approximation is shown to be exact to first order in the strength of excluded volume interaction, and is used to explore long chain rheological properties by extrapolating results obtained numerically for finite chains, to the limit of infinite chain length.
Besides the work in the field of manipulating rigid objects, currently, there are several research and development activities going on in the field of manipulating non-rigid or deformable objects. Several papers have been published on international conferences in this field from various projects and countries. But there has been no comprehensive work which provides both a representative overview of the state of the art and identifies the important aspects in this field. Thus, we collected these activities and invited the corresponding working groups to present an overview of their research. Altogether, nineteen authors coming from Japan, Germany, Italy, Greece, United Kingdom, and Australia contributed to this book. Their research work covers all the different aspects that occur when manipulating deformable objects. The contributions can be characterized and grouped by the following four aspects: * object modeling and simulation, * planning and control strategies, * collaborative systems, and * applications and industrial experiences. In the following, we give a short motivation and overview of the single chapters of the book. The simulation of deformable objects is one way to approach the problem of manipulating these objects by robots. Based on a physical model of the object and the occurring constraints, the resulting object shape is calculated. In Chapter 2, Hirai presents an energy-based approach, where the internal energy under the geometric constraints is minimized. Frugoli et al. introduce a force-based approach, where the forces between discrete particles are minimized meeting given constraints. Finally, Remde and Henrich extend the energy-based approach to plastic deformation and give a solution of the inverse simulation problem. Even if the object behavior is predicted by simulation, there is still the question of how to control the robot during a single manipulation operation. An additional question is how to retrieve an overall plan for the concatenated manipulation operations. In Chapter 3, Wada investigates the control problems when positioning multiple points of a planar deformable object. McCarrager proposes a control scheme exploiting the flexibility, rather than minimizing it. Abegg et al. use a simple contact state model to describe typical assembly tasks and to derive robust manipulation primitives. Finally, Ono presents an automatic sewing system and suggests a strategy for unfolding fabric. In several manipulation tasks, it is reasonable to apply more than one robot. Especially in cases, where the deformable object has to take a specific shape. Since the robots working at the same object are influencing each other, different control algorithms have to be introduced. In Chapter 4, Yoshida and Kosuge investigates this problem for the task of bending a sheet of metal and exploits the relation ship between the static object deformation and the bending moments. Tanner and Kyriakopoulos regard the deformable object as underactuated mechanical system and make use of the existence of non-holonomic constraints. Both approaches model the deformable object as finite elements. All of the above aspects have their counterpart in different applications and industrial experiences. In Chapter 5, Rizzi et al. present test cases and applications of their approach to simulate the manipulation of fabric, wires, cables, and soft bags. Buckingham and Graham give an overview of two European projects processing white fish including locating, gripping, and deheading the fish. Maruyama outlines the three development phases of a robot system for performing outage-free maintenance of live-line power supply in Japan. Finally, Kämper presents the development of a flexible automatic cabling unit for the wiring of long-tube lighting with plug components.
Rutheniumkomplexe mit N-heterocyclischen Carbenliganden stellen aufgrund ihrer katalytischen Eigenschaften eine interessante Verbindungsklasse dar. Obwohl in den vergangenen Jahren eine Vielzahl von Untersuchungen auf diesem Gebiet der Chemie durchgeführt wurden, fanden die Imidazol-2-ylidene vom "Kuhn-Typ" nur wenig Beachtung. Ein thematischer Schwerpunkt meiner Dissertation ist deshalb die Darstellung und Charakterisierung von Rutheniumkomplexen mit "Kuhn-Carbenen" als Liganden. Dabei steht auch die katalytische Aktivität dieser neuen Verbindungen im Mittelpunkt des Interesses. Anhand ausgewählter Reaktionen kann gezeigt werden, daß mehrere Vertreter als Katalysatoren für die Knüpfung von C/C-Bindungen fungieren können. So können mit Hilfe von Rutheniumalkyliden-Komplexen mit einem oder zwei nucleophilen Carbenen als Liganden bestimmte Diene einer Ringschlußmetathese unterzogen werden. Ein weiterer wichtiger Aspekt meiner Arbeit basiert auf einer von Polifka in der Arbeitsgruppe Binger entdeckten Darstellung eines 1H-Phosphols durch Umsetzung von tert-Butylphosphaacetylen mit einem Rutheniumvinylcarben-Komplex. Nach erfolgreicher Optimierung kann die Phospholsynthese auf eine breite Basis gestellt werden, wobei sowohl eine Variation am Phosphaalkin als auch am Rutheniumvinylcarben-Komplex möglich ist. Durch Modifikation der Reaktionsbedingungen wird ein neuer Zugang zur Substanzklasse der 1H-Phosphirene eröffnet. Die beiden Phosphaheterocyclen, sowohl die Drei- als auch die Fünfringe, werden durch analytische und spektroskopische Methoden charakterisiert und auf ihre Reaktivität hin überprüft. Abschließend wird das Reaktionsverhalten von Carbonylkomplexen der 8. Gruppe mit Phosphaalkinen untersucht. In diesem Zusammenhang gelingt erstmals die Darstellung von 1,3-Diphosphet-Komplexen der Metalle Ruthenium und Osmium. Daneben lassen sich teilweise Dreikerncluster mit Ketenylphosphiniden-Liganden isolieren.
Abstract: The point-particle-like Hamiltonian of a biaxial spin particle with external magnetic field along the hard axis is obtained in terms of the potential field description of spin systems with exact spin-coordinate correspondence. The Zeeman energy term turns out to be an effective gauge potential which leads to a nonintegrable phase of the Euclidean Feynman propagator. The phase interference between clockwise and anticlockwise under barrier propagations is recognized explicitly as the Aharonov-Bohm effect. An additional phase which is significant for quantum phase interference is discovered with the quantum theory of spin systems besides the known phase obtained with the semiclassical treatment of spin. We also show the energy dependence of the effect and obtain the tunneling splitting at excited states with the help of periodic instantons.
Abstract: We analyze systematic (classical) and fundamental (quantum) limitations of the sensitivity of optical magnetometers resulting from ac-Stark shifts. We show that incontrast to absorption-based techniques, the signal reduction associated with classical broadening can be compensated in magnetometers based on phase measurements using electromagnetically induced transparency (EIT). However due to ac-Stark associated quantum noise the signal-to-noise ratio of EIT-based magnetometers attains a maximum value at a certain laser intensity. This value is independent on the quantum statistics of the light and defines a standard quantum limit of sensitivity. We demonstrate that an EIT-based optical magnetometer in Faraday configuration is the best candidate to achieve the highest sensitivity of magnetic field detection and give a detailed analysis of such a device.
Introduction: Recent developments in quantum communication and computing [1-3] stimulated an intensive search for physical systems that can be used for coherent processing of quantum information. It is generally believed that quantum entanglement of distinguishable quantum bits (qubits) is at the heart of quantum information processing. Significant efforts have been directed towards the design of elementary logic gates, which perform certain unitary processes on pairs of qubits. These gates must be capable of generating specific, in general entangled, superpositions of the two qubits and thus require a strong qubit-qubit interaction. Using a sequence of single and two-bit operations, an arbitrary quantum computation can be performed [2]. Over the past few years many systems have been identified for potential implementations of logic gates and several interesting experiments have been performed. Proposals for strong qubit-qubit interaction involve e.g. the vibrational coupling of cooled trapped ions [4], near dipole-dipole or spin-spin interactions such as in nuclear magnetic resonance [5], collisional interactions of confined cooled atoms [6] or radiative interactions between atoms in cavity QED [7]. The possibility of simple preparation and measurement of qubit states as well as their relative insensitivity to a thermal environment makes the latter schemes particularly interesting for quantum information processing. Most theoretical proposals on cavity-QED systems focus on fundamental systems involving a small number of atoms and few photons. These systems are sufficiently simple to allow for a first-principle description. Their experimental implementation is however quite challenging. For example, extremely high-Q micro-cavities are needed to preserve coherence during all atom-photon interactions. Furthermore, single atoms have to be confined inside the cavities for a sufficiently long time. This requires developments of novel cooling and trapping techniques, which is in itself a fascinating direction of current research. Despite these technical obstacles, a remarkable progress has been made in this area: quantum processors consisting of several coupled qubits now appear to be feasible.
Power-ordered sets are not always lattices. In the case of distributive lattices we give a description by disjoint of chains. Finite power-ordered sets have a polarity. We introduct the leveled lattices and show examples with trivial tolerance. Finally we give a list of Hasse diagrams of power-ordered sets.