Refine
Year of publication
- 2001 (121) (remove)
Document Type
- Preprint (37)
- Doctoral Thesis (35)
- Report (21)
- Periodical Part (13)
- Article (4)
- Diploma Thesis (3)
- Lecture (2)
- Master's Thesis (2)
- Working Paper (2)
- Course Material (1)
Keywords
- AG-RESY (9)
- RODEO (7)
- Mathematikunterricht (3)
- Modellierung (3)
- Phosphaalkin (3)
- praxisorientiert (3)
- vibration (3)
- Eisen (2)
- Lineare Algebra (2)
- Mobilfunk (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (30)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich Physik (12)
- Kaiserslautern - Fachbereich Sozialwissenschaften (12)
- Fraunhofer (ITWM) (9)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich ARUBI (2)
Moderne Mobilfunksysteme, die nach dem zellularen Konzept arbeiten, sind interferenzbegrenzte Systeme. Ein wesentliches Ziel beim Entwurf zukünftiger Mobilfunkkonzepte ist daher die Reduktion der auftretenden Interferenz. Nur so läßt sich die spektrale Effizienz künftiger Mobilfunksysteme noch signifikant gegenüber dem Stand der Technik steigern. Die Elimination der Intrazellinterferenz, das heißt der auftretenden Wechselwirkungen zwischen Signalen mehrerer von der gleichen Zelle bedienter Teilnehmer, durch gemeinsame Detektion (engl. Joint Detection, JD) ist bereits ein wesentliches Merkmal des Luftschnittstellenkonzepts TD-CDMA. Ein bislang noch weitgehend unbeachtetes Potential zum Steigern von spektraler Effizienz und Kapazität hingegen ist die Reduktion der Interzellinterferenz, das heißt der durch Teilnehmer verschiedener Zellen wechselseitig verursachten Interferenz. Insbesondere in Systemen mit niedrigen Clustergrößen verspricht eine Reduktion der in diesem Fall sehr starken Interzellinterferenz erhebliche Gewinne. Die Interzellinterferenzreduktion ist daher der logische nächste Schritt nach der Intrazellinterferenzreduktion. Die vorliegende Arbeit leistet einen Beitrag zum Entwickeln gewinnbringender Verfahren zur Reduktion der Interzellinterferenz in zukünftigen Mobilfunksystemen durch entsprechende Berücksichtigung und Elimination des Einflusses der Interzellinterferenzsignale in der empfängerseitigen Signalverarbeitung. Ziel ist eine verbesserte Schätzung der übertragenen Teilnehmerdaten zu erhalten, dazu werden Signale von Interzellinterferenzquellen beim Datenschätzen berücksichtigt. Die dabei benötigten Informationen werden mit den ebenfalls erläuterten Verfahren zur Identifikation und Selektion starker Interzellinterferenzquellen sowie einer gegenüber dem bisherigen Systementwurf erweiterten Kanalschätzung gewonnen. Es wird gezeigt, daß sich mit einem aufwandsgünstigen Detektor die relevanten Interzellinterferenzquellen zuverlässig identifizieren lassen. Mit einem auf kurze Mobilfunkkanäle, die in Hotspots vermehrt zu erwarten sind, optimierten Kanalschätzverfahren werden die aktuellen Mobilfunkkanalimpulsantworten für alle relevanten Teilnehmer bestimmt. Um die Datenschätzung für viele Teilnehmer durchführen zu können, wird das Schätzverfahren Multi-Step Joint Detection entworfen, das die von der herkömmlichen gemeinsamen Detektion bekannte SNR-Degradation verringert. Die Simulationsergebnisse zeigen die Leistungsfähigkeit des entworfenen Systemkonzeptes. Die Interzellinterferenzreduktionsverfahren können sowohl zum Erhöhen der spektralen Effizienz des Systems, als auch zu einer Verbesserung der Dienstgüte bei gleichbleibender spektraler Effizienz gewinnbringend eingesetzt werden.
In this thesis a new family of codes for the use in optical high bit rate transmission systems with a direct sequence code division multiple access scheme component was developed and its performance examined. These codes were then used as orthogonal sequences for the coding of the different wavelength channels in a hybrid OCDMA/WDMA system. The overall performance was finally compared to a pure WDMA system. The common codes known up to date have the problem of needing very long sequence lengths in order to accommodate an adequate number of users. Thus, code sequence lengths of 1000 or more were necessary to reach bit error ratios of with only about 10 simultaneous users. However, these sequence lengths are unacceptable if signals with data rates higher than 100 MBit/s are to be transmitted, not to speak about the number of simultaneous users. Starting from the well known optical orthogonal codes (OOC) and under the assumption of synchronization among the participating transmitters - justified for high bit rate WDM transmission systems -, a new code family called ?modified optical orthogonal codes? (MOOC) was developed by minimizing the crosscorrelation products of each two sequences. By this, the number of simultaneous users could be increased by several orders of magnitude compared to the known codes so far. The obtained code sequences were then introduced in numerical simulations of a 80 GBit/s DWDM transmission system with 8 channels, each carrying a 10 GBit/s payload. Usual DWDM systems are featured by enormous efforts to minimize the spectral spacing between the various wavelength channels. These small spacings in combination with the high bit rates lead to very strict demands on the system components like laser diode, filters, multiplexers etc. Continuous channel monitoring and temperature regulations of sensitive components are inevitable, but often cannot prevent drop downs of the bit error ratio due to aging effects or outer influences like mechanical stress. The obtained results show that - very different to the pure WDM system - by orthogonally coding adjacent wavelength channels with the proposed MOOC, the overall system performance gets widely independent from system parameters like input powers, channel spacings and link lengths. Nonlinear effects like XPM that insert interchannel crosstalk are effectively fought. Furthermore, one can entirely dispense with the bandpass filters, thus simplifying the receiver structure, which is especially interesting for broadcast networks. A DWDM system upgraded with the OCDMA subsystem shows a very robust behavior against a variety of influences.
Das europäische Mobilfunksystem der dritten Generation heißt UMTS. UTRA - der terrestrische Funkzugang von UMTS - stellt zwei harmonisierte Luftschnittstellen zur Verfügung: Das TDD-basierte TD-CDMA und das FDD-basierte WCDMA. Das Duplexverfahren TDD bietet gegenüber FDD erhebliche Vorteile, z.B. können TDD-basierte Luftschnittstellen unterschiedliche Datenraten in der Aufwärts- und Abwärtsstrecke i.a. effizienter bereitstellen als FDD-basierte Luftschnittstellen. TD-CDMA ist Gegenstand dieser Arbeit. Die wichtigsten Details dieser Luftschnittstelle werden vorgestellt. Laufzeit und Interferenz sind wesentliche Gesichtspunkte beim Verwenden von TDD. Diese wesentlichen Gesichtspunkte werden eingehend für den Fall des betrachteten TD-CDMA untersucht. In UMTS spielen neben der Sprachübertragung insbesondere hochratige Datendienste und Multimediadienste eine wichtige Rolle. Die unterschiedlichen Qualitätsanforderungen dieser Dienste sind eine große Herausforderung für UMTS, insbesondere auf der physikalischen Ebene. Um den Qualitätsanforderungen verschiedener Dienste gerecht zu werden, definiert UTRA die L1/L2-Schnittstelle durch unterschiedliche Transportkanäle. Jeder Transportkanal garantiert durch die vorgegebene Datenrate, Verzögerung und maximal zulässige Bitfehlerrate eine bestimmte Qualität der Übertragung. Hieraus ergibt sich das Problem der Realisierung dieser Transportkanäle auf physikalischer Ebene. Dieses Problem wird in der vorliegenden Arbeit eingehend für TD-CDMA untersucht. Der UTRA-Standard bezeichnet die Realisierung eines Transportkanals als Transportformat. Wichtige Parameter des Transportformats sind das verwendete Pooling-Konzept, das eingesetzte FEC-Verfahren und die zugehörige Coderate. Um die Leistungsfähigkeit unterschiedlicher Transportformate quantitativ zu vergleichen, wird ein geeignetes Bewertungsmaß angegeben. Die zur Bewertung erforderlichen Meßwerte können nur durch Simulation auf Verbindungsebene ermittelt werden. Deshalb wird ein Programm für die Simulation von Transportformaten in TD-CDMA entwickelt. Bei der Entwicklung dieses Programms wird auf Konzepte, Techniken, Methoden und Prinzipien der Informatik für die Software-Entwicklung zurückgegriffen, um die Wiederverwendbarkeit und Änderbarkeit des Programms zu unterstützen. Außerdem werden wichtige Verfahren zur Reduzierung der Bitfehlerrate - die schnelle Leistungsregelung und die Antennendiversität - implementiert. Die Leistungsfähigkeit einer exemplarischen Auswahl von Transportformaten wird durch Simulation ermittelt und unter Verwendung des Bewertungsmaßes verglichen. Als FEC-Verfahren werden Turbo-Codes und die Code-Verkettung aus innerem Faltungscode und äußerem RS-Code eingesetzt. Es wird gezeigt, daß die untersuchten Verfahren zur Reduzierung der Bitfehlerrate wesentlichen Einfluß auf die Leistungsfähigkeit der Transportformate haben. Des weiteren wird gezeigt, daß die Transportformate mit Turbo-Codes bessere Ergebnisse erzielen als die Transportformate mit Code-Verkettung.
Der Einsatz von Freisprecheinrichtungen bei der Sprachkommunikation in Fahrzeugen erfor- dert die Reduktion der mit dem Sprachsignal erfaßten Umgebungsgeräusche. Die akustischen Störungen beeinträchtigen in der Regel die Verständlichkeit des zu übertragenden Sprachsi- gnals. In der Literatur wurden zahlreiche Verfahren und Ansätze zur Geräuschreduktion vor- geschlagen und beschrieben. Prinzipiell können diese Ansätze in drei Kategorien unterteilt werden: Einkanalige Geräuschreduktionssysteme, wie zum Beispiel das Verfahren der Spek- tralen Subtraktion, mehrkanalige Geräuschkompensationsverfahren, die mindestens ein Stör- geräusch-Referenzsignal benötigen, und adaptive Mikrophonarrays, die zur Erfassung des Sprachsignals ein richtungsselektives Reduktionsverfahren (beam forming) einsetzen. Diese Arbeit fokussiert ausschließlich auf das Problem der einkanaligen Geräuschreduktions- systeme, wie sie häufig in Kraftfahrzeugen oder Telefonen aus Kosten- und konstruktiven Gründen zu finden sind. Mehrkanalige Verfahren werden nur der Vollständigkeit halber am Rande behandelt. Einkanalige Verfahren sind durch den Kompromiß zwischen der Dämpfung der störenden Geräusche und den unvermeidbaren Verzerrungen des Sprachsignals und der verbleibenden Reststörungen gekennzeichnet. Diese Verzerrungen sind als sporadisch auftretende tonartige Reststörungen (musical tones) bzw. als Verfärbungen des Sprachsignals wahrnehmbar. Solche Fehler im Ausgangssignal werden wegen ihrer tonalen Struktur als äußerst störend empfunden und verschlechtern den subjektiven Höreindruck. In letzter Zeit sind deshalb Verfahren mit dem Ziel entwickelt worden, möglichst alle auftre- tenden Verzerrungen zu unterdrücken. So wurden zum Beispiel nichtlineare Methoden, bekannt aus der Bildverarbeitung, oder spezielle Detektionsalgorithmen entworfen, um das Problem geschlossen zu lösen. Besonders neu sind Verfahren, die psychoakustische Eigenschaften des menschlichen Gehörs nutzen, um wenigstens einen Teil der auftretenden Verzerrungen zu verdecken. So kommen hier Methoden zum Einsatz, die durch Formulierung einer psychoakustischen Gewichtungsregel versuchen, einen optimalen Kompromiß zwischen Höhe der Geräuschdämpfung, der Reststörungen und der resultierenden Sprachverständlichkeit zu finden. In der vorliegenden Arbeit diente ein klassisches einkanaliges Geräuschreduktionsverfahren als Ausgangsbasis für die Entwicklung eines neuen psychoakustisch-parametrischen Verfah- rens. Dabei wurde von Modellen der Spracherzeugung und Wahrnehmung der menschlichen Sprache ausgegangen, um geeignete Methoden für die psychoakustische Geräuschreduktion und Signalverbesserung zu finden. Das Ergebnis sind drei neue Verfahren, die sich je nach Eingangssignal adaptiv auf die Charakteristik des Gehörs einstellen und dabei Verzerrungen des Sprachsignals und der Reststörung unterhalb der psychoakustischen Wahrnehmbarkeits- schwelle, der sogenannten Mithörschwelle, halten. Das führt zu einer spürbaren Verbesserung des subjektiven Höreindrucks und hat positiven Einfluß auf die Sprachverständlichkeit. In wesentlichen Bestandteilen dieser Arbeit werden Aspekte der psychologischen Wahrnehmung akustischer Signale und bekannte psychoakustische Eigenschaften des menschlichen Gehörs für die auditive Signalverbesserung, Geräuschreduktion und die Identifikation akustischer Systeme ausgenutzt. Dementsprechend wird im ersten Teil eine kurze Einführung in die Theorie der Signalverarbeitung und Psychoakustik gegeben. Daran anschließend folgt die Vorstellung eines Verfahrens zur auditiven Signalverbesserung und Geräuschreduktion unter Ausnutzung psychoakustischer Verdeckungseffekte. Dieser Abschnitt ist besonders ausführlich gestaltet, da er den Hauptbestandteil dieser Arbeit bildet. Der dritte Teil erläutert experimentelle Untersuchungen und die Bewertung der verschiedenen Verfahren. Abschließend folgen Zusammenfassung und ein wissenschaftlicher Ausblick.
Die typische Aufgabe eines Nahbereichsradarnetzes ist es, Fahrzeuge in einem definierten Überwachungsbereich, beispielsweise dem Rollfeld eines Flughafens, zu detektieren, zu orten und ihre Spur zu verfolgen. Wegen der stark unterschiedlichen Radarrückstreuquerschnitte der Radarziele sind die Anforderungen an den verfügbaren Dynamikbereich der einzelnen eingesetzten Radarempfänger sehr hoch. Bei niedriger Radarsignalleistung ist daher die Verwendung eines Impulskompressionsverfahrens notwendig. Beim Nahbereichsnetz NRN, im Rahmen dessen Entwicklung auch die vorliegende Arbeit entstand, wird zudem ein neuartiges Ortungsprinzip eingesetzt, weshalb die Radarstationen mit feststehenden, d. h. nicht-rotierenden Antennen mit breiter Antennencharakteristik ausgestattet werden können. Radarsignale setzen sich aus den Echosignalen von den Radarsendeimpuls reflektierenden Objekten, sowie dem Rauschen zusammen. Bei den reflektierenden Objekten handelt es nicht nur um die interessierenden Radarziele, d. h. die zu detektierenden Fahrzeuge. Wegen der Bodennähe, in der ein Nahbereichsradarnetz betrieben wird, sowie der zumindest beim NRN breiten Antennencharakteristiken erfaßt der Radastrahl eine Vielzahl weiterer Radarreflektoren, deren Echosignal, Cluttersignal genannt, das eigentliche Nutzsignalüberlagert. Darüberhinaus verursacht der Einsatz eines Impulskompressionsverfahrens i. a. eine künstliche störende Signalkomponente, die sogenannten Impulskompressionsnebenmaxima, die auch Eigenclutter genannt werden. Durch den Einsatz eines erwartungstreuen Impulskompressionsverfahrens beim NRN wird theoretisch keine Eigenclutterkomponente erzeugt. Es existieren jedoch Effekte, die die Eigenclutterfreiheit zerstören. Diese werden im ersten Teil der Arbeit untersucht. Es wird gezeigt, wie die Eigenclutterfreiheit wiederhergestellt werden kann. Im zweiten Teil der Arbeit wird das Cluttersignal von reflektierenden Objekten anhand von mit dem NRN gemessenen Signalzeitreihen analysiert. Ein Modell zur Beschreibung des Cluttersignals wird entwickelt. Mit den Methoden der Detektionstheorie wird ein optimales Filter- und Detektionsverfahren für ein vollständig unbekanntes Nutzsignal in einem durch dieses Modell beschreibbaren Störsignal abgeleitet. Um dieses Verfahren einzusetzen, ist die Kenntnis der Modellparameter erforderlich. Prinzipiell existieren verschiedene Methoden, die sich im Laufe der Zeit verändernden Modellparameter zu schätzen. Das Filter- und Detektionsverfahren kann dann stetig an die aktuellen Schätzungen der Parameter des Cluttersignalmodells adaptiert werden. Die Schätzung liefert jedoch im Falle des Vorhandenseins von Nutzsignalkomponenten verfälschte Parameterwerte. In der vorliegenden Arbeit werden verschiedene Methoden zur Adaptionskontrolle vorgeschlagen, die den Einfluß dieser verfälschten Parameterschätzungen auf die Nutzsignaldetektion minimieren. Damit existiert ein Algorithmus, der adaptiv aus dem Echosignal cluttersignalbeschreibende Parameter bestimmt, die ihrerseits von einem Filter- und Detektionsalgorithmus verwendet werden, um ein eventuell im Echosignal vorhandenes Nutzsignal optimal zu detektieren. Anhand von Radarechosignalen, die mit dem NRN bei Meßkampagnen aufgezeichnet wurden, sowie anhand von Simulationen wurde schließlich die Leistungsfähigkeit des entwickelten adaptiven Filter- und Detektionsverfahrens mit Adaptionskontrolle beim Einsatz in einem Nahbereichsradarnetz gezeigt.
This paper deals with the handling of deformable linear objects (DLOs), such as hoses, wires or leaf springs. It investigates the a priori knowledge about the 6-dimensional force/torque signal for a changing contact situation between a DLO and a rigid polyhedral obstacle. The result is a complete list, containing for each contact change the most significant combination of force/torque signal components together with a description of the expected signal curve. This knowledge enables the reliable detection of changes in the DLO contact situation and with it the implementation of sensor-based manipulation skills for all possible contact changes.
This article presents contributions in the field of path planning for industrial robots with 6 degrees of freedom. This work presents the results of our research in the last 4 years at the Institute for Process Control and Robotics at the University of Karlsruhe. The path planning approach we present works in an implicit and discretized C-space. Collisions are detected in the Cartesian workspace by a hierarchical distance computation. The method is based on the A* search algorithm and needs no essential off-line computation. A new optimal discretization method leads to smaller search spaces, thus speeding up the planning. For a further acceleration, the search was parallelized. With a static load distribution good speedups can be achieved. By extending the algorithm to a bidirectional search, the planner is able to automatically select the easier search direction. The new dynamic switching of start and goal leads finally to the multi-goal path planning, which is able to compute a collision-free path between a set of goal poses (e.g., spot welding points) while minimizing the total path length.
Satellite-to-satellite tracking (SST) and satellite gravity gradiometry (SGG), respectively, are two measurement principles in modern satellite geodesy which yield knowledge of the first and second order radial derivative of the earth's gravitational potential at satellite altitude, respectively. A numerical method to compute the gravitational potential on the earth's surface from those observations should be capable of processing huge amounts of observational data. Moreover, it should yield a reconstruction of the gravitational potential at different levels of detail, and it should be possible to reconstruct the gravitational potential from only locally given data. SST and SGG are modeled as ill-posed linear pseudodifferential operator equations with an injective but non-surjective compact operator, which operates between Sobolev spaces of harmonic functions and such ones consisting of their first and second order radial derivatives, respectively. An immediate discretization of the operator equation is obtained by replacing the signal on its right-hand-side either by an interpolating or a smoothing spline which approximates the observational data. Here the noise level and the spatial distribution of the data determine whether spline-interpolation or spline-smoothing is appropriate. The large full linear equation system with positive definite matrix which occurs in the spline-interplation and spline-smoothing problem, respectively, is efficiently solved with the help of the Schwarz alternating algorithm, a domain decomposition method which allows it to split the large linear equation system into several smaller ones which are then solved alernatingly in an iterative procedure. Strongly space-localizing regularization scaling functions and wavelets are used to obtain a multiscale reconstruction of the gravitational potential on the earth's surface. In a numerical experiment the advocated method is successfully applied to reconstruct the earth's gravitational potential from simulated 'exact' and 'error-affected' SGG data on a spherical orbit, using Tikhonov regularization. The applicability of the numerical method is, however, not restricted to data given on a closed orbit but it can also cope with realistic satellite data.
Demizellisierung Die isotherme Titrationskalorimetrie ist eine leistungsfähige, schnelle und einfache Methode, die den großen Vorteil bietet, aus ein und demselben Experiment die CMC und die Demizellisierungsenthalpie eines Tensids in einem weiten Temperaturbereich zu bestimmen [48,51,102,103]. Die in dieser Arbeit verwandten Detergentien Octylglucosid und Dodecylmaltosid zeichnen sich durch ihre milden Eigenschaften beim Herauslösen von Proteinen aus bakteriellen Membranen und bei deren Rekonstitution in definierten Lipidmatrizen aus [104-106]. Diese nichtionischen Tenside besitzen eine relativ hohe Aggregationszahl, woraufhin die Näherungen des Phasenseparationsmodells gemacht werden können. Die CMC ist eine Funktion der Temperatur, der Neutralsalzkonzentration und der Alkylkettenlänge. Bei Prozessen, die durch den hydrophoben Effekt bedingt sind kehrt sich mit steigender Temperatur das Vorzeichen der Enthalpie um; dort besitzt DHDemiz eine Nullstelle. Die entsprechende Temperatur wird TH genannt. Ebenso weist die Entropie eine Nullstelle bei TS auf. Im Bereich von TH ist es schwierig wenn nicht sogar unmöglich die CMC und die Demizellisierungsenthalpie auf titrationskalorimetrischem Wege genau zu bestimmen. Mit Hilfe der van t Hoff schen Reaktionsisobare lassen sich DHDemiz und die CMC aus den experimentell zugänglichen Werten mathematisch anpassen [51,55]. Die starke Temperaturabhängigkeit der Enthalpie und Entropie kompensieren sich weitgehend und es resultiert nach Gibbs-Helmholtz eine nur schwache Temperaturabhängigkeit der freien Enthalpie. Die Ableitung der Enthalpie nach der Temperatur ergibt die Wärmekapazität. Diese ist ein Maß inwieweit hydrophobe Oberfläche durch die Mizellbildung vom Einfluß des Wassers abgeschirmt wird. Solubilisierung Mit Hilfe der ITC lassen sich, für den Prozeß der Solubilisierung, die Phasengrenzen des Koexistenzbereichs einfach bestimmen. Sie sind aus den Kalorigrammen zugänglich als Wendepunkte des intermediären Extremwertes. Als Erste setzten Heerklotz et al. die Titrationkalorimetrie im Zusammenhang mit dieser Problemstellung ein [66]. Desweiteren läßt sich aus dieser Art von Experiment die Solubilisierungskraft verschiedener Tenside bestimmen. So besitzt Dodecylmaltosid eine deutlich höhere Solubilisierungskraft als Octylglucosid. Dies ist zu ersehen aus den für DM niedrigeren Re sol -Werten. Die Solubilisierung der synthetischen Lezithine in pH 6 Phosphatpuffer bei 70 °C zeigen einen linear ansteigenden Verlauf mit Zunahme der Acylkettenlänge des Lipids. Im Gegensatz dazu zeigt OG eine sprunghafte Änderung zwischen DPPC und DSPC. Dies deutet darauf hin, daß die Form und oder Größe der entstehenden Aggregate in der gemischtmizellaren Phase differieren. Die Werte in Pufferlösung liegen leicht unter denen in reinem Wasser. Dies wird verursacht durch die Verringerung der Hydratation der Kopfgruppen in den Aggragaten. Die Reihenfolge der Solubilisierung in Abhängigkeit der Kopfgruppe des Lipids nimmt sowohl für DM als auch für OG in der Richtung PA>PC>PG ab. Ursache hierfür sind die in dieser Richtung abnehmenden intermolekularen H-Brückenbindungen. Gleichzeitig nehmen in dieser Richtung die intramolekularen H-Brückenbindungen zu. Deshalb läßt sich PG leichter als die anderen Lipide solubilisieren. Die temperaturabhängigkeit des Gesamtverhältnisses Rt # des Beispiels OG/P90g in Wasser zeigt analog der temperaturabhänigigkeit der Demizellisierung ein Minimum zwischen 42 und 46 °C (quadratisch angepaßt). Die typische, auf den hydrophoben Effekt basierende Umkehr der Reaktionsenthalpie findet hier bei 42 °C statt. Das effektive Molverhältnis Re # zeigt für die Solubilisierung einen leichten und für die Saturierung einen stärkeren Anstieg mit steigender Temperatur. Der Einfluß der Größe der ursprünglich eingesetzten Vesikel wurde bei dem System OG/DMPC in Wasser bei 27 °C untersucht. Es konnte kein Einfluß der Vesikelgröße festgestellt werden. Die Solubilisierung des Gemisches DMPC/DMPG mit OG wurde in pH 6 Phosphatpuffer bei 70 °C untersucht. Die Solubilisierungsgrenze der DMPC-Membran wird durch beimischung von DMPG bis zu einem Molenbruch XMG = 0,4 erhöht. Die DMPG-Membran wird durch den DMPC-Anteil bis XMC = 0,2 destabilisert. Verteilungsexperimente Die Experimente, bei denen Lipid zu einer Detergensvorlage titriert wurde, wurden mit konstantem Verteilungskoeffizienten P angepaßt. Der Verteilungskoeffizient und die Transferenthalpie nehmen mit zunehmendem OG-Gehalt in der DMPC-Membran bei 30 °C ab. Es scheinen anfängliche Fehlstellen abgesättigt zu werden. Gleiches Verhalten zeigt sich bei 70 °C. Lediglich die Transferenthalpie nimmt betragsmäßig leicht zu. Die Abhängigkeit von der Kopfgruppe des Lipids zeigt eine Zunahme des Verteilungskoeffizienten von DPPA<DPPC<DPPG bei 70 °C in pH 6 Phosphatpuffer. Dies läßt sich verstehen durch die bereits vorher erwähnte Abnahme der intermolekularen H-Brückenbindungen. Dadurch wird die Membran flexibler und der Detergenseinbau erleichtert. Die Konstanz des Verteilungskoeffizient P war zu erwarten, da der Vorgang sich innerhalb eines kleinen Konzentrationsbereichs abgespielt hat und immer derselbe Prozeß stattgefunden hat, nämlich der Einbau von wenig Detergens in die reine Lipidmembran. Die Experimente, bei denen Detergens zu einer Lipidvorlage titriert wurde, konnten, wegen des nichtidealen Mischungsverhaltens, nicht mehr mit einem konstanten Verteilungs-koeffizienten P angepaßt werden. Die Anpassung wurde mit dem athermischen Mischungsmodell von Guggenheim realisiert. Dabei enthält die Gibbs sche freie Mischungs-enthalpie einen Exzeßterm. Der Verteilungskoeffizient P0 nimmt mit steigendem Vesikeldurchmesser ab. Die Krümmung der Vesikel hat somit großen Einfluß auf die Fehlstellen in der Membran. Die Werte der Fit-Parameter schwanken leider sehr stark mit dem Intervall der Schrittweite für die Anpassung. Die Ursache hierfür liegt an der Qualität der experimentellen Werte. Bei der in dieser Arbeit durchgeführten Verteilungsexperimenten ist das Signal/Rausch Verhältnis recht klein und am Rande der Auflösung des Kalorimeters. Es ergeben sich somit schon bei der Integration und Basislinienkorrektur grobe Toleranzen. Für die mathematische Anpassung stehen desweiteren nur eine relativ geringe Datenmenge von ca. 20 - 40 Meßpunkten zur Verfügung. Es lassen sich somit bei Experimenten in diesem meßtechnischen Grenzbereich eher nur eine Abschätzung als genaue Absolutwerte bestimmen. Die Signale dieser Art von Experimenten sind deshalb so gering weil zu der geringen Verdünnungsenthalpie nur noch die Transferenthalpie weniger Detergensmoleküle beiträgt. Das nichtideale Mischungsverhalten dieses Verteilungsexperimentes ist zu verstehen, aus der Unteschiedlichkeit beider Amphiphile hinsichtlich Ihrer Strukturformel und ihrem physikalischen Verhalten. DSC Die Solubilisierung wurde auch mit der DSC-Methode untersucht. Der Einbau von OG in DPPC zeigt schon bei geringen Detergensmengen ein Verschwinden der Vorumwandlung (Lb' -> Pb' ). Die Hauptumwandlung verschiebt sich mit steigender Detergenskonzentration zu niedrigeren Temperaturen. Beim Überschreiten der Saturierungsphasengrenze geht die Kooperativität der Umwandlung zunehmends verloren und die anfänglichen Umwandlungspeaks werden zu Umwandlungsbereichen. Sogar noch in der mizellaren Phase sind Umwandlungsbereiche zu erkennen, was darauf hindeutet, daß selbst dort noch Domänen mit kooperativem Umwandlungsverhalten existieren müssen, da in reinen OG-Mizellen keine Umwandlung detektiert werden konnte. Die Verschiebung der Umwandlung und die Schärfe der Bereiche ist reversibel. Der Einfluß von 150 mM NaCl-Puffer bewirkt lediglich eine Verschiebung der Umwandlungstemperaturen um ca. 5 °C zu niedrigeren Werten, was sicherlich auf die Änderung der Hydratation im Kopfgruppenbereich der Aggregate zurückzuführen ist. Lichtstreuung Mit Hilfe der dynamischen und statischen Lichtstreuung lassen sich die Grenzen des kalorimetrisch bestimmten Koexistenzbereichs bestätigen. Außerdem konnte ein kleiner lokaler Extremwert im Titrationskalorigramm als Ende der makroskopischen Phasenseparation identifiziert werden. Beim synthetischen Lipid DMPC reicht diese Mischungslücke vom Koexistenzbereich bis in den mizellaren Bereich. Bei dem natürlich vorkommenden SojaPC liegt diese Mischungslücke innerhalb des kalorimetrisch bestimmten Koexistenzbereich. Das anionische DMPG weist keine Mischungslücke auf. Rheologie Das Anionische Lipid DMPG weist beim titrieren mit OG in pH 6 Phosphatpuffer bei 30 °C eine starke Basislinienverschiebung auf. Die Ursache hierfür ist eine sprungartige Zunahme der Viskosität beim Überschreiten der Saturierungsphasengrenze. Diese Basislinienverschiebung nimmt mit steigender Temperatur ab bedingt durch die Zunahme der thermischen Energie. Die rheologischen Eigenschaften des Systems OG/DMPG wurden mit einem Rotationsviskosimeter näher untersucht. Im Koexistenzbereich zeigt sich scherverdünnendes, anti-thixotropes Verhalten. Dies läßt sich erklären durch die Bildung von würmchenähnlichen Mizellen. Vor Beginn der Scherung sind die Würmchenmizellen durch die Brown sche Molekularbewegung völlig ungeordnet. Mit eintretender Scherung findet eine Orientierung der Mizellfäden statt. Durch besseres aneinander Vorbeigleiten tritt eine Viskositätserniedrigung ein. Bei weiterer Erhöhung von & g kommt es verstärkt zu Rheo-destruktion und die Moleküle müssen sich neu assoziieren. Erniedrigt man die Scherrate wieder, kommt es durch die Reassoziation zu verstärkten Wechselwirkungen zwischen den verzweigten, fadenförmigen Mizellen. Dadurch ist die Viskosität beim Reduzieren der Scherrate höher und die Kurve verläuft linksherum (anti-thixotrop).
Photolysiert man [{Cp R Ru(CO)2}2] (Cp R = Cp", Cp*) (1a,b), in Gegenwart von weißem Phosphor, so können keine phosphorhaltigen Produkte isoliert werden. Setzt man [{Cp"Ru(CO)2}2] (1a) mit weißem Phosphor bei 190 °C in Dekalin um, dann lassen sich als einzige Verbindungen das Pentaphospharuthenocen-Derivat [Cp"Ru(h 5 -P5)] (3a, 6 % Ausbeute) und [Cp"2Ru2P4] (4a, 17 % Ausbeute) säulenchromatographisch abtrennen. Für 4a wird auf Grund seiner spektroskopischen Eigenschaften eine den röntgenstruktur-analytisch charakterisierten pseudo-Tripeldecker-Komplexen [{Cp R Fe}2(micro-h 4:4 -P4)] (Cp R = Cp" [35] , Cp"' [11] ) analoge Struktur mit s-cis-Tetraphosphabutadiendiyl-"Mitteldeck" vorgeschlagen; es sind jedoch auch zwei micro-h 2:2 -P2-Liganden denkbar. Die Cothermolyse von [{Cp"Ru(CO)2}2] (1a) und [Cp*Fe(h 5 -P5)] (2b) ergibt ein breites Produktbild. Während [Cp"Ru(h 5 -P5)] (3a), das chromatographisch nicht von 2b abgetrennt werden konnte, und [Cp"2Ru2P4] (4a, 6 % Ausbeute) in vergleichsweise geringen Mengen entstehen, können [{Cp"Ru}3P5] (6) in 17 % Ausbeute, [{Cp"Ru}2{Cp*Fe}P5] (7) in 7 % Ausbeute, [{Cp*Fe}2{Cp"Ru}P5] (8) in 22 % Ausbeute und [{Cp"Ru}3{Cp*Fe}(P2)2] (9) in 14 % Ausbeute isoliert werden. Für 9 wird, basierend auf den NMR-spektroskopischen Befunden, eine zu [{CpFe}4(P2)2] (10) [24] analoge Struktur mit einem hier verzerrten Dreiecksdodekaedergerüst vorge-schlagen, dessen vier Ecken der Konnektivität fünf von drei Rutheniumatomen und einem Eisenatom besetzt sind und dessen vier Ecken der Konnektivität vier zwei micro-h 2:2:1:1 -P2-Einheiten einnehmen. Es handelt sich bei 9 wie bei 10 um Cluster vom hypercloso-Typ (n+1 = 8 GEP). [30,31] Röntgenstrukturanalysen zeigen, daß 6, 7 und 8 ebenfalls verzerrt dreiecksdodekaedrische Gerüststrukturen besitzen. Damit ist auch die Struktur der bereits früher synthetisierten und spektroskopisch charakterisierten Komplexe [{Cp R Fe}3P5] (Cp R = Cp*, Cp*') (11b,c) [8] geklärt, deren NMR-Daten auf eine enge Verwandtschaft insbesondere mit 6 hinweisen. Gegenüber 9 bzw. 10 [24] mit einem M4P4-Gerüst (M = allgem. Übergangsmetallatom) ist in den Clustern 6, 7, 8 und 11b,c [8] mit M3P5-Gerüst formal ein 13 VE-Metallkomplex-fragment (Konnektivität fünf; 1 GE) durch ein Phosphoratom (3 GE) ersetzt, wodurch der Übergang zum closo-Strukturtyp des Dreiecksdodekaeders (n+1 = 9 GEP) [30,31] vollzogen wird. Die Cluster 6, 7, 8 und 11b,c [8] enthalten eine bisher unbekannte Koordinationsform der P5-Einheit. Bei der thermischen Umsetzung von [{Cp*Ru(CO)2}2] (1b) mit [Cp*Ru(h 5 -P5)] (3b) erhält man als Hauptprodukt den Dreikernkomplex [{Cp*Ru}3(P4)(P)] (17b, 62 % Ausbeute). Als einziges Nebenprodukt kann [Cp*2Ru2P4] (4b, 5 % Ausbeute) säulen-chromatographisch isoliert werden. Die NMR-Daten von 17b lassen in Analogie zum röntgenstrukturanalytisch charakterisierten [{Cp*'Fe}3(P4)(P){Mo(CO)5}] (18c) [8] auf eine cubanartige Struktur schließen, in der die fünf Phosphoratome in Form einer Isotetraphosphid-Einheit und eines einzelnen Phosphoratoms vorliegen. Die Gesamtzahl von 64 Valenzelektronen ist im Einklang mit drei Metall-Metall-Bindungen [31] . Für 4b ist wie für das voranstehend besprochene Cp"-Derivat 4a eine Pseudo- Tripeldecker-Struktur mit s-cis-Tetraphosphabutadiendiyl-"Mitteldeck" oder mit zwei micro-h 2:2 -P2-Liganden zu diskutieren. Thermolysiert man [{Cp* Ru(CO)2}2] (1c) mit 3b, so erhält man die Komplexe [Cp*'nCp*2-nRu2P4] (n = 0,1,2) (4b,d,c) und [{Cp*'Ru}n{Cp*Ru}3-n(P4)(P)] (n = 1,2,3) (17e,d,c) jeweils als nicht auftrennbare Gemische von analog aufgebauten Verbindungen, die sich nur im Zahlenverhältnis der verschiedenen Cyclopentadienyl-Liganden Cp*' und Cp* unterscheiden. In geringem Umfang beobachtet man dabei auch eine cyclo-P5-Übertragung unter Bildung des literaturbekannten [Cp*'Ru(h 5 -P5)] [7,10] , das im Gemisch mit nicht abreagiertem 3b anfällt. Durch Umsetzung mit [W(CO)5(thf)] gelingt die Komplexierung des dreiecks-dodekaedrischen Clusters [{Cp*Fe}2{Cp"Ru}P5] (8) zum Monoaddukt [{Cp*Fe}2{Cp"Ru}P5{W(CO)5}] (19), während beim Komplexierungsversuch des ebenfalls dreiecksdodekaedrischen Clusters [{Cp*'Fe}3P5] (11c) mit [Mo(CO)5(thf)] [8] eine Gerüstumlagerung zur cubanartig aufgebauten Verbindung [{Cp*'Fe}3(P4)(P){Mo(CO)5}] (18c) erfolgt. Der Strukturvorschlag für 19 basiert auf dem 31 P-NMR-Spektrum. Versuche zur Oxidation von 8 mit gelbem Schwefel bei Raumtemperatur führen zu unspezifischer Zersetzung bzw. Folgereaktionen von 8. Orientierende Versuche mit grauem Selen als milderem Oxidationsmittel deuten darauf hin, daß unter geeigneten Reaktionsbedingungen eine einfache Selenierung am endständigen Phosphoratom des P5-Liganden von 8 erfolgt. Bei der Umsetzung von [{Cp"Ru}3{Cp*Fe}(P2)2] (9) mit gelbem Schwefel können je nach Reaktionsbedingungen bis zu drei Phosphoratome oxidiert werden. Vollständige Sulfurierung wie im Falle von [{CpFe}4(P2S2)2] [24] wird nicht beobachtet. Die Sulfurierung ist regioselektiv. Für einen bestimmten Sulfurierungsgrad wird jeweils nur ein Produkt erhalten. Die Strukturvorschläge für die Cluster 21 23 werden anhand ihrer 31 P-NMR-spektroskopischen Daten abgeleitet.