Refine
Year of publication
- 2001 (121) (remove)
Document Type
- Preprint (37)
- Doctoral Thesis (35)
- Report (21)
- Periodical Part (13)
- Article (4)
- Diploma Thesis (3)
- Lecture (2)
- Master's Thesis (2)
- Working Paper (2)
- Course Material (1)
- Periodical (1)
Keywords
- AG-RESY (9)
- RODEO (7)
- Mathematikunterricht (3)
- Modellierung (3)
- Phosphaalkin (3)
- praxisorientiert (3)
- vibration (3)
- Eisen (2)
- Lineare Algebra (2)
- Mobilfunk (2)
Faculty / Organisational entity
- Fachbereich Mathematik (30)
- Fachbereich Informatik (21)
- Fachbereich Chemie (15)
- Fachbereich Physik (12)
- Fachbereich Sozialwissenschaften (12)
- Fraunhofer (ITWM) (9)
- Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Fachbereich Elektrotechnik und Informationstechnik (6)
- Fachbereich Wirtschaftswissenschaften (4)
- Fachbereich ARUBI (2)
Demizellisierung Die isotherme Titrationskalorimetrie ist eine leistungsfähige, schnelle und einfache Methode, die den großen Vorteil bietet, aus ein und demselben Experiment die CMC und die Demizellisierungsenthalpie eines Tensids in einem weiten Temperaturbereich zu bestimmen [48,51,102,103]. Die in dieser Arbeit verwandten Detergentien Octylglucosid und Dodecylmaltosid zeichnen sich durch ihre milden Eigenschaften beim Herauslösen von Proteinen aus bakteriellen Membranen und bei deren Rekonstitution in definierten Lipidmatrizen aus [104-106]. Diese nichtionischen Tenside besitzen eine relativ hohe Aggregationszahl, woraufhin die Näherungen des Phasenseparationsmodells gemacht werden können. Die CMC ist eine Funktion der Temperatur, der Neutralsalzkonzentration und der Alkylkettenlänge. Bei Prozessen, die durch den hydrophoben Effekt bedingt sind kehrt sich mit steigender Temperatur das Vorzeichen der Enthalpie um; dort besitzt DHDemiz eine Nullstelle. Die entsprechende Temperatur wird TH genannt. Ebenso weist die Entropie eine Nullstelle bei TS auf. Im Bereich von TH ist es schwierig wenn nicht sogar unmöglich die CMC und die Demizellisierungsenthalpie auf titrationskalorimetrischem Wege genau zu bestimmen. Mit Hilfe der van t Hoff schen Reaktionsisobare lassen sich DHDemiz und die CMC aus den experimentell zugänglichen Werten mathematisch anpassen [51,55]. Die starke Temperaturabhängigkeit der Enthalpie und Entropie kompensieren sich weitgehend und es resultiert nach Gibbs-Helmholtz eine nur schwache Temperaturabhängigkeit der freien Enthalpie. Die Ableitung der Enthalpie nach der Temperatur ergibt die Wärmekapazität. Diese ist ein Maß inwieweit hydrophobe Oberfläche durch die Mizellbildung vom Einfluß des Wassers abgeschirmt wird. Solubilisierung Mit Hilfe der ITC lassen sich, für den Prozeß der Solubilisierung, die Phasengrenzen des Koexistenzbereichs einfach bestimmen. Sie sind aus den Kalorigrammen zugänglich als Wendepunkte des intermediären Extremwertes. Als Erste setzten Heerklotz et al. die Titrationkalorimetrie im Zusammenhang mit dieser Problemstellung ein [66]. Desweiteren läßt sich aus dieser Art von Experiment die Solubilisierungskraft verschiedener Tenside bestimmen. So besitzt Dodecylmaltosid eine deutlich höhere Solubilisierungskraft als Octylglucosid. Dies ist zu ersehen aus den für DM niedrigeren Re sol -Werten. Die Solubilisierung der synthetischen Lezithine in pH 6 Phosphatpuffer bei 70 °C zeigen einen linear ansteigenden Verlauf mit Zunahme der Acylkettenlänge des Lipids. Im Gegensatz dazu zeigt OG eine sprunghafte Änderung zwischen DPPC und DSPC. Dies deutet darauf hin, daß die Form und oder Größe der entstehenden Aggregate in der gemischtmizellaren Phase differieren. Die Werte in Pufferlösung liegen leicht unter denen in reinem Wasser. Dies wird verursacht durch die Verringerung der Hydratation der Kopfgruppen in den Aggragaten. Die Reihenfolge der Solubilisierung in Abhängigkeit der Kopfgruppe des Lipids nimmt sowohl für DM als auch für OG in der Richtung PA>PC>PG ab. Ursache hierfür sind die in dieser Richtung abnehmenden intermolekularen H-Brückenbindungen. Gleichzeitig nehmen in dieser Richtung die intramolekularen H-Brückenbindungen zu. Deshalb läßt sich PG leichter als die anderen Lipide solubilisieren. Die temperaturabhängigkeit des Gesamtverhältnisses Rt # des Beispiels OG/P90g in Wasser zeigt analog der temperaturabhänigigkeit der Demizellisierung ein Minimum zwischen 42 und 46 °C (quadratisch angepaßt). Die typische, auf den hydrophoben Effekt basierende Umkehr der Reaktionsenthalpie findet hier bei 42 °C statt. Das effektive Molverhältnis Re # zeigt für die Solubilisierung einen leichten und für die Saturierung einen stärkeren Anstieg mit steigender Temperatur. Der Einfluß der Größe der ursprünglich eingesetzten Vesikel wurde bei dem System OG/DMPC in Wasser bei 27 °C untersucht. Es konnte kein Einfluß der Vesikelgröße festgestellt werden. Die Solubilisierung des Gemisches DMPC/DMPG mit OG wurde in pH 6 Phosphatpuffer bei 70 °C untersucht. Die Solubilisierungsgrenze der DMPC-Membran wird durch beimischung von DMPG bis zu einem Molenbruch XMG = 0,4 erhöht. Die DMPG-Membran wird durch den DMPC-Anteil bis XMC = 0,2 destabilisert. Verteilungsexperimente Die Experimente, bei denen Lipid zu einer Detergensvorlage titriert wurde, wurden mit konstantem Verteilungskoeffizienten P angepaßt. Der Verteilungskoeffizient und die Transferenthalpie nehmen mit zunehmendem OG-Gehalt in der DMPC-Membran bei 30 °C ab. Es scheinen anfängliche Fehlstellen abgesättigt zu werden. Gleiches Verhalten zeigt sich bei 70 °C. Lediglich die Transferenthalpie nimmt betragsmäßig leicht zu. Die Abhängigkeit von der Kopfgruppe des Lipids zeigt eine Zunahme des Verteilungskoeffizienten von DPPA<DPPC<DPPG bei 70 °C in pH 6 Phosphatpuffer. Dies läßt sich verstehen durch die bereits vorher erwähnte Abnahme der intermolekularen H-Brückenbindungen. Dadurch wird die Membran flexibler und der Detergenseinbau erleichtert. Die Konstanz des Verteilungskoeffizient P war zu erwarten, da der Vorgang sich innerhalb eines kleinen Konzentrationsbereichs abgespielt hat und immer derselbe Prozeß stattgefunden hat, nämlich der Einbau von wenig Detergens in die reine Lipidmembran. Die Experimente, bei denen Detergens zu einer Lipidvorlage titriert wurde, konnten, wegen des nichtidealen Mischungsverhaltens, nicht mehr mit einem konstanten Verteilungs-koeffizienten P angepaßt werden. Die Anpassung wurde mit dem athermischen Mischungsmodell von Guggenheim realisiert. Dabei enthält die Gibbs sche freie Mischungs-enthalpie einen Exzeßterm. Der Verteilungskoeffizient P0 nimmt mit steigendem Vesikeldurchmesser ab. Die Krümmung der Vesikel hat somit großen Einfluß auf die Fehlstellen in der Membran. Die Werte der Fit-Parameter schwanken leider sehr stark mit dem Intervall der Schrittweite für die Anpassung. Die Ursache hierfür liegt an der Qualität der experimentellen Werte. Bei der in dieser Arbeit durchgeführten Verteilungsexperimenten ist das Signal/Rausch Verhältnis recht klein und am Rande der Auflösung des Kalorimeters. Es ergeben sich somit schon bei der Integration und Basislinienkorrektur grobe Toleranzen. Für die mathematische Anpassung stehen desweiteren nur eine relativ geringe Datenmenge von ca. 20 - 40 Meßpunkten zur Verfügung. Es lassen sich somit bei Experimenten in diesem meßtechnischen Grenzbereich eher nur eine Abschätzung als genaue Absolutwerte bestimmen. Die Signale dieser Art von Experimenten sind deshalb so gering weil zu der geringen Verdünnungsenthalpie nur noch die Transferenthalpie weniger Detergensmoleküle beiträgt. Das nichtideale Mischungsverhalten dieses Verteilungsexperimentes ist zu verstehen, aus der Unteschiedlichkeit beider Amphiphile hinsichtlich Ihrer Strukturformel und ihrem physikalischen Verhalten. DSC Die Solubilisierung wurde auch mit der DSC-Methode untersucht. Der Einbau von OG in DPPC zeigt schon bei geringen Detergensmengen ein Verschwinden der Vorumwandlung (Lb' -> Pb' ). Die Hauptumwandlung verschiebt sich mit steigender Detergenskonzentration zu niedrigeren Temperaturen. Beim Überschreiten der Saturierungsphasengrenze geht die Kooperativität der Umwandlung zunehmends verloren und die anfänglichen Umwandlungspeaks werden zu Umwandlungsbereichen. Sogar noch in der mizellaren Phase sind Umwandlungsbereiche zu erkennen, was darauf hindeutet, daß selbst dort noch Domänen mit kooperativem Umwandlungsverhalten existieren müssen, da in reinen OG-Mizellen keine Umwandlung detektiert werden konnte. Die Verschiebung der Umwandlung und die Schärfe der Bereiche ist reversibel. Der Einfluß von 150 mM NaCl-Puffer bewirkt lediglich eine Verschiebung der Umwandlungstemperaturen um ca. 5 °C zu niedrigeren Werten, was sicherlich auf die Änderung der Hydratation im Kopfgruppenbereich der Aggregate zurückzuführen ist. Lichtstreuung Mit Hilfe der dynamischen und statischen Lichtstreuung lassen sich die Grenzen des kalorimetrisch bestimmten Koexistenzbereichs bestätigen. Außerdem konnte ein kleiner lokaler Extremwert im Titrationskalorigramm als Ende der makroskopischen Phasenseparation identifiziert werden. Beim synthetischen Lipid DMPC reicht diese Mischungslücke vom Koexistenzbereich bis in den mizellaren Bereich. Bei dem natürlich vorkommenden SojaPC liegt diese Mischungslücke innerhalb des kalorimetrisch bestimmten Koexistenzbereich. Das anionische DMPG weist keine Mischungslücke auf. Rheologie Das Anionische Lipid DMPG weist beim titrieren mit OG in pH 6 Phosphatpuffer bei 30 °C eine starke Basislinienverschiebung auf. Die Ursache hierfür ist eine sprungartige Zunahme der Viskosität beim Überschreiten der Saturierungsphasengrenze. Diese Basislinienverschiebung nimmt mit steigender Temperatur ab bedingt durch die Zunahme der thermischen Energie. Die rheologischen Eigenschaften des Systems OG/DMPG wurden mit einem Rotationsviskosimeter näher untersucht. Im Koexistenzbereich zeigt sich scherverdünnendes, anti-thixotropes Verhalten. Dies läßt sich erklären durch die Bildung von würmchenähnlichen Mizellen. Vor Beginn der Scherung sind die Würmchenmizellen durch die Brown sche Molekularbewegung völlig ungeordnet. Mit eintretender Scherung findet eine Orientierung der Mizellfäden statt. Durch besseres aneinander Vorbeigleiten tritt eine Viskositätserniedrigung ein. Bei weiterer Erhöhung von & g kommt es verstärkt zu Rheo-destruktion und die Moleküle müssen sich neu assoziieren. Erniedrigt man die Scherrate wieder, kommt es durch die Reassoziation zu verstärkten Wechselwirkungen zwischen den verzweigten, fadenförmigen Mizellen. Dadurch ist die Viskosität beim Reduzieren der Scherrate höher und die Kurve verläuft linksherum (anti-thixotrop).
Photolysiert man [{Cp R Ru(CO)2}2] (Cp R = Cp", Cp*) (1a,b), in Gegenwart von weißem Phosphor, so können keine phosphorhaltigen Produkte isoliert werden. Setzt man [{Cp"Ru(CO)2}2] (1a) mit weißem Phosphor bei 190 °C in Dekalin um, dann lassen sich als einzige Verbindungen das Pentaphospharuthenocen-Derivat [Cp"Ru(h 5 -P5)] (3a, 6 % Ausbeute) und [Cp"2Ru2P4] (4a, 17 % Ausbeute) säulenchromatographisch abtrennen. Für 4a wird auf Grund seiner spektroskopischen Eigenschaften eine den röntgenstruktur-analytisch charakterisierten pseudo-Tripeldecker-Komplexen [{Cp R Fe}2(micro-h 4:4 -P4)] (Cp R = Cp" [35] , Cp"' [11] ) analoge Struktur mit s-cis-Tetraphosphabutadiendiyl-"Mitteldeck" vorgeschlagen; es sind jedoch auch zwei micro-h 2:2 -P2-Liganden denkbar. Die Cothermolyse von [{Cp"Ru(CO)2}2] (1a) und [Cp*Fe(h 5 -P5)] (2b) ergibt ein breites Produktbild. Während [Cp"Ru(h 5 -P5)] (3a), das chromatographisch nicht von 2b abgetrennt werden konnte, und [Cp"2Ru2P4] (4a, 6 % Ausbeute) in vergleichsweise geringen Mengen entstehen, können [{Cp"Ru}3P5] (6) in 17 % Ausbeute, [{Cp"Ru}2{Cp*Fe}P5] (7) in 7 % Ausbeute, [{Cp*Fe}2{Cp"Ru}P5] (8) in 22 % Ausbeute und [{Cp"Ru}3{Cp*Fe}(P2)2] (9) in 14 % Ausbeute isoliert werden. Für 9 wird, basierend auf den NMR-spektroskopischen Befunden, eine zu [{CpFe}4(P2)2] (10) [24] analoge Struktur mit einem hier verzerrten Dreiecksdodekaedergerüst vorge-schlagen, dessen vier Ecken der Konnektivität fünf von drei Rutheniumatomen und einem Eisenatom besetzt sind und dessen vier Ecken der Konnektivität vier zwei micro-h 2:2:1:1 -P2-Einheiten einnehmen. Es handelt sich bei 9 wie bei 10 um Cluster vom hypercloso-Typ (n+1 = 8 GEP). [30,31] Röntgenstrukturanalysen zeigen, daß 6, 7 und 8 ebenfalls verzerrt dreiecksdodekaedrische Gerüststrukturen besitzen. Damit ist auch die Struktur der bereits früher synthetisierten und spektroskopisch charakterisierten Komplexe [{Cp R Fe}3P5] (Cp R = Cp*, Cp*') (11b,c) [8] geklärt, deren NMR-Daten auf eine enge Verwandtschaft insbesondere mit 6 hinweisen. Gegenüber 9 bzw. 10 [24] mit einem M4P4-Gerüst (M = allgem. Übergangsmetallatom) ist in den Clustern 6, 7, 8 und 11b,c [8] mit M3P5-Gerüst formal ein 13 VE-Metallkomplex-fragment (Konnektivität fünf; 1 GE) durch ein Phosphoratom (3 GE) ersetzt, wodurch der Übergang zum closo-Strukturtyp des Dreiecksdodekaeders (n+1 = 9 GEP) [30,31] vollzogen wird. Die Cluster 6, 7, 8 und 11b,c [8] enthalten eine bisher unbekannte Koordinationsform der P5-Einheit. Bei der thermischen Umsetzung von [{Cp*Ru(CO)2}2] (1b) mit [Cp*Ru(h 5 -P5)] (3b) erhält man als Hauptprodukt den Dreikernkomplex [{Cp*Ru}3(P4)(P)] (17b, 62 % Ausbeute). Als einziges Nebenprodukt kann [Cp*2Ru2P4] (4b, 5 % Ausbeute) säulen-chromatographisch isoliert werden. Die NMR-Daten von 17b lassen in Analogie zum röntgenstrukturanalytisch charakterisierten [{Cp*'Fe}3(P4)(P){Mo(CO)5}] (18c) [8] auf eine cubanartige Struktur schließen, in der die fünf Phosphoratome in Form einer Isotetraphosphid-Einheit und eines einzelnen Phosphoratoms vorliegen. Die Gesamtzahl von 64 Valenzelektronen ist im Einklang mit drei Metall-Metall-Bindungen [31] . Für 4b ist wie für das voranstehend besprochene Cp"-Derivat 4a eine Pseudo- Tripeldecker-Struktur mit s-cis-Tetraphosphabutadiendiyl-"Mitteldeck" oder mit zwei micro-h 2:2 -P2-Liganden zu diskutieren. Thermolysiert man [{Cp* Ru(CO)2}2] (1c) mit 3b, so erhält man die Komplexe [Cp*'nCp*2-nRu2P4] (n = 0,1,2) (4b,d,c) und [{Cp*'Ru}n{Cp*Ru}3-n(P4)(P)] (n = 1,2,3) (17e,d,c) jeweils als nicht auftrennbare Gemische von analog aufgebauten Verbindungen, die sich nur im Zahlenverhältnis der verschiedenen Cyclopentadienyl-Liganden Cp*' und Cp* unterscheiden. In geringem Umfang beobachtet man dabei auch eine cyclo-P5-Übertragung unter Bildung des literaturbekannten [Cp*'Ru(h 5 -P5)] [7,10] , das im Gemisch mit nicht abreagiertem 3b anfällt. Durch Umsetzung mit [W(CO)5(thf)] gelingt die Komplexierung des dreiecks-dodekaedrischen Clusters [{Cp*Fe}2{Cp"Ru}P5] (8) zum Monoaddukt [{Cp*Fe}2{Cp"Ru}P5{W(CO)5}] (19), während beim Komplexierungsversuch des ebenfalls dreiecksdodekaedrischen Clusters [{Cp*'Fe}3P5] (11c) mit [Mo(CO)5(thf)] [8] eine Gerüstumlagerung zur cubanartig aufgebauten Verbindung [{Cp*'Fe}3(P4)(P){Mo(CO)5}] (18c) erfolgt. Der Strukturvorschlag für 19 basiert auf dem 31 P-NMR-Spektrum. Versuche zur Oxidation von 8 mit gelbem Schwefel bei Raumtemperatur führen zu unspezifischer Zersetzung bzw. Folgereaktionen von 8. Orientierende Versuche mit grauem Selen als milderem Oxidationsmittel deuten darauf hin, daß unter geeigneten Reaktionsbedingungen eine einfache Selenierung am endständigen Phosphoratom des P5-Liganden von 8 erfolgt. Bei der Umsetzung von [{Cp"Ru}3{Cp*Fe}(P2)2] (9) mit gelbem Schwefel können je nach Reaktionsbedingungen bis zu drei Phosphoratome oxidiert werden. Vollständige Sulfurierung wie im Falle von [{CpFe}4(P2S2)2] [24] wird nicht beobachtet. Die Sulfurierung ist regioselektiv. Für einen bestimmten Sulfurierungsgrad wird jeweils nur ein Produkt erhalten. Die Strukturvorschläge für die Cluster 21 23 werden anhand ihrer 31 P-NMR-spektroskopischen Daten abgeleitet.
In Anlehnung an die konventionelle SSP-PCR-Methode wurde ein Low-Resolution-Panel mittels des TaqMan-Prinzips entwickelt und es wurde exemplarisch für DR4 und DR15/16 gezeigt, daß die auf dem 5 Nuklease-Assay beruhende Methode fähig ist, auch einzelne Punktmutationen voneinander zu unterscheiden. Das Grundprinzip dieser Methode basiert ähnlich dem der PCR-SSP auf dem Verfahren der PCR und auf dem Ausnutzen genetischer Unterschiede. So kommt es nur zu einer Amplifizierung wenn beide Primer spezifisch binden. Die Detektion einer erfolgreichen Amplifizierung erfolgt bei der TaqMan-Methode über eine Fluoreszenzmessung im gleichen Reaktionsgefäß. So entfallen jegliche Post-PCR-Schritte, d.h. es müssen weder weitere Pipettierschritte noch Gelelektrophorese eingesetzt werden. Das automatisch generierte Datenfile muß nur am Rechner ausgewertet werden. Mit Hilfe einer optimierten Schnell-DNA-Isolierungsmethode, die auf dem Binden an ein Säulenmaterial und Verdau etwaiger Proteine beruht, läßt sich eine DRB1-Typisierung nunmehr in etwas mehr als 2 Stunden durchführen, im Gegensatz zu den bisher 3-3.5 Stunden bei der konventionellen SSP-PCR. Durch den höheren Automatisierungsgrad, werden nicht nur Zeit und Arbeitsaufwand minimiert, sondern auch die potentiellen Fehlerquellen eingeschränkt, wie z.B. Kontaminationen durch PCR-Produkte, fehlerhaftes Auftragen der PCR-Produkte auf das Gel und die falsche Zuordnung von Banden. Bei Validierungsuntersuchungen dieses Tests ergab sich eine zufriedenstellende Übereinstimmung mit der konventionellen SSP-Typisierung und mit anderen molekularbiologischen Methoden wie RFLP. Die TaqMan-Methode stellt eine sehr nützliche Alternative zu herkömmlichen Typisierungsverfahren dar. Sie kann sowohl für Einzel- und Notfalltypisierungen, als auch für eine größere Zahl gleichzeitig durchzuführender Tests eingesetzt werden. Sie ist sehr zuverlässig, weniger zeit- und arbeitsintensiv als andere Methoden (SSP, SSO), besitzt ein höheres Automatisierungspotential und einen höheren Durchsatz. Sie ist erweiterbar für die Detektion neuer Allele und Subtypen. Die Technik ist in ihren Einsatzmöglichkeiten nicht begrenzt, im Gegensatz zu RFLP oder RSCA, die durch Enzyme bzw. ihre Schnittstellen limitiert sind. TaqMan-Assays sind weniger aufwendig und die Interpretation übersichtlicher als z.B. die einer Sequenzierung. Eine Ausdehnung der HLA-Typisierung mittels TaqMan-Verfahren auf andere HLA-Loci ist durchaus sinnvoll.
Der Variantenreichtum der Pentaphosphaferrocene konnte unter Verwendung von trimethylsilyl-substituierten CpR-Liganden erweitert werden. Neben den einfach und zweifach Tms-substituierten Cp- und Cp= Liganden kommt auch der gemischt substituierte Cp-'-Ligand zum Einsatz. Bei der Cothermolyse von [CpRFe(5-P5)] und [CpRCo(CO)2] entstehen eine Reihe von neuartigen und bekannten Cobalt und Eisen Mehrkernclustern mit unsubstituierten Pn-Liganden. Die Verbindungen [{Cp=Co}4P10], [{Cp=Co}4P4] und [{Cp-Co}4P4] fungierten ebenfalls in ausgewählten Reaktionen als Phosphorquelle mit einer erstaunlichen Produktpalette.
Die Ausschaltung autoantigener Immunzellen ist das Prinzip der antigenspezifischen Immunsuppression, einer erfolgversprechenden Methode zur Therapie von Autoimmunerkrankungen. Im Fall der Myasthenia gravis, bei der die Autoimmunreaktion gegen den nikotinischen Acetylcholinrezeptor (AChR) gerichtet ist, wurden Konjugate aus dem kompletten AChR und dem ribosomen-inaktivierenden Toxin Gelonin in in vivo Versuchen eingesetzt [Urbatsch et al., 1993; Brust et al., 1987]. Urbatsch und Brust gelang die Therapie von Ratten, bei denen sie die experimentelle autoimmune Myasthenia gravis (EAMG) ausgelöst hatten, durch Applikation dieser Konjugate. Zur Vermeidung unerwünschter Immunreaktionen gegen pathologisch irrelevante Teile des AChR, wurde die humane +- -Untereinheit, sowie der extrazelluläre Teil, in dessen Bereich die hauptantigene Determinante liegt, in E. coli exprimiert [Rousselle, 1996]. Allerdings konnten diese Peptide nur in denaturierter, unlöslicher Konformation als inclusion bodies erhalten werden. Ziel der vorliegenden Arbeit war die Isolierung von AChR-Gelonin-Konjugaten aus nativen, gefalteten Rezeptor-Fragmenten und deren in vivo Einsatz zur Therapie der EAMG in Lewis-Ratten. Zur Induzierung der EAMG wurde der nikotinische AChR aus dem elektrischen Organ des Zitterrochens, Torpedo californica (T-AChR) isoliert und in fünf Lewis-Ratten eingesetzt. Der Verlauf der EAMG, wie auch die spätere Therapie mit den Konjugaten, sollte elektrophysiologisch mit Hilfe der repetitiven Serienstimulation verfolgt werden. Bei den Ratten konnte durch diese Methode eine pathologische Reduzierung der funktionstüchtigen AChR nachgewiesen werden. Zur Isolierung nativ gefalteter AChR-Fragmente wurde die Koexpression des Chaperoninsystems GroEL/GroES mit verschiedenen AChR-Fragmenten durchgeführt. Nur mit dem Plasmid polsi HE706 gelang es das AChR-Fragment zu exprimieren. Da das Fragment +- HE706 aber ausschließlich in Form von inclusion bodies detektiert wurde, muß die Koexpression mit dem Chaperonin-Komplex GroEL/GroES zur nativen Faltung des Proteins, als gescheitert angesehen werden. Da keine nativ gefalteten AChR-Fragmente isoliert werden konnten, stellte Prof. Dr. A. Maelicke (Institut für Physiologische Chemie und Pathobiochemie, Mainz) freundlicherweise das rekombinante T-AChR1-209-Fragment zur Verfügung. Die hohe Aggregationsbereitschaft, die negative Reaktion mit konformellen Antikörpern und Schwierigkeiten das Protein aufzukonzentrieren, wiesen auf die unvollständige Faltung des T-AChR1-209 hin. Die Synthese des T-AChR1-209-Gelonin-Konjugates sollte mit dem Kopplungsreagenz BMME (Bis-( maleimido)-methylether) unter Ausbildung einer Thioetherbrücke erfolgen. Dabei ist es notwendig in beide Proteine, durch Modifikation mit 2-Iminothiolan, Thiolgruppen einzuführen. Da die Modifizierung des T-AChR1-209 scheiterte, sollte die Thioetherbrücke mit dem Kopplungsreagenz SMCC (Succinimidyl-4-(N-maleimido)-cyclohexan-1-carboxylat) eingeführt werden. Bei dieser Methode ist es nicht notwendig, den T-AChR1-209 mit Thiolgruppen zu modifizieren. Nach der Synthese des T-AChR1- 209-Gelonin-Konjugates konnte der freie T-AChR1-209 vollständig abgetrennt werden, während das Konjugat mit nicht umgesetztem Gelonin verunreinigt war. Da kein T-AChR1-209-Fragment mehr zur Verfügung stand, mußten Versuche zur Optimierung der Konjugatsynthese aufgegeben werden.
Moderne Mobilfunksysteme, die nach dem zellularen Konzept arbeiten, sind interferenzbegrenzte Systeme. Ein wesentliches Ziel beim Entwurf zukünftiger Mobilfunkkonzepte ist daher die Reduktion der auftretenden Interferenz. Nur so läßt sich die spektrale Effizienz künftiger Mobilfunksysteme noch signifikant gegenüber dem Stand der Technik steigern. Die Elimination der Intrazellinterferenz, das heißt der auftretenden Wechselwirkungen zwischen Signalen mehrerer von der gleichen Zelle bedienter Teilnehmer, durch gemeinsame Detektion (engl. Joint Detection, JD) ist bereits ein wesentliches Merkmal des Luftschnittstellenkonzepts TD-CDMA. Ein bislang noch weitgehend unbeachtetes Potential zum Steigern von spektraler Effizienz und Kapazität hingegen ist die Reduktion der Interzellinterferenz, das heißt der durch Teilnehmer verschiedener Zellen wechselseitig verursachten Interferenz. Insbesondere in Systemen mit niedrigen Clustergrößen verspricht eine Reduktion der in diesem Fall sehr starken Interzellinterferenz erhebliche Gewinne. Die Interzellinterferenzreduktion ist daher der logische nächste Schritt nach der Intrazellinterferenzreduktion. Die vorliegende Arbeit leistet einen Beitrag zum Entwickeln gewinnbringender Verfahren zur Reduktion der Interzellinterferenz in zukünftigen Mobilfunksystemen durch entsprechende Berücksichtigung und Elimination des Einflusses der Interzellinterferenzsignale in der empfängerseitigen Signalverarbeitung. Ziel ist eine verbesserte Schätzung der übertragenen Teilnehmerdaten zu erhalten, dazu werden Signale von Interzellinterferenzquellen beim Datenschätzen berücksichtigt. Die dabei benötigten Informationen werden mit den ebenfalls erläuterten Verfahren zur Identifikation und Selektion starker Interzellinterferenzquellen sowie einer gegenüber dem bisherigen Systementwurf erweiterten Kanalschätzung gewonnen. Es wird gezeigt, daß sich mit einem aufwandsgünstigen Detektor die relevanten Interzellinterferenzquellen zuverlässig identifizieren lassen. Mit einem auf kurze Mobilfunkkanäle, die in Hotspots vermehrt zu erwarten sind, optimierten Kanalschätzverfahren werden die aktuellen Mobilfunkkanalimpulsantworten für alle relevanten Teilnehmer bestimmt. Um die Datenschätzung für viele Teilnehmer durchführen zu können, wird das Schätzverfahren Multi-Step Joint Detection entworfen, das die von der herkömmlichen gemeinsamen Detektion bekannte SNR-Degradation verringert. Die Simulationsergebnisse zeigen die Leistungsfähigkeit des entworfenen Systemkonzeptes. Die Interzellinterferenzreduktionsverfahren können sowohl zum Erhöhen der spektralen Effizienz des Systems, als auch zu einer Verbesserung der Dienstgüte bei gleichbleibender spektraler Effizienz gewinnbringend eingesetzt werden.
In this thesis a new family of codes for the use in optical high bit rate transmission systems with a direct sequence code division multiple access scheme component was developed and its performance examined. These codes were then used as orthogonal sequences for the coding of the different wavelength channels in a hybrid OCDMA/WDMA system. The overall performance was finally compared to a pure WDMA system. The common codes known up to date have the problem of needing very long sequence lengths in order to accommodate an adequate number of users. Thus, code sequence lengths of 1000 or more were necessary to reach bit error ratios of with only about 10 simultaneous users. However, these sequence lengths are unacceptable if signals with data rates higher than 100 MBit/s are to be transmitted, not to speak about the number of simultaneous users. Starting from the well known optical orthogonal codes (OOC) and under the assumption of synchronization among the participating transmitters - justified for high bit rate WDM transmission systems -, a new code family called ?modified optical orthogonal codes? (MOOC) was developed by minimizing the crosscorrelation products of each two sequences. By this, the number of simultaneous users could be increased by several orders of magnitude compared to the known codes so far. The obtained code sequences were then introduced in numerical simulations of a 80 GBit/s DWDM transmission system with 8 channels, each carrying a 10 GBit/s payload. Usual DWDM systems are featured by enormous efforts to minimize the spectral spacing between the various wavelength channels. These small spacings in combination with the high bit rates lead to very strict demands on the system components like laser diode, filters, multiplexers etc. Continuous channel monitoring and temperature regulations of sensitive components are inevitable, but often cannot prevent drop downs of the bit error ratio due to aging effects or outer influences like mechanical stress. The obtained results show that - very different to the pure WDM system - by orthogonally coding adjacent wavelength channels with the proposed MOOC, the overall system performance gets widely independent from system parameters like input powers, channel spacings and link lengths. Nonlinear effects like XPM that insert interchannel crosstalk are effectively fought. Furthermore, one can entirely dispense with the bandpass filters, thus simplifying the receiver structure, which is especially interesting for broadcast networks. A DWDM system upgraded with the OCDMA subsystem shows a very robust behavior against a variety of influences.
Das europäische Mobilfunksystem der dritten Generation heißt UMTS. UTRA - der terrestrische Funkzugang von UMTS - stellt zwei harmonisierte Luftschnittstellen zur Verfügung: Das TDD-basierte TD-CDMA und das FDD-basierte WCDMA. Das Duplexverfahren TDD bietet gegenüber FDD erhebliche Vorteile, z.B. können TDD-basierte Luftschnittstellen unterschiedliche Datenraten in der Aufwärts- und Abwärtsstrecke i.a. effizienter bereitstellen als FDD-basierte Luftschnittstellen. TD-CDMA ist Gegenstand dieser Arbeit. Die wichtigsten Details dieser Luftschnittstelle werden vorgestellt. Laufzeit und Interferenz sind wesentliche Gesichtspunkte beim Verwenden von TDD. Diese wesentlichen Gesichtspunkte werden eingehend für den Fall des betrachteten TD-CDMA untersucht. In UMTS spielen neben der Sprachübertragung insbesondere hochratige Datendienste und Multimediadienste eine wichtige Rolle. Die unterschiedlichen Qualitätsanforderungen dieser Dienste sind eine große Herausforderung für UMTS, insbesondere auf der physikalischen Ebene. Um den Qualitätsanforderungen verschiedener Dienste gerecht zu werden, definiert UTRA die L1/L2-Schnittstelle durch unterschiedliche Transportkanäle. Jeder Transportkanal garantiert durch die vorgegebene Datenrate, Verzögerung und maximal zulässige Bitfehlerrate eine bestimmte Qualität der Übertragung. Hieraus ergibt sich das Problem der Realisierung dieser Transportkanäle auf physikalischer Ebene. Dieses Problem wird in der vorliegenden Arbeit eingehend für TD-CDMA untersucht. Der UTRA-Standard bezeichnet die Realisierung eines Transportkanals als Transportformat. Wichtige Parameter des Transportformats sind das verwendete Pooling-Konzept, das eingesetzte FEC-Verfahren und die zugehörige Coderate. Um die Leistungsfähigkeit unterschiedlicher Transportformate quantitativ zu vergleichen, wird ein geeignetes Bewertungsmaß angegeben. Die zur Bewertung erforderlichen Meßwerte können nur durch Simulation auf Verbindungsebene ermittelt werden. Deshalb wird ein Programm für die Simulation von Transportformaten in TD-CDMA entwickelt. Bei der Entwicklung dieses Programms wird auf Konzepte, Techniken, Methoden und Prinzipien der Informatik für die Software-Entwicklung zurückgegriffen, um die Wiederverwendbarkeit und Änderbarkeit des Programms zu unterstützen. Außerdem werden wichtige Verfahren zur Reduzierung der Bitfehlerrate - die schnelle Leistungsregelung und die Antennendiversität - implementiert. Die Leistungsfähigkeit einer exemplarischen Auswahl von Transportformaten wird durch Simulation ermittelt und unter Verwendung des Bewertungsmaßes verglichen. Als FEC-Verfahren werden Turbo-Codes und die Code-Verkettung aus innerem Faltungscode und äußerem RS-Code eingesetzt. Es wird gezeigt, daß die untersuchten Verfahren zur Reduzierung der Bitfehlerrate wesentlichen Einfluß auf die Leistungsfähigkeit der Transportformate haben. Des weiteren wird gezeigt, daß die Transportformate mit Turbo-Codes bessere Ergebnisse erzielen als die Transportformate mit Code-Verkettung.
Given a railway network together with information on the population and their use of the railway infrastructure, we are considering the e ffects of introducing new train stops in the existing railway network. One e ffect concerns the accessibility of the railway infrastructure to the population, measured in how far people live from their nearest train stop. The second effect we study is the change in travel time for the railway customers that is induced by new train stops. Based on these two models, we introduce two combinatorial optimization problems and give NP-hardness results for them. We suggest an algorithmic approach for the model based on travel time and give first experimental results.
Urban Design Guidelines have been used in Jakarta for controlling the form of the built environment. This planning instrument has been implemented in several central city redevelopment projects particularly in superblock areas. The instrument has gained popularity and implemented in new development and conservation areas as well. Despite its popularity, there is no formal literature on the Indonesian Urban Design Guideline that systematically explain its contents, structure and the formulation process. This dissertation attempts to explain the substantive of urban design guideline and the way to control its implementation. Various streams of urban design theories are presented and evaluated in term of their suitability for attaining a high urbanistic quality in major Indonesian cities. The explanation on the form and the practical application of this planning instrument is elaborated in a comparative investigation of similar instrument in other countries; namely the USA, Britain and Germany. A case study of a superblock development in Jakarta demonstrates the application of the urban design theories and guideline. Currently, the role of computer in the process of formulating the urban design guideline in Indonesia is merely as a replacement of the manual method, particularly in areas of worksheet calculation and design presentation. Further support of computer for urban planning and design tasks has been researched in developed countries, which shows its potential in supporting decision-making process, enabling public participation, team collaboration, documentation and publication of urban design decisions and so on. It is hoped that the computer usage in Indonesian urban design process can catch up with the global trend of multimedia, networking (Internet/Intranet) and interactive functions that is presented with examples from developed countries.
Nach einer Einführung in die zur Erfassung inkorporaler Meßgrößen und zur Meßdatenübertragung verwendeten Verfahren wird in dieser Arbeit ein Konzept vorgestellt, das die Entwicklung implantierbarer Meßsysteme in den ersten Entwurfsphasen unterstützt. Im Anschluß wird die mit dem Konzept durchgeführte Entwicklung eines multisensorischen Meß- und Überwachungssystems beschrieben. Zur Ableitung des Entwurfskonzepts werden die an implantierbare Meßsysteme gestellten Anforderungen analysiert. Dabei findet eine Unterteilung in klassenspezifische und applikationsspezifische Anforderungen statt. Aus den klassenspezifischen Anforderungen dieser Aufstellung wird ein für die hier untersuchten Meßsysteme allgemein gültiges, in Funktionsblöcke und Funktionsgruppen untergliedertes, Strukturmodell erstellt. Zum Entwurf der untereinander in Verbindung stehenden Komponenten dieses Strukturmodells wird eine Reihenfolge vorgegeben, die vorhandene Abhängigkeiten zwischen den Funktionseinheiten berücksichtigt. Anschließend werden in der Entwurfsreihenfolge und unter Berücksichtigung der applikationsspezifischen Anforderungen die einzelnen Funktionsblöcke im Detail spezifiziert und für jeden der Funktionsblöcke eine Anforderungsliste erstellt. Unter Verwendung der Anforderungslisten werden die Funktionsgruppen bestimmt. Eine dieser Funktionsgruppen ist die drahtlose Energieversorgung. Zu deren Entwurf wird ein Verfahren vorgestellt, mit dem induktive Übertragungsstrecken berechnet werden können. Mit der Verwendung des beschriebenen Konzepts wird der Entwickler eines implantierbaren Meßsystems insbesondere in der Systemspezifikation und der Systempartitionierung unterstützt. Der aufgestellte Anforderungskatalog erleichtert ihm die Spezifikation des Meßsystems. Zu jedem der Funktionsblöcke des allgemein geltenden Strukturmodells erhält der Entwickler eine applikationsabhängige Detailspezifikation, die ihm die Bestimmung der zum Aufbau der Funktionsblöcke erforderlichen Funktionsgruppen ermöglicht. So entsteht eine detaillierte Aufbaustruktur des zu entwerfenden Meßsystems, in der alle an das System gestellten Anforderungen berücksichtigt sind. Damit steht eine fundierte Ausgangsbasis zur Entwicklung der Funktionsgruppen zur Verfügung. Das Verfahren zum Entwurf induktiver Energieübertragungsstrecken unterstützt die Entwicklung drahtlos gespeister Meßsysteme. Der Entwurf der restlichen Funktionsgruppen wird mit bereits etablierten Methoden und Werkzeugen durchgeführt. Die Verifikation des gesamten Meßsystems erfolgt mit einem aus den Funktionsgruppen aufgebauten Prototypen. Unter Verwendung des Entwurfskonzepts wurde ein implantierbares Meßsystem für eine neue Osteosyntheseplatte entwickelt, die zur Versorgung von Knochenfrakturen verwendet wird. Die Platte verfügt über besondere mechanische Eigenschaften, die eine verbesserte Frakturheilung versprechen. Zur Beobachtung der Knochenheilung werden bislang Röntgenaufnahmen eingesetzt. Das in die neue Osteosyntheseplatte integrierte Meßsystem hingegen ermöglicht die Erfassung mehrerer Meßwerte direkt am Knochen. Damit ergibt sich eine erheblich verbesserte Diagnostik ohne Strahlenbelastung des Patienten. Neben der Erforschung des Verbundes Knochen-Implantat erlauben die verbesserten Diagnosemöglichkeiten die Einleitung gezielterer Rehabilitations-Maßnahmen. In Verbindung mit der verbesserten Frakturheilung sollen so optimale Behandlungsergebnisse erzielt und die Behandlungszeiten verkürzt werden.
We present a system concept allowing humans to work safely in the same environment as a robot manipulator. Several cameras survey the common workspace. A look-up-table-based fusion algorithm is used to back-project directly from the image spaces of the cameras to the manipulator?s con-figuration space. In the look-up-tables both, the camera calibration and the robot geometry are implicitly encoded. For experiments, a conven-tional 6 axis industrial manipulator is used. The work space is surveyed by four grayscale cameras. Due to the limits of present robot controllers, the computationally expensive parts of the system are executed on a server PC that communicates with the robot controller via Ethernet.
Point-to-Point Trajectory Planning of Flexible Redundant Robot Manipulators Using Genetic Algorithms
(2001)
The paper focuses on the problem of point-to-point trajectory planning for flexible redundant robot manipulators (FRM) in joint space. Compared with irredundant flexible manipulators, a FRM possesses additional possibilities during point-to-point trajectory planning due to its kinematics redundancy. A trajectory planning method to minimize vibration and/or executing time of a point-to-point motion is presented for FRM based on Genetic Algorithms (GAs). Kinematics redundancy is integrated into the presented method as planning variables. Quadrinomial and quintic polynomial are used to describe the segments that connect the initial, intermediate, and final points in joint space. The trajectory planning of FRM is formulated as a problem of optimization with constraints. A planar FRM with three flexible links is used in simulation. Case studies show that the method is applicable.
Matrices with the consecutive ones property and interval graphs are important notations in the field of applied mathematics. We give a theoretical picture of them in first part. We present the earliest work in interval graphs and matrices with the consecutive ones property pointing out the close relation between them. We pay attention to Tucker's structure theorem on matrices with the consecutive ones property as an essential step that requires a deep considerations. Later on we concentrate on some recent work characterizing the matrices with the consecutive ones property and matrices related to them in the terms of interval digraphs as the latest and most interesting outlook on our topic. Within this framework we introduce a classiffcation of matrices with consecutive ones property and matrices related to them. We describe the applications of matrices with the consecutive ones property and interval graphs in different fields. We make sure to give a general view of application and their close relation to our studying phenomena. Sometimes we mention algorithms that work in certain fields. In the third part we give a polyhedral approach to matrices with the consecutive ones property. We present the weighted consecutive ones problem and its relation to Tucker's matrices. The constraints of the weighted consecutive ones problem are improved by introducing stronger inequalities, based on the latest theorems on polyhedral aspect of consecutive ones property. Finally we implement a separation algorithm of Oswald and Reinhelt on matrices with the consecutive ones property. We would like to mention that we give a complete proof to the theorems when we consider important within our framework. We prove theorems partially when it is worthwhile to have a closer look, and we omit the proof when there are is only an intersection with our studying phenomena.
Der Einsatz von Freisprecheinrichtungen bei der Sprachkommunikation in Fahrzeugen erfor- dert die Reduktion der mit dem Sprachsignal erfaßten Umgebungsgeräusche. Die akustischen Störungen beeinträchtigen in der Regel die Verständlichkeit des zu übertragenden Sprachsi- gnals. In der Literatur wurden zahlreiche Verfahren und Ansätze zur Geräuschreduktion vor- geschlagen und beschrieben. Prinzipiell können diese Ansätze in drei Kategorien unterteilt werden: Einkanalige Geräuschreduktionssysteme, wie zum Beispiel das Verfahren der Spek- tralen Subtraktion, mehrkanalige Geräuschkompensationsverfahren, die mindestens ein Stör- geräusch-Referenzsignal benötigen, und adaptive Mikrophonarrays, die zur Erfassung des Sprachsignals ein richtungsselektives Reduktionsverfahren (beam forming) einsetzen. Diese Arbeit fokussiert ausschließlich auf das Problem der einkanaligen Geräuschreduktions- systeme, wie sie häufig in Kraftfahrzeugen oder Telefonen aus Kosten- und konstruktiven Gründen zu finden sind. Mehrkanalige Verfahren werden nur der Vollständigkeit halber am Rande behandelt. Einkanalige Verfahren sind durch den Kompromiß zwischen der Dämpfung der störenden Geräusche und den unvermeidbaren Verzerrungen des Sprachsignals und der verbleibenden Reststörungen gekennzeichnet. Diese Verzerrungen sind als sporadisch auftretende tonartige Reststörungen (musical tones) bzw. als Verfärbungen des Sprachsignals wahrnehmbar. Solche Fehler im Ausgangssignal werden wegen ihrer tonalen Struktur als äußerst störend empfunden und verschlechtern den subjektiven Höreindruck. In letzter Zeit sind deshalb Verfahren mit dem Ziel entwickelt worden, möglichst alle auftre- tenden Verzerrungen zu unterdrücken. So wurden zum Beispiel nichtlineare Methoden, bekannt aus der Bildverarbeitung, oder spezielle Detektionsalgorithmen entworfen, um das Problem geschlossen zu lösen. Besonders neu sind Verfahren, die psychoakustische Eigenschaften des menschlichen Gehörs nutzen, um wenigstens einen Teil der auftretenden Verzerrungen zu verdecken. So kommen hier Methoden zum Einsatz, die durch Formulierung einer psychoakustischen Gewichtungsregel versuchen, einen optimalen Kompromiß zwischen Höhe der Geräuschdämpfung, der Reststörungen und der resultierenden Sprachverständlichkeit zu finden. In der vorliegenden Arbeit diente ein klassisches einkanaliges Geräuschreduktionsverfahren als Ausgangsbasis für die Entwicklung eines neuen psychoakustisch-parametrischen Verfah- rens. Dabei wurde von Modellen der Spracherzeugung und Wahrnehmung der menschlichen Sprache ausgegangen, um geeignete Methoden für die psychoakustische Geräuschreduktion und Signalverbesserung zu finden. Das Ergebnis sind drei neue Verfahren, die sich je nach Eingangssignal adaptiv auf die Charakteristik des Gehörs einstellen und dabei Verzerrungen des Sprachsignals und der Reststörung unterhalb der psychoakustischen Wahrnehmbarkeits- schwelle, der sogenannten Mithörschwelle, halten. Das führt zu einer spürbaren Verbesserung des subjektiven Höreindrucks und hat positiven Einfluß auf die Sprachverständlichkeit. In wesentlichen Bestandteilen dieser Arbeit werden Aspekte der psychologischen Wahrnehmung akustischer Signale und bekannte psychoakustische Eigenschaften des menschlichen Gehörs für die auditive Signalverbesserung, Geräuschreduktion und die Identifikation akustischer Systeme ausgenutzt. Dementsprechend wird im ersten Teil eine kurze Einführung in die Theorie der Signalverarbeitung und Psychoakustik gegeben. Daran anschließend folgt die Vorstellung eines Verfahrens zur auditiven Signalverbesserung und Geräuschreduktion unter Ausnutzung psychoakustischer Verdeckungseffekte. Dieser Abschnitt ist besonders ausführlich gestaltet, da er den Hauptbestandteil dieser Arbeit bildet. Der dritte Teil erläutert experimentelle Untersuchungen und die Bewertung der verschiedenen Verfahren. Abschließend folgen Zusammenfassung und ein wissenschaftlicher Ausblick.
Die typische Aufgabe eines Nahbereichsradarnetzes ist es, Fahrzeuge in einem definierten Überwachungsbereich, beispielsweise dem Rollfeld eines Flughafens, zu detektieren, zu orten und ihre Spur zu verfolgen. Wegen der stark unterschiedlichen Radarrückstreuquerschnitte der Radarziele sind die Anforderungen an den verfügbaren Dynamikbereich der einzelnen eingesetzten Radarempfänger sehr hoch. Bei niedriger Radarsignalleistung ist daher die Verwendung eines Impulskompressionsverfahrens notwendig. Beim Nahbereichsnetz NRN, im Rahmen dessen Entwicklung auch die vorliegende Arbeit entstand, wird zudem ein neuartiges Ortungsprinzip eingesetzt, weshalb die Radarstationen mit feststehenden, d. h. nicht-rotierenden Antennen mit breiter Antennencharakteristik ausgestattet werden können. Radarsignale setzen sich aus den Echosignalen von den Radarsendeimpuls reflektierenden Objekten, sowie dem Rauschen zusammen. Bei den reflektierenden Objekten handelt es nicht nur um die interessierenden Radarziele, d. h. die zu detektierenden Fahrzeuge. Wegen der Bodennähe, in der ein Nahbereichsradarnetz betrieben wird, sowie der zumindest beim NRN breiten Antennencharakteristiken erfaßt der Radastrahl eine Vielzahl weiterer Radarreflektoren, deren Echosignal, Cluttersignal genannt, das eigentliche Nutzsignalüberlagert. Darüberhinaus verursacht der Einsatz eines Impulskompressionsverfahrens i. a. eine künstliche störende Signalkomponente, die sogenannten Impulskompressionsnebenmaxima, die auch Eigenclutter genannt werden. Durch den Einsatz eines erwartungstreuen Impulskompressionsverfahrens beim NRN wird theoretisch keine Eigenclutterkomponente erzeugt. Es existieren jedoch Effekte, die die Eigenclutterfreiheit zerstören. Diese werden im ersten Teil der Arbeit untersucht. Es wird gezeigt, wie die Eigenclutterfreiheit wiederhergestellt werden kann. Im zweiten Teil der Arbeit wird das Cluttersignal von reflektierenden Objekten anhand von mit dem NRN gemessenen Signalzeitreihen analysiert. Ein Modell zur Beschreibung des Cluttersignals wird entwickelt. Mit den Methoden der Detektionstheorie wird ein optimales Filter- und Detektionsverfahren für ein vollständig unbekanntes Nutzsignal in einem durch dieses Modell beschreibbaren Störsignal abgeleitet. Um dieses Verfahren einzusetzen, ist die Kenntnis der Modellparameter erforderlich. Prinzipiell existieren verschiedene Methoden, die sich im Laufe der Zeit verändernden Modellparameter zu schätzen. Das Filter- und Detektionsverfahren kann dann stetig an die aktuellen Schätzungen der Parameter des Cluttersignalmodells adaptiert werden. Die Schätzung liefert jedoch im Falle des Vorhandenseins von Nutzsignalkomponenten verfälschte Parameterwerte. In der vorliegenden Arbeit werden verschiedene Methoden zur Adaptionskontrolle vorgeschlagen, die den Einfluß dieser verfälschten Parameterschätzungen auf die Nutzsignaldetektion minimieren. Damit existiert ein Algorithmus, der adaptiv aus dem Echosignal cluttersignalbeschreibende Parameter bestimmt, die ihrerseits von einem Filter- und Detektionsalgorithmus verwendet werden, um ein eventuell im Echosignal vorhandenes Nutzsignal optimal zu detektieren. Anhand von Radarechosignalen, die mit dem NRN bei Meßkampagnen aufgezeichnet wurden, sowie anhand von Simulationen wurde schließlich die Leistungsfähigkeit des entwickelten adaptiven Filter- und Detektionsverfahrens mit Adaptionskontrolle beim Einsatz in einem Nahbereichsradarnetz gezeigt.
This paper deals with the handling of deformable linear objects (DLOs), such as hoses, wires or leaf springs. It investigates the a priori knowledge about the 6-dimensional force/torque signal for a changing contact situation between a DLO and a rigid polyhedral obstacle. The result is a complete list, containing for each contact change the most significant combination of force/torque signal components together with a description of the expected signal curve. This knowledge enables the reliable detection of changes in the DLO contact situation and with it the implementation of sensor-based manipulation skills for all possible contact changes.
This article presents contributions in the field of path planning for industrial robots with 6 degrees of freedom. This work presents the results of our research in the last 4 years at the Institute for Process Control and Robotics at the University of Karlsruhe. The path planning approach we present works in an implicit and discretized C-space. Collisions are detected in the Cartesian workspace by a hierarchical distance computation. The method is based on the A* search algorithm and needs no essential off-line computation. A new optimal discretization method leads to smaller search spaces, thus speeding up the planning. For a further acceleration, the search was parallelized. With a static load distribution good speedups can be achieved. By extending the algorithm to a bidirectional search, the planner is able to automatically select the easier search direction. The new dynamic switching of start and goal leads finally to the multi-goal path planning, which is able to compute a collision-free path between a set of goal poses (e.g., spot welding points) while minimizing the total path length.
The vibration induced in a deformable object upon automatic handling by robot manipulators can often be bothersome. This paper presents a force/torque sensor-based method for handling deformable linear objects (DLOs) in a manner suitable to eliminate acute vibration. An adjustment-motion that can be attached to the end of an arbitrary end-effector's trajectory is employed to eliminate vibration of deformable objects. Differently from model-based methods, the presented sensor-based method does not employ any information from previous motions. The adjustment-motion is generated automatically by analyzing data from a force/torque sensor mounted on the robot wrist. Template matching technique is used to find out the matching point between the vibrational signal of the DLO and a template. Experiments are conducted to test the new method under various conditions. Results demonstrate the effectiveness of the sensor-based adjustment-motion.
The task of handling non-rigid one-dimensional objects by a robot manipulation system is investigated. Especially, approaches to calculate motions with specific behavior in point contacts between the object and environment are regarded. For single point contacts, motions based on generalized rotations solving the direct and inverse manipulation problem are investigated. The latter problem is additionally tackled by simple rotation and translation motions. For double and multiple point contacts, motions based on Splines are suggested. In experimental results with steel springs, the predicted and measured effect for each approach are compared.
Manipulating Deformable Linear Objects: Attachable Adjustment-Motions for Vibration Reduction
(2001)
This paper addresses the problem of handling deformable linear objects (DLOs) in a suitable way to avoid acute vibration. Different types of adjustment-motions that eliminate vibration of deformable objects and can be attached to the end of an arbitrary end-effector trajectory are presented. For describing the dynamics of deformable linear objects, the finite element method is used to derive the dynamic differential equations. Genetic algorithm is used to find the optimal adjustment motion for each simulation example. Experiments are conducted to verify the presented manipulating method.
Manipulating Deformable Linear Objects: Model-Based Adjustment-Motion for Vibration Reduction
(2001)
This paper addresses the problem of handling deformable linear objects (DLOs) in a suitable way to avoid acute vibration. An adjustment-motion that eliminates vibration of DLOs and can be attached to the end of any arbitrary end-effector's trajectory is presented, based on the concept of open-loop control. The presented adjustment-motion is a kind of agile end-effector motion with limited scope. To describe the dynamics of deformable linear objects, the finite element method is used to derive the dynamic differential equations. Genetic algorithm is used to find the optimal adjustment-motion for each simulation example. In contrast to previous approaches, the presented method can be treated as one of the manipulation skills and can be applied to different cases without major changes to the method.
The paper focuses on the problem of trajectory planning of flexible redundant robot manipulators (FRM) in joint space. Compared to irredundant flexible manipulators, FRMs present additional possibilities in trajectory planning due to their kinematics redundancy. A trajectory planning method to minimize vibration of FRMs is presented based on Genetic Algorithms (GAs). Kinematics redundancy is integrated into the presented method as a planning variable. Quadrinomial and quintic polynomials are used to describe the segments which connect the initial, intermediate, and final points in joint space. The trajectory planning of FRMs is formulated as a problem of optimization with constraints. A planar FRM with three flexible links is used in simulation. A case study shows that the method is applicable.
Integral equations on the half of line are commonly approximated by the finite-section approximation, in which the infinite upper limit is replaced by apositie number called finite-section parameter. In this paper we consider the finite-section approximation for first kind intgral equations which are typically ill-posed and call for regularization. For some classes of such equations corresponding to inverse problems from optics and astronomy we indicate the finite-section parameters that allows to apply standard regularization techniques. Two discretization schemes for the finite-section equations ar also proposed and their efficiency is studied.
By means of the limit and jump relations of classical potential theory the framework of a wavelet approach on a regular surface is established. The properties of a multiresolution analysis are verified, and a tree algorithm for fast computation is developed based on numerical integration. As applications of the wavelet approach some numerical examples are presented, including the zoom-in property as well as the detection of high frequency perturbations. At the end we discuss a fast multiscale representation of the solution of (exterior) Dirichlet's or Neumann's boundary-value problem corresponding to regular surfaces.
Logic
(2001)
Endliche Gruppen
(2001)
Eine Einführung mit dem Ziel der Klassifikation von Gruppen kleiner Ordnung. Skript zum Proseminar im WS 2000/01. Inhalt: Satz von Lagrange, Normalteiler, Homomorphismen, symmetrische Gruppe, alternierende Gruppe, Operieren, Konjugieren, (semi-)direkte Produkte, Erzeuger und Relationen, zyklische Gruppen, abelsche Gruppen, Sylowsätze, Automorphismengruppen, Klassifikation, auflösbare Gruppen.
Die Cothermolyse von [CpR(CO)Mo(P2)2FeCpR] und Phosphaalkin sowie Tolan ergibt in befriedigenden Ausbeuten die heterobimetallischen, tripeldeckerartigen Zweikerncluster [(Cp"'Mo)(Cp*'Fe)(P3CtBu)(P2)], Cp"' = C5H2tBu3-1,2,4, Cp*' = C5Me4Et, und [(Cp*Mo)(Cp*Fe)(P2C2Ph2)(P2)] mit einem verbrückenden Tri-und Diphosphabutadiendiyl-Liganden. Ein überraschendes Ergebnis liefert die Syntheseoptimierung von [Cp"'Mo(CO)(P2)2FeCp*]. Hier wird u.a. [{Cp"' Mo(CO)(P3){Cp*Fe(CO){Cp*Fe(-P7Me)}] erhalten, das röntgenographisch untersucht werden konnte. Durch die Umsetzung von [Cp*'(CO)Mo(P2)2FeCp*] mit cyclo-(PhAs)6 kann eine ganze Serie von Arsaphospholen erhalten werden, die die allgemeine Zusammensetzung PnAsm (m = 5 - n; n = 4,3,2,1) haben. Eine Trennung des Gemisches ist jedoch nicht möglich. Dennoch gelingt eine röntgenographische Charakterisierung dieser Verbindungsklasse.
Im Rahmen dieser Arbeit sollte ein Beitrag zu der Frage geleistet werden, welche Bedeutung etheno-DNA-Addukte in der Karzinogenese und bei chronisch degenerativen Erkrankungen haben könnten. Zu diesem Zweck wurden etheno-DNA-Addukte mittels 2-Chloracetaldehyd (CAA), einem von zwei Metaboliten von Vinylchlorid und dem Krebstherapeutikum Ifosfamid, in einem humanen B-lymphoiden Zellsystem (Raji Zellen) induziert. Der subtoxische Konzentrationsbereich von CAA wurde mittels Wachstumskurven auf unter 100 microM eingegrenzt. Weiterhin wurde gezeigt, daß CAA in den in dieser Arbeit verwendeten Konzentrationen einen relativ großen Einfluß auf das Wachstumsverhalten von Raji Zellen hatte. Dieser Einfluß beruhte unter anderem auf der Hemmung der DNA-Replikation und damit indirekt auch auf die DNA-Reparatur, der CAA-abhängigen Kondensation der zellulären DNA aufgrund von DNA-DNA-Quervernetzungen und einem geringen Einfluß auf die Atmungskette in Mitochondrien aufgrund einer Hemmung des NADH-Dehydrogenase-Komplexes. Die weitere Arbeit verteilte sich daraufhin auf drei Teilprojekte : - Die Detektion und Quantifizierung von etheno-Desoxyadenosin-Addukten (edA) wurde unter Anwendung einer einfachen, nicht-radioaktiven Alternative zu der IPPA-Postlabeling-Methode auf HPLC-Basis mit Fluoreszenzdetektion durchgeführt, die im Rahmen dieser Arbeit etabliert wurde. Dabei konnte gezeigt werden, daß CAA bei Konzentrationen zwischen 30 und 100 microM eine Erhöhung von edA um den Faktor 3-4 in Raji Zell-DNA zur Folge hatte. Ferner konnte mit Hilfe dieser HPLC-Methode zum ersten Mal die Induktion von edA als Folge von Zigarettenrauch in diesem Zellsystem gezeigt werden, wobei es offen bleibt, ob diese DNA-Addukte direkt oder durch Induktion von Lipidperoxidation gebildet wurden. - Der Nachweis der genspezifischen Induktion von etheno-DNA-Addukten in einer "Hot-Spot"-Region der mitochondrialen DNA wurde auf Basis einer in unserer Abteilung von Yang und Hergenhahn entwickelten Methode zum genspezifischen Nachweis von DNA-Schäden durchgeführt. Dazu wurde diese Methode auf die in dieser Arbeit gestellten Anforderungen hin weiterentwickelt. Es konnte unter Zuhilfenahme dieser Methode eine signifikante Zunahme von edA in der mitochondrialen Zielregion, bei CAA-behandelten Proben gegenüber den Kontrollen, nachgewiesen werden. - Der Einfluß von CAA auf die Mutationsraten in mitochondrialer DNA aus Raji Zellen wurde mit Hilfe des RSM- und DPD-Tests untersucht. Der DPD-Test wurde im Laufe dieser Arbeit zu einem Festphasen-DPD-Test weiterentwickelt um den Hintergrund an nicht mutierten Sequenzen und die Gefahr von Kreuzkontaminationen zu minimieren. Im Rahmen dieser Experimente konnte eine Zunahme von Mutationen zwischen 10,5 und 14,5 % der CAA-behandelten Proben gegenüber den unbehandelten Kontrollen gezeigt werden. Die Art der Mutationen wurde durch Sequenzierung ermittelt und waren in allen CAA-behandelten Proben A G und T C Transitionen. Weiterhin wurde überprüft, ob CAA, als bifunktionelles Agens, neben Punktmutationen auch Deletionen auslösen könnte. Dabei wurde eine nahezu signifikante Zunahme an Deletionen in den CAA-behandelten Proben gegenüber den unbehandelten Kontrollen festgestellt. Die in dieser Arbeit angewendeten und weiterentwickelten Methoden könnten durchaus weitere praktische Anwendungen finden. So könnte die Bestimmung von edA mittels HPLC aus Blut von Krebspatienten, bei Behandlung mit dem Krebstherapeutikum Ifosfamid, ein nützliches Hilfsmittel für die Expositionskontrolle werden. Hierbei könnte edA als Marker für die interne Belastung des Patienten mit, dem Metabolit von Ifosfamid, CAA dienen. Die in dieser Arbeit entwickelte Festphasen-DPD-Methode ebnet den Weg, unselektierte durch edA-ausgelöste Mutationen in nukleären Genen wie z.B. p53 zu bestimmen, die aufgrund von erhöhter Lipidperoxidation unter pathologischen, präkarzinogenen Bedingungen wie Wilsons Syndrom oder Hämochromatose gebildet werden könnten. Da bisher keine mitochondrialen etheno-DNA-Addukt-spezifischen Reparaturenzyme beschrieben wurden, muß man davon ausgehen, daß etheno-DNA-Addukte auch einen Beitrag zu Mutationen im mitochondrialen Genom leisten und damit eine Rolle im Prozeß des Alterns bzw. in der Entwicklung von degenerativen Erkrankungen spielen könnten.
In der vorliegenden Arbeit werden die Synthesen neuer Imidovanadium(V)-Verbindungen vorgestellt. Die analytischen Daten werden diskutiert und die Komplexe charakterisiert. Ergänzt werden diese Untersuchungen durch Reaktivitätsstudien, die wiederum die Charakterisierung der Produkte erfordert. Die Umsetzung von Phosphaalkinen mit Imidovanadium-Komplexen stellt einen Schwerpunkt der Arbeit dar. Die erhaltenen organischen bzw. anorganischen Produkte werden isoliert und charakterisiert. Mögliche Reaktionsmechanismen werden diskutiert und anhand nachgewiesener Neben- bzw. Zwischenprodukte untermauert. Ein weiterer Schwerpunkt dieser Arbeit ist das Studium des Reaktionsverhaltens der Imidovanadium(IV)-Verbindung tBuNVCl2 DME. Das Disproportionierungsverhalten bei den Substitutionsreaktionen mit Nukleophilen der 14., 15., und 16. Gruppe wird untersucht; neue Komplexe werden isoliert und charakterisiert.
Ziel der vorliegenden Arbeit war die Etablierung eines Enzyme linked immuno sorbant Assay zur Untersuchung der Protein-Tyrosinkinase-Aktivität des Epidermalen Wachstumsfaktor-Rezeptor (EGFR). Um die Beeinflussung der Signaltransduktionskaskade downstream des EGFRs durch antineoplastische Substanzen weiter in intakten Zellen untersuchen zu können, wurde ein Mitogen-aktivierte-Proteinkinase (MAPK)-Reportergen-Assay entwickelt. Tyrphostin AG 1478, ein bekannter EGFR-Inhibitor, erwies sich im neu etablierten Test-system als potenter Hemmstoff der Protein-Tyrosinkinase (PTK) des EGFRs mit einem IC50-Wert von 2,4 microM. Das Wachstum von A 431-Zellen wird durch Tyrphostin AG 1478 signifikant stärker inhibiert, als das Wachstum von LXFL529L-Zellen. Die Behandlung von A 431- Zellen mit Tyrphostin AG 1478 induziert eine Arretierung der Zellen in G0/G1-Phase des Zellzyklus, bei gleichzeitiger Abnahme der Zellzahl in der Synthesephase. Neuartige Bisindolylmaleimide und Indolocarbazole zeigten in tumorzellwachstumshemmenden Konzentrationen keine bzw. nur eine geringe Hemmung der PTK-Aktivität des EGFRs. Aus der Gruppe der substituierten Pteridine hemmte die Leitsubstanz 7a (DC-TA-46) die PTK-Aktivität des EGFRs mit einem IC50-Wert von 48 +- 3,5 microM. Modifikationen in Position 2 spielen eine wesentliche Rolle bei der Hemmung der EGFR assoziierten PTK. Modifikationen der Leitsubstanz in Position 6, wie z.B. Austausch des Chlors gegen Wasserstoff oder eine Methylgruppe, führten zum Verlust der Hemmwirkung auf die PTK-Aktivität. Die untersuchten Substanzen 7a, 7k, 7o, E272, E273 und E276 hemmten das Wachstum der A 431- Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Im MAPK-Reportergen- Assay zeigten 7a und das Glycin-Derivat E272 als einzige dieser Substanzen in Konzentrationen, in denen Wachstumshemmung und PTK-Hemmung vorliegt, eine fast vollständige Inhibierung der Elk1-Phosphorylierung. Hingegen zeigte das Lysin-Derivat E273, das die höchste Hemmwirkung der Pteridinderivate im PTK-Assay aufwies, in wachstumshemmenden Konzentrationen im MAPK-Reportergen-Assay keine Hemmung der Luciferase-Aktivität. Ferner wurden unterschiedliche Klassen von Flavonoiden untersucht. Aus den Gruppen der untersuchten Chalcone und Isoflavone erwies sich keine Substanz als potenter PTK-Hemmstoff. Die untersuchten Flavone aus Scutellaria baicalensis hemmten das Wachstum von A 431- Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Aus dieser Gruppe hemmte Baicalein als einzige die PTK-Aktivität des EGFRs in wachstumshemmenden Konzentrationen mit einem IC50-Wert von 1,1 microM. Neben Baicalein zeigte Wogonin eine Hemmung der Elk1-Phosphorylierung, wobei nur Baicalein in wachstumshemmenden Konzentrationen die Luciferase-Aktivität inhibierte. Des weiteren erwiesen sich die Anthocyanidine Delphinidin und Cyanidin in wachstumshemmenden Konzentrationen als Hemmstoffe der EGFR assoziierten Tyrosinkinase und Elk1-Phosphorylierung. Beide Substanzen hemmten das Wachstum von A 431-Zellen in niedrigeren Konzentrationen, als das Wachstum von LXFL529L-Zellen. Abschließend ist festzuhalten, daß neue molekulare Untersuchungsmethoden erfolgreich etabliert wurden, die Einblick in Mechanismen ermöglichen, die für eine tumorzellwachstumsinhibierende Wirkung relevant sind. Hierbei stand im Vordergrund die Aufklärung von Interaktionen in zellulären Signalketten, die wesentliche Bedeutung für die Zellproliferation besitzen. Mittelpunkt der vorliegenden Arbeit war vor allem der Wachstumsfaktor getriggerte Signalweg Rezeptor-Tyrosinkinase/Ras/Raf/MAPK. Die so etablierten Testmethoden können dazu beitragen, neue Wirkprinzipien zur Tumorwachstumshemmung aufzufinden bzw. zu charakterisieren.
Untersucht wurden eine Reihe von alpha,beta-ungesättigten Carbonylverbindungen, die im Hinblick auf ihr Vorkommen in Lebensmitteln, ihrer zum Teil noch nicht hinreichend bekannten toxikologischen Wirkungen und Hinsichtlich möglicher Struktur-Wirkungsbeziehungen ausgewählt wurden: (E)-2-Hexenal (HEX), (E)-2-Octenal (OCTE), (E)-2-Nonenal (NONE), (2E,4E)-2,4-Hexadienal (HEXDI), (2E,6Z)-2,6-Nonadienal (NONDI), (E)-2-Zimtaldehyd (CA) und 2-Cyclohexen-1-on (CHX). Mit Hilfe der gewonnen Daten sollte eine Abschätzung des toxischen (gentoxischen) Potentials der Verbindungen ermöglicht werden. Neben Cytotoxizität und Wachstumshemmung wurde vor allem auf Induktion von DNA-Schäden mittels Comet-Assay geprüft, für einige Substanzen auch auf Induktion von Mutationen mittels HPRT-Test. Weiterhin wurden Veränderungen des zellulären Glutathionspiegels und oxidative DNA-Modifikationen mittels modifiziertem Comet-Assay erfaßt. In orientierenden Versuchen wurde auf Induktion von Apoptose mittels Durchflußcytometrie geprüft. Die Untersuchungen wurden an V79 Zellen, einer Lungenfibroblastenzellinie des Chinesischen Hamsters, Caco-2 Zellen, einer humane Adenocarcinomzellinie, und an primären humanen Colonzellen durchgeführt. Ergänzend wurde auf Gentoxizität an Bakterien im UMU-Test geprüft. Die Ergebnisse zeigen, daß alle untersuchten alpha,beta-ungesättigten Carbonylverbindungen außer NONE in nicht cytotoxischen Konzentrationen konzentrationsabhängig DNA-Schäden in den verschiedenen Säugerzellen induzieren. Eine DNA-schädigende Wirkung von NONE konnte aufgrund der starken cytotoxischen Wirkung der Verbindung nicht beobachtet werden. Induktion von Apoptose, die für HEX in V79 Zellen untersucht wurde, konnte nicht nachgewiesen werden. Somit kann für die beobachteten DNA-Schäden eine gentoxische Wirkung angenommen werden. Mutagenität war für HEX, nur in der Nähe des cytotoxischen Grenzbereichs nachweisbar. Im Vergleich zur DNA-Schädigung in geringeren Konzentrationen depletierten alle untersuchten Verbindungen den Glutathionspiegel. Erstmals konnte unter diesen Bedingungen eine erhöhte Empfindlichkeit der Zellen gegenüber induziertem oxidativem Streß (H2O2) nachgewiesen werden. Weiterhin wurde erstmals für HEX eine erhöhte oxidative DNA-Schädigung im Verlauf einer mehrstündigen Postinkubation (ohne Zugabe eines Oxidans) gezeigt. Die Bedeutung dieser oxidativen DNA-Schäden für die gentoxische Wirkung der 2-Alkenale/CHX ist derzeit noch nicht abschätzbar. Für den UMU-Test wurde belegt, daß er zum Nachweis gentoxischer Wirkungen von 2-Alkenalen ungeeignet ist, aufgrund einer durch die Substanz bedingte Beeinflussung der beta-Galactosidase-Aktivität. Am wirksamsten waren NONDI und NONE in den verwendeten Testsystemen. Das geringe Vorkommen dieser Verbindungen in der Umwelt/Nahrung und ihre starke Cytotoxizität relativieren jedoch das gentoxische Gefährdungspotential. HEX war in der Regel entweder gleich stark (GSH-Depletion; Induktion oxidativer Schäden) oder leicht schwächer (Induktion von DNA-Schäden) wirksam als NONDI/NONE. Die Verbindungen (OCTE, HEXDI und CHX) sind schwächer wirksam und/oder kommen in deutlich geringeren Mengen vor, so daß für sie von einem zu vernachlässigenden Gefährdungspotential ausgegangen werden kann. CA besitzt ebenfalls eine geringere gentoxische Wirkung als HEX, da aber keine Daten zur täglichen Aufnahme vorliegen, ist eine Riskoabschätzung nicht möglich. Aufgrund der deutlich geringeren cytotoxischen Wirkung von HEX im Vergleich zu NONE/NONDI (Faktor 14) und des relativ hohen Vorkommens (geschätzte mittlere tägliche Aufnahme pro Person: ca. 6 mg) ist das mögliche Gefährdungspotential durch HEX höher einzuschätzen.
In der empirischen, fragebogengestützten Analyse wurde die Nutzung von zweck- und prozeßbezogenen Unterstützungspotentialen des Internet von umweltberichterstattenden Unternehmen in Deutschland untersucht. Die Analyse ist in drei Kapitel gegliedert: Zur thematischen Einführung wird die Umweltberichterstattung von Unternehmen im Internet skizziert (Kapitel 2). Als Systematik von internetbasierten Unterstützungspotentialen zur Umweltberichterstattung wird eine vierteilige Gliederung zugrunde gelegt. Sie enthält inhalts-, darstellungs-, zweck- und prozeßbezogene Unterstützungspotentiale. An die Systematik schließt sich eine Darstellung der Forschungssituation zur Umweltberichterstattung, insbesondere zu der im In-ternet, an (Kapitel 3). Damit ist die Basis für die eigens in 2000 durchgeführte empirische Analyse gelegt (Kapitel 4). Die Untersuchungsergebnisse umfassen - neben der Darlegung der Untersuchungsmethodik (Abschnitt 4.1) - die empirischen Befunde zu folgenden spezifischen Fragenbereichen: Allgemeines zu Internet-Umweltberichten (Abschnitt 4.2), Information der Öffentlichkeit (Abschnitt 4.3), Kommunikation mit Zielgruppen (Abschnitt 4.4), Integration von Internet-Umweltberichten in die Unternehmenskommunikation (Abschnitt 4.5), Transparenz durch Internet-Umweltberichte (Abschnitt 4.6) sowie Erstellung von Internet-Umweltberichten (Abschnitt 4.7).
Die Untersuchung der Induktion der Ethoxyresorufin-O-deethylase (EROD) Aktivität durch die "dioxinartigen" PCBs 77, 81, 105, 114, 118, 123, 126, 156, 157, 167, 169 und 189 in der Hepatoblastom-Zellinie HepG2 und, zur Vervollständigung bereits veröffentlichter Daten, in primären Rattenhepatozyten und in der Rattenhepatom-Zellinie H4IIE wurde im ersten Teil der Arbeit durchgeführt. Die Ergebnisse zeigten, daß die ausgewählten PCBs in HepG2 weniger potent sind als in H4IIE-Zellen bzw. primären Rattenhepatozyten. In HepG2-Zellen konnte lediglich für die PCBs 77, 81, 114 und 126 eine Induktion der EROD-Aktivität detektiert werden. Für PCB 169, eines der potentesten Kongenere in H4IIE-Zellen und primären Rattenhepatozyten, wurde keine EROD-Induktion in HepG2-Zellen gemessen. Diese und weitere Speziesunterschiede verdeutlichen, daß eine Extrapolation der Daten aus Experimenten mit Nager-Zellen zur Risikoabschätzung auf den Menschen nur bedingt möglich ist. PCB 81 zeigte in den vorliegenden Messungen einen REP-Wert von 0,02 und 0,05 in HepG2-Zellen bzw. primären Rattenhepatozyten. Die Beeinflussung der basalen und induzierten Apoptose durch die PCBs 81, 126 und 169 wurde im zweiten Teil der Arbeit untersucht. Es zeigte sich, daß die PCBs 81 und 126 in primären Rattenhepatozyten die basale Apoptose induzieren können. Für das PCB 169 wurde dagegen keine Veränderung der Apoptoseinzidenz im Rahmen der verwendeten Konzentrationen festgestellt. Wurde die Apoptose durch UV-Strahlung induziert, so hemmten die PCBs konzentrationsabhängig die Apoptoserate auf durchschnittlich 62% gegenüber der Kontrolle. Bei höheren Konzentrationen wurde die Inhibierung durch einen induzierenden Effekt aufgehoben.
Abstract: The behavior of the divergent part of the bulk AdS/CFT effective action is considered with respect to the special finite diffeomorphism transformations acting on the boundary as a Weyl transformation of the boundary metric. The resulting 1-cocycle of the Weyl group is in full agreement with the 1-cocycle of the Weyl group obtained from the cohomological consideration of the effective action of the corresponding CFT.
Abstract: Operator product expansions are applied to dilaton-axion four-point functions. In the expansions of the bilocal fields "doubble Phi", CC and "Phi"C, the conformal fields which are symmetric traceless tensors of rank l and have dimensions "delta" = 2+l or 8+l+ "eta"(l) and "eta"(l) = O(N ^ -2) are identified. The unidentified field have dimension "delta" = "lambda"+l+eta(l) with "lambda" >= 10. The anomalous dimensions eta(l) are calculated at order O(N ^ -2) for both 2 ^ -1/2(-"doubble Phi" + CC) and 2 ^ -1/2(-"Phi"C + C"Phi") and are found to be the same, proving U(1)_Y symmetry. The relevant coupling constants are given at order O(1).
Abstract: In the context of AdS/CFT correspondence the two Wilson loop correlator is examined at both zero and finite temperatures. On the basis of an entirely analytical approach we have found for Nambu-Goto strings the functional relation dSc(Reg) /dL = 2*pi*k between Euclidean action Sc and loop separation L with integration constant k, which corresponds to the analogous formula for point-particles. The physical implications of this relation are explored in particular for the Gross-Ooguri phase transition at finite temperature.
Abstract: The basic concepts of selective multiscale reconstruction of functions on the sphere from error-affected data is outlined for scalar functions. The selective reconstruction mechanism is based on the premise that multiscale approximation can be well-represented in terms of only a relatively small number of expansion coefficients at various resolution levels. A new pyramid scheme is presented to efficiently remove the noise at different scales using a priori statistical information.
Abstract: Evacuation problems can be modeled as flow problems in dynamic networks. A dynamic network is defined by a directed graph G = (N,A) with sources, sinks and non-negative integral travel times and capacities for every arc (i,j) e A. The earliest arrival flow problem is to send a maximum amount of dynamic flow reaching the sink not only for the given time horizon T, but also for any time T' < T . This problem mimics the evacuation problem of public buildings where occupancies may not known. For the buildings where the number of occupancies is known and concentrated only in one source, the quickest flow model is used to find the minimum egress time. We propose in this paper a solution procedure for evacuation problems with a single source of the building where the occupancy number is either known or unknown. The possibility that the flow capacity may change due to the increasing of smoke density or fire obstructions can be mirrored in our model. The solution procedure looks iteratively for the shortest conditional augmenting path (SCAP) from source to sink and compute the time intervals in which flow reaches the sink via this path.
A harmonic oscillator subject to a parametric pulse is examined. The aim of the paper is to present a new theory for analysing transitions due to parametric pulses. The new theoretical notions which are introduced relate the pulse parameters in a direct way with the transition matrix elements. The harmonic oscillator transitions are expressed in terms of asymptotic properties of a companion oscillator, the Milne (amplitude) oscillator. A traditional phase-amplitude decomposition of the harmonic-oscillator solutions results in the so-called Milne's equation for the amplitude, and the phase is determined by an exact relation to the amplitude. This approach is extended in the present analysis with new relevant concepts and parameters for pulse dynamics of classical and quantal systems. The amplitude oscillator has a particularly nice numerical behavior. In the case of strong pulses it does not possess any of the fast oscillations induced by the pulse on the original harmonic oscillator. Furthermore, the new dynamical parameters introduced in this approach relate closely to relevant characteristics of the pulse. The relevance to quantum mechanical problems such as reflection and transmission from a localized well and mechanical problems of controlling vibrations is illustrated.
Wannier-Stark states for semiconductor superlattices in strong static fields, where the interband Landau-Zener tunneling cannot be neglected, are rigorously calculated. The lifetime of these metastable states was found to show multiscale oscillations as a function of the static field, which is explained by an interaction with above-barrier resonances. An equation, expressing the absorption spectrum of semiconductor superlattices in terms of the resonance Wannier-Stark states is obtained and used to calculate the absorption spectrum in the region of high static fields.
The anchored hyperplane location problem is to locate a hyperplane passing through some given points P IR^n and minimizing either the sum of weighted distances (median problem), or the maximum weighted distance (center problem) to some other points Q IR^n . If the distances are measured by a norm, it will be shown that in the median case there exists an optimal hyperplane that passes through at least n - k affinely independent points of Q, if k is the maximum number of affinely independent points of P. In the center case, there exists an optimal hyperplane which isatmaximum distance to at least n - k + 1 affinely independent points of Q. Furthermore, if the norm is a smooth norm, all optimal hyperplanes satisfy these criteria. These new results generalize known results about unrestricted hyperplane location problems.
The purpose of satellite-to-satellite tracking (SST) and/or satellite gravity gradiometry (SGG) is to determine the gravitational field on and outside the Earth's surface from given gradients of the gravitational potential and/or the gravitational field at satellite altitude. In this paper both satellite techniques are analysed and characterized from mathematical point of view. Uniqueness results are formulated. The justification is given for approximating the external gravitational field by finite linear combination of certain gradient fields (for example, gradient fields of single-poles or multi-poles) consistent to a given set of SGG and/or SST data. A strategy of modelling the gravitational field from satellite data within a multiscale concept is described; illustrations based on the EGM96 model are given.
Abstract: We describe quantum-field-theoretical (QFT) techniques for mapping quantum problems onto c-number stochastic problems. This approach yields results which are identical to phase-space techniques [C.W. Gardiner, Quantum Noise (1991)] when the latter result in a Fokker-Planck equation for a corresponding pseudo-probability distribution. If phase-space techniques do not result in a Fokker-Planck equation and hence fail to produce a stochastic representation, the QFT techniques nevertheless yield stochastic di erence equations in discretised time.