Refine
Year of publication
- 1999 (100) (remove)
Document Type
- Preprint (46)
- Doctoral Thesis (28)
- Article (7)
- Course Material (6)
- Master's Thesis (6)
- Lecture (2)
- Study Thesis (2)
- Working Paper (2)
- Report (1)
Language
- German (100) (remove)
Has Fulltext
- yes (100)
Keywords
- Praktikum (6)
- Case-Based Reasoning (5)
- Fallbasiertes Schliessen (3)
- Maschinelles Lernen (3)
- Diagnose technischer Systeme (2)
- KLUEDO (2)
- Server (2)
- ATP-Synthase (1)
- Ablagestruktur (1)
- Access System (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (39)
- Kaiserslautern - Fachbereich Chemie (19)
- Kaiserslautern - Fachbereich Mathematik (10)
- Kaiserslautern - Fachbereich Physik (9)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (8)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (1)
- Universitätsbibliothek (1)
Vigenere-Verschlüsselung
(1999)
Seinen Versuch, den Begriff der negativen Größen in die Weltweisheit einzuführen beginnt der neununddreißigjährige Immanuel Kant mit einer grundsätzlichen Erörterung über einen etwaigen Gebrauch, den man in der Weltweisheit von der Mathematik ma-chen kann. Dabei stellt er die These auf, daß Mathematik grundsätzlich nur auf zweierlei Art in die Philosophie eingreifen könne. Eine erste Möglichkeit sieht Kant in der Nachahmung mathematischer Methoden bei der Darstellung von Philosophie, die andere Möglichkeit besteht für ihn in der konkreten Anwendung mathematischer Theorien in der Naturlehre. Die zuerst genannte Möglichkeit beurteilt Kant ausgesprochen negativ; seine Kritik an dem von Comenius zunächst ganz allgemein formulierten und dann von Christian Wolff insbesondere für die Philosophie favorisierten Programm einer Präsentation der Philosophie nach mathematischem Vorbild einer Darstellung more geometrico demonstrata ist hinlänglich bekannt. Die Verwendung von Mathematik in der Naturlehre sieht Kant zwar durchaus positiv; in den Metaphysischen Anfangsgründen der Naturwissenschaft wird er gut zwei Jahrzehnte später sogar jene berühmte Behauptung hinzufügen, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist. Dennoch weist Kant mit aller Deutlichkeit auf die engen Grenzen des Wirkungsbereichs solcher Anwendungen von Mathematik hin, denn seiner Meinung nach würden aber auch nur die zur Naturlehre gehörigen Einsichten von derartigem mathematischem Zugriff profitieren.
Spektralsequenzen
(1999)
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von bekannten Fallbeispielen ein derzeit sehr aktuelles Thema. Auch für Diagnoseaufgaben gewinnt der fallbasierte Ansatz immer mehr an Bedeutung. In diesem Papier soll der im Rahmen des Moltke -Projektes1 an der Universität Kaiserslautern entwickelte fallbasierte Problemlöser Patdex/22 vorgestellt werden. Ein erster Prototyp, Patdex/1, wurde bereits 1988 entwickelt.
Das System ART (ASF RRL Translation) stellt im wesentlichen eine Umgebung dar,in welcher die Modularisierbarkeit von Beweisen (Induktionsbeweisen über Gleichungs-spezifikationen) untersucht werden kann. Es wurde die bereits bestehende Spezifikati-onsprache ASF (siehe [BeHeKl89]), in welcher modularisierte Spezifikationen möglichsind, so erweitert, daß zusätzlich auch Beweisaufgaben spezifiziert werden können. Imfolgenden wird diese erweiterte Spezifikationsprache auch ASF genannt. Als Bewei-ser für die Beweisaufgaben einer Spezifikation wurde RRL (siehe [KaZh89]) gewählt.RRL kann sowohl Kommandos aus einem File abarbeiten, wie auch Sitzungsprotokolleanfertigen, mit deren Hilfe sich die Beweisverläufe und Benutzereingaben der entspre-chenden RRL-Sitzung rekonstruieren lassen. In ART kann nun eine ASF-Spezifikation,die Beweisaufgaben umfassen kann, in ein File übersetzt werden, welches von RRLabgearbeitet werden kann. Dies wird im folgenden kurz mit 'Übersetzung von ASF nach RRL' bezeichnet. Bei der Abarbeitung eines solchen Files wird von RRL ein Sit-zungsprotokoll angelegt. ART kann dieses Sitzungsprotokoll dazu heranziehen, neueErgebnisse, wie etwa den erfolgreichen Beweis einer Beweisaufgabe, zu ermitteln, umdiese Ergebnisse der ursprüngliche Spezifikation hinzuzufügen. Dies wird im folgendenkurz mit 'Rückübersetzung von RRL nach ASF' bezeichnet. Im Kern besteht ART alsoaus einer Komponente zur Übersetzung von ASF nach RRL und aus einer Komponentezur Rückübersetzung von RRL nach ASF.
Die systematische Verbesserung von Techniken zur Entwicklung und Betreuung von Software setzt eine explizite Darstellung der in einem Projekt ablaufenden Vorgnge (Prozesse) voraus. Diese Darstellungen (Prozemodelle) werden durch Software- Prozemodellierung gewonnen. Eine Sprache zur Beschreibung solcher Modelle ist MVP-L. Verschiedene Standard-Prozemodelle existieren bereits. Bisher gibt es jedoch kaum dokumentierte Software-Entwicklungsprozesse, die speziell fr die Entwicklung reaktiver Systeme entworfen worden sind, d. h. auf die besonderen Anfordernisse bei der Entwicklung reaktiver Systeme zugeschnitten sind. Auch ist bisher nur wenig Erfahrung dokumentiert, fr welche Art von Projektkontexten diese Prozesse gltig sind. Eine Software- Entwicklungsmethode, die - mit Einschrnkungen - zur Entwicklung reaktiver Systeme geeignet ist, ist SOMT (SDL-oriented Object Modeling Technique). Dieser Bericht beschreibt die erfahrungsbasierte Modellierung der Software-Entwicklungsprozesse von SOMT mit MVP-L. Zunchst werden inhaltliche Grundlagen der Software-Entwicklungsmethode SOMT beschrieben. Insbesondere wird auf die eingesetzten Techniken und deren Kombination eingegangen. Anschlieend werden mgliche Projektkontexte charakterisiert, in denen das SOMT-Modell im Sinne eines Erfahrungselements Gltigkeit hat. Darauf werden der Modellierungsvorgang sowie hierbei gemachte Erfahrungen dokumentiert. Eine vollstndige Darstellung des Modells in grafischer MVP-L-Notation befindet sich im Anhang. Die Darstellung des Modells in textueller Notation kann der SFB-Erfahrungsdatenbank entnommen werden.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
Ziel dieser Arbeit ist es, eine Methode zur Verfügung zu stellen, mit der ein Simulator für gebäudespezifische Aufgaben modelliert werden kann. Die Modellierung muß dabei so angelegt sein, daß sowohl einfache als auch sehr komplexe Simulatoren für spezielle Gebäude entworfen werden können. Aus dem erstellten Modell ist es anschließend möglich, mit Hilfe von Generatoren automatisch ein Programm zu erzeugen. Dadurch kann ein Entwerfer ohne spezielle Kenntnisse auf dem Gebiet der Simulation einen Gebäude-Simulator entwickeln. Zur Modellierung wurde ein domänenspezifischer Katalog von Entwurfsmustern erstellt. Dabei können die einzelnen Muster direkt zur Modellierung und Codegenerierung eingesetzt werden.
Verfahren des Maschinellen Lernens haben heute eine Reife erreicht, die zu ersten erfolgreichen industriellen Anwendungen geführt hat. In der Prozessdiagnose und -steuerung ermöglichen Lernverfahren die Klassifikation und Bewertung von Betriebszuständen, d.h. eine Grobmodellierung eines Prozesses, wenn dieser nicht oder nur teilweise mathematisch beschreibbar ist. Ausserdem gestatten Lernverfahren die automatische Generierung von Klassifizierungsprozeduren, die deterministisch abgearbeitet werden und daher für die Belange der Echtzeitdiagnose und -steuerung u.U. zeiteffektiver als Inferenzmechanismen auf logischer bzw. Produktionsregelbasis sind, da letztere immer mit zeitaufwendigen Suchprozessen verbunden sind.
Der Wissenserwerb erschwert bisher häufig den Einsatz wissensbasierter Systeme der Arbeitsplanerstellung in der industriellen Praxis. Die meisten Anwendungen gestatten nur das Erfassen und Editieren des durch aufwendige Erhebung, Systematisierung und Formulierung gewonnenen fachspezifischen Planungswissens. Im Rahmen eines DFG-Projektes soll die Anwendbarkeit bekannter maschineller Lernverfahren auf technologische Reihenfolge- und Zuordnungsprobleme im Rahmen der generierenden Arbeitsplanerstellung von Teilefertigungsprozessen im Maschinenbau nachgewiesen werden. Dazu wird ein Prototyp mit Hilfe eines verfügbaren Softwarewerkzeuges entwickelt, der das maschinelle Lernen aus vorgegebenen Beispielen ermöglichen und mit einem existierenden Prototypen der wissensbasierten Arbeistplanung kommunizieren soll. Der folgende Beitrag gibt einen Überblick über das mit Lernverfahren zu behandelnde Planungswissen und stellt mögliche Repräsentationsmöglichkeiten des Wissens zur Diskussion.
Das Ziel dieses Projekts war es, anhand von empirischen Untersuchungen klassische statistische Verfahren und aktuelle Methoden des Maschinellen Lernens mit einem Ansatz zu vergleichen, der in der Arbeitsgruppe entworfen und theoretisch analysiert wurde. Implementiert wurden f"unf Verfahren, einige davon in verschiedenen Varianten: FeedForward Neuronale Netze, Entscheidungsbäume, Bayes Entscheidungen, die auf Chow-Expansionen beruhen, Harmonische Analyse und die Methode des N"achsten Nachbarn. Als Referenzmassstab wurden Vorhersagen herangezogen, die den Trend oder den Mittelwert der letzten letzten Beobachtungen vorhersagten. Als Daten standen 16 Zeitreihen von Aktien- und Devisenkursen zur Verf"ugung. Jede der Zeitreihen bestand aus 2000 Daten, von denen die ersten 1500 zum Training und die restlichen 500 für den Vergleich der Verfahren dienten. Dabei zeigte es sich, dass die naiven Referenzverfahren einen recht guten Pr"ufstein darstellten. Die Bayes-Entscheidungen und die Entscheidungsbäume erwiesen sich als besonders stark und übertrafen die Referenzmethoden fast immer. Neuronale Netze und die Methode des n"achsten Nachbarn waren etwa genausogut, während die Harmonische Analyse für kurzfristige Vorhersagen schlechter und für langfristige besser war. Bei Entscheidungsbäumen und Neuronalen Netzen fiel auf, dass kleine B"aume bzw. Netze bessere Ergebnisse lieferten als grosse.
Die Induktive Logische Programmierung (ILP) ist ein Forschungsgebiet, das Techniken aus dem Maschinellen Lernen und der Logischen Programmierung vereint. Sie untersucht das klassische Problem induktiven Lernens aus klassifizierten Beispielen im Rahmen der Hornlogik erster Stufe. Inzwischen gibt es eine grosse Zahl verschiedener Ansätze für dieses Lernproblem, die sich hauptsächlich in der Suchrichtung im Hypothesenraum, den Generalisierungs- und Spezialisierungsoperatoren und den verwendeten nichtlogischen Beschränkungen (Bias) unterscheiden. Der Vergleich und die Integration dieser verschiedenen Ansätze war die Hauptmotivation für die Entwicklung des Systems MILES. MILES ist eine Programmierumgebung für die ILP, die neben Mechanismen zur Repräsentation und Verwaltung von Beispielen, Hintergrundwissen und Hypothesen einen Werkzeugkasten mit einem Grossteil der bekannten Generalisierungs-, Spezialisierungs- und Reformulierungsoperatoren enthält. Eine generische Kontrolle erlaubt, verschiedene dieser Operatoren in einen spezifischen ILP-Algorithmus zu integrieren. In diesem Beitrag wird ein kurzer Überblick über die Repräsentation, die Operatoren und die Kontrolle von MILES gegeben.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
In diesem Beitrag werden konnektionistische Lernverfahren für die wissensbasierte Diagnose technischer Systeme vorgestellt. Es werden zwei Problemstellungen untersucht: die Prognose von Signalverläufen technischer Zustandsgrössen sowie die diagnostische Klassifikation von Systemzuständen und die Ergebnisse der Untersuchungen dargestellt.
Formalismen und Anschauung
(1999)
In der Philosophie ist es selbstverständlich, daß Autoren, die Erkenntnisse früherer Philosophen weitergeben oder kommentieren, die Originalliteratur kennen und sich in ihrer Argumentation explizit auf bestimmte Stellen in den Originaldarstellungen beziehen. In der Technik dagegen ist es allgemein akzeptierte Praxis, daß Autoren von Lehrbüchern, in denen Erkenntnisse früherer Forscher dargestellt oder kommentiert werden, nicht die Originaldarstellungen zugrunde legen, sondern sich mit den Darstellungen in der Sekundärliteratur begnügen. Man denke an die Erkenntnisse von Boole oder Maxwell, die in sehr vielen Lehrbüchern der Digitaltechnik bzw. der theoretischen Elektrotechnik vermittelt werden, ohne daß die Autoren dieser Lehrbücher auf die Originalschriften von Boole oder Maxwell Bezug nehmen. Dagegen wird man wohl kaum ein Buch über Erkenntnisse von Aristoteles oder Kant finden, dessen Autor sich nicht explizit auf bestimmte Stellen in den Schriften dieser Philosophen bezieht.
Die systemtheoretische Begründung für die Einführung des Zustandsbegriffs findet man im Mosaik-stein "Der Zustandsbegriff in der Systemtheorie". Während sich die dortige Betrachtung sowohl mitkontinuierlichen als auch mit diskreten Systemen befaßt, wird hier die Betrachtung auf diskrete Sy-steme beschränkt.
Umgangssprachlich wurde das Wort Daten schon gebraucht, lange bevor der Computer erfundenwurdeund die AbkürzungEDV für "Elektronische Datenverarbeitung" in die Alltagssprache gelangte.So sagte beispielsweise der Steuerberater zu seinem Klienten: "Bevor ich Ihre Steuererklärung fertigmachen kann, brauche ich von Ihnen noch ein paar Daten." Oder der Straßenbaureferent einer Stadtschrieb an den Oberbürgermeister: "Für die Entscheidung, welche der beiden in Frage stehenden Stra-ßen vorrangig ausgebaut werden soll, müssen wir noch eine Datenerhebung durchführen." Bei diesenDaten ging es zwar oft um Zahlen - Geldbeträge, Anzahl der Kinder, Anzahl der Beschäftigungsmo-nate, gezählte Autos - , aber eine Gleichsetzung von Daten mit Zahlen wäre falsch. Zum einen wärenZahlen ohne mitgelieferte Wörter wie Monatseinkommen, Kinderzahl u.ä. für den Steuerberater nutz-los, zum anderen will das Finanzamt u.a. auch den Arbeitgeber des Steuerpflichtigen wissen, und dazumuß eine Adresse angegeben werden, aber keine Zahl.
Für die Systemtheorie ist der Begriff Zustand ein sehr zentraler Begriff. Das Wort "Zustand" wird um-gangssprachlich recht häufig verwendet, aber wenn man die Leute fragen würde, was sie denn meinen,wenn sie das Wort Zustand benützen, dann würde man sicher nicht die präzise Definition bekommen,die man für die Systemtheorie braucht.
In einem Beitrag zu Platons Philosophie des Abstiegs schreibt C.F. v. Weizsäcker, er sei "überzeugt, daß die griechische Philosophie, dieses in allen Weltkulturen einzigartige Kunstwerk, ohne das mathematische Paradigma undenkbar gewesen wäre" . Und in seiner berühmten Kant-Vorlesung im WS 1935/36 erklärte M. Heidegger, es sei "kein Zufall, daß die Kritik der reinen Vernunft... ständig von einer Besinnung auf das Wesen des Mathematischen und der Mathematik begleitet sei" . Was hier über Platon und Kant gesagt wird, trifft auf fast alle abendländischen Philosophen von Rang zu: Explizit oder implizit spielt die Mathematik eine entscheidende Rolle für die neue philosophische Konzeption. Welche Gründe sind es, die der Mathematik einen so hohen Stellenwert im Denken der maßgebenden Philosophen sichern? Mit welchen Intentionen und Zielvorstellungen montieren Philosophen seit Platon bis Heidegger, seit Aristoteles bis Bloch immer wieder Aussagen über Mathematik in ihre Philosophie? Weshalb war in den vergangenen zweieinhalb Jahrtausenden keine andere Wissenschaft für die Philosophie so >>frag-würdig<< wie die Mathematik? Die Philosophie hat - dies ist offensichtlich - den Dialog mit der Mathematik immer wieder gesucht. Und wie steht es um das Interesse der Mathematik an einem Dialog mit der Philosophie? In einem äußerst gehaltvollen und auch heute noch sehr lesenswerten Aufsatz Mathematik und Antike stellt der Mathematiker O. Toeplitz 1925 die Frage, "ob einmal im Dasein der Mathematik die Philosophie bestimmend in sie eingegriffen hat, ihre eigentliche definitive Gestalt gebildet hat" ? Eine derartige Initiative aus der Mathematik heraus zum Dialog mit der Philosophie ist kein Einzelfall. Cantor, Hilbert, Weyl, Gödel und Robinson - um nur einige Repräsentanten der neueren Mathematik in Erinnerung zu rufen - haben sich immer wieder um Kontakte mit der Philosophie bemüht.
Die Kenntnis der Transportmechanismen von polaren und unpolaren Molekülen durch biologische Membranen ist notwendig für das Verständnis von vielen biologischen Vorgängen. Die vorliegende Arbeit soll einen Beitrag zum Verständnis des Transportes von kleinen Molekülen durch Phospholipidmodellmembranen liefern. Hierzu wurden kinetische und kalorimetrische Messungen an Lipidvesikeln durchgeführt. Besonders großes Interesse bestand darin, zu klären, wie diese Moleküle die Membran durchqueren. Um das Permeationsverhalten von Wasser zu erforschen, wurden systematische Untersuchungen der osmotisch getriebenen und der diffusionskontrollierten Wasserpermeation an Lipiddoppelschichten, hergestellt aus Phospholipiden mit unterschiedlichen Kopfgruppen und unterschiedlichen Fettsäureketten durchgeführt. Dabei wurde auch die Permeationsgeschwindigkeit im Phasenumwandlungsbereich untersucht. Die diffusionskontrollierte Wasserpermeation wird mit Hilfe des H2O/D2O-Austauschverfahrens gemessen und bei osmotischen Messungen erzeugt man einen Konzentrationsgradienten zwischen intra- und extravesikulärem Raum. Es wurde für alle Lipide und Lipidgemische eine sprunghafte Zunahme der osmotischen und diffusiven Wasserpermeation an der Hauptphasenumwandlung gel -> flüssigkristallin gefunden. Die Permeabilitätskoeffizienten für die osmotische Wasserpermeation lagen bei allen Messungen um den Faktor 100 höher als die Werte für die diffusionskontrollierte Wasserpermeation. Im Phasenumwandlungsbereich durchlaufen die Permeabilitätskoeffizienten ein Maximum. Die experimentell gewonnenen Daten lassen einen Wassertransport durch transiente Poren, die sich durch Defektstellen und thermische Fluktuationen in der Doppelschicht bilden, vermuten und widersprechen einem Löslichkeitsdiffusionsmechanismus. Um den Einfluß des Konzentrationsgradienten auf die Permeation näher zu untersuchen, wurden osmotische Messungen mit unterschiedlichen Harnstoffkonzentrationen durchgeführt. Es zeigte sich, daß die Wasserpermeation abhängig vom angelegten Konzentrationsgradienten war, während die Harnstoffpermeation keine Abhängigkeit zeigte. Die stark unterschiedlichen Permeabilitätskoeffizienten der beiden Moleküle legen den Verdacht nahe, daß sie auf unterschiedlichen Wegen die Lipiddoppelschicht durchdringen. Um das Permeationsverhalten von kleinen Molekülen aufzuklären, wurden Messungen der diffusionskontrollierten Permeation vorgenommen. Desweiteren war von Interesse ob durch den Einbau von Detergensmoleküle in die Lipidmembran die Permeationseigenschaften der Moleküle verändert werden. Mit Hilfe der gewonnen Daten sind Rückschlüsse auf den Mechanismus der Permeation von kleinen Molekülen durch biologische Membranen möglich.
Die Entwicklung des Zusammenlebens der Menschen geht immer mehr den Weg zur Informations- und Mediengesellschaft. Nicht zuletzt aufgrund der weltweiten Vernetzung ist es uns in minutenschnelle möglich, fast alle erdenklichen Informationen zu Hause auf den Bildschirm geliefert zu bekommen. Es findet sich so jeder zwar in einer gewissen schützenden Anonymität, aber dennoch einer genauso gewollten, wie erschreckenden Transparenz wieder. Jeder klassifiziert in gewisser Weise Informationen, die er preisgibt etwa in öffentliche, persönliche und vertrauliche Nachrichten. Gerade hier müssen Techniken und Methoden bereitstehen, um in dieser anonymen Transparenz Informationen, die nur für spezielle Empfänger gedacht sind vor unbefugtem Zugriff zu schützen und nur denjenigen zugänglich zu machen, die dazu berechtigt sind. Diesen Wunsch hat nicht nur allgemein die Gesellschaft, sondern im speziellen wird die Entwicklung auf diesem Gebiet gerade von staatlichen und militärischen Einrichtungen gefordert und gefördert. So sind häufig eingesetzte Werkzeuge die Methoden der Kryptologie, aber solange es geheime Nachrichten gibt, wird es Angreifer geben, die versuchen, sich unberechtigten Zugang zu diesen Informationen zu verschaffen. Da die ständig wachsende Leistung von EDV-Anlagen das "Knacken" von Verschlüsselungsmethoden begünstigt, muß zu immer sichereren Chiffrierverfahren übergegangen werden. Dieser Umstand macht das Thema Kryptologie für den Moment hochaktuell und auf lange Sicht zu einem zeitlosen Forschungsgebiet der Mathematik und Informatik.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Prozeßanalyse und Modellbildung bei der Herstellung gewebeverstarkter, thermoplastischer Halbzeuge
(1999)
Werkstoff- und verarbeitungsspezifische Vorteile gewebeverstärkter, thermoplastischer Faser-Kunststoff-
Verbunde bieten ein erhebliches Potential für die Umsetzung konsequenter Leichtbauweisen in den verschiedenen Anwendungsbereichen der Industrie. In der Regel erfolgt die
Herstellung von Bauteilen in einer Prozeßkette, die sich aus den beiden Kernprozesse Verbundbildung (Imprägnierung und Konsolidierung) und Formgebung zusammensetzt. Die Verbundbildung erfolgt mit Hilfe diskontinuierlicher (Autoklav, Etagenpresse) oder kontinuierliche (Kalander, Doppelbandpresse) Verfahren, die z.B. umformbare Halbzeuge wie ORGANOBLECHEN, zur weiteren Verarbeitung bereitstellen. Diese Entkopplung des Imprägnierungsprozesses der Verstärkungstextilien mit thermoplastischer Matrix von der Bauteilherstellung ermöglicht - analog der Blechumformung - eine großserientaugliche Prozeßtechnik mit kurzen Taktzeiten. Alle wesentlichen Eigenschaften des Verbundwerkstoffes werden so während der Halbzeugherstellung determiniert, während die Bauteilherstellung dann nur der Umformung dient. Auf dem Verbundwerkstoffmarkt ist ein Reihe von Halbzeugen mit verschiedenen Eigenschaftsprofilen verfügbar. Infolge des ständigen Wandels der werkstofflichen Anforderungsprofile
ist jedoch eine permanente Weiterentwicklung der Halbzeuge notwendig. Hieraus resultiert für die Werkstoffhersteller ein großes technisches und wirtschaftliches Risiko, da die
aufwendige Werkstoffentwicklung - aufgrund mangelnder wissenschaftlicher Grundlagen - mit erheblichen Unsicherheiten behaftet ist. Derzeit wird die Neuentwicklung von anforderungsspezifischen Halbzeugen mit Hilfe von Trial- and-Error Versuchen hinsichtlich der universellen Prozeßparameter (Temperatur, Zeit und Druck) betrieben. Derartige Versuchsreihen bedingen einen beträchtlichen finanziellen und zeitlichen Umfang und stellen somit ein wesentliches Entwicklungsrisiko dar. Darüber hinaus sind die Ergebnisse nur für Anlagen gleichen Typs und Bauart uneingeschränkt anwendbar. Eine Übertragbarkeit der Prozeßparameter auf andere Anlagenkonzepte ist nicht gegeben, so daß die Prozeßfenster jeweils immer individuell ermittelt werden müssen. Aufgrund
dieser aufwendigen Vorgehensweise werden deshalb intensive Anstrengungen unternommen, die während der Materialherstellung auftretenden Vorgänge mathematisch zu
modellieren, um dann durch rechnerische Simulation der Verarbeitungsprozesse eine Abschätzung des energetischen und zeitlichen Aufwandes zu ermöglichen. Daraus ergab sich die Aufgabe, das Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter, flächiger thermoplastischer Halbzeuge durch umfangreiche Untersuchungen an verschiedensten Materialkombinationen zu analysieren. Ziel war es, die bei der Halbzeugherstellung
auftretenden Effekte zu charakterisieren, Ansätze zu deren Modellierung zu entwickeln und Erkenntnisse zur Optimierung der Prozeß- und Materialparameter zu gewinnen. Wesentliche Ergebnisse der Prozeßanalyse sind das Auftreten von transversalen Makro- und Mikroströmen sowie das Entstehen von festigkeits- und steifigkeitsreduzierenden Bindenähten
und Lufteinschlüssen. Ferner laufen innerhalb der Faserbündel, temperatur- und druckabhängige Lösungs- und Diffusionsvorgänge bei der Eliminierung der Lufteinschlüsse sowie Wechselwirkungen zwischen elastischen Geweben und strömender Matrix ab. Zentrales Ergebnis der Untersuchung stellt ein abgeleitetes System von funktionalen Abhängigkeiten dar, welches einen ersten, grundlegenden Schritt zur Erstellung eines umfassenden Simulationsmodells des komplexen Prozesses bildet. Hiermit schließt die vorliegende Arbeit erstmals eine Lücke zwischen anlagenspezifischen Versuchsreihen und der allgemeinen numerischen Prozeßsimulation, die es ermöglicht, das
Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter thermoplastischer Halbzeuge auf experimenteller Basis anlagenunabhängig zu beschreiben. Dazu wurden die regelbaren Prozeßgrößen Verarbeitungstemperatur T (°K), Verarbeitungszeit t (s) und
Konsolidierungsdruck P (Pa) zu einer dimensionslosen, matrixspezifischen Prozeßkonstanten - B-Faktor (tP/n(T))- zusammengefaßt, die den Verarbeitungszyklus energetisch und zeitlich bilanziert. Diese Vorgehensweise erlaubt die Untersuchung des funktionalen Zusammenhangs zwischen Prozeßregelgrößen und Imprägnierungsqualität innerhalb bestimmter Grenzen sowie den Vergleich verschiedenartiger diskontinuierlicher und kontinuierlicher Anlagentypen und
die Ableitung von Substitutionsbeziehungen zwischen den Regelgrößen. Dabei konnte gezeigt werden, daß die imprägnierungsbedingte Abnahme der Halbzeugdicke in Abhängigkeit des B-Faktors unabhängig von der verwendeten Anlagentechnik einem exponentiellen Gesetz folgt, dessen halbzeugspezifische Regressionskoeflizienten die während der Imprägnierung und Konsolidierung auftretenden Effekte zusammenfassen und die Ableitung optimaler Prozeßeinstellungen erlauben. Damit ist es möglich, für bestimmte Materialpaarungen mit Hilfe des B-Faktors einen Verarbeitungsbereich zu identifizieren, der aufgrund der
anlagenunabhängigen Betrachtungsweise der Parameter Temperatur, Imprägnierzeit und Konsolidierungsdruck
unter Berücksichtigung verschiedener Randbedingungen prinzipiell auf jede beliebige Anlagenkonfiguration zur Imprägnierung und Konsolidierung übertragen werden kann. Dies schließt deshalb nicht nur diskontinuierliche und kontinuierliche Prozesse zur Herstellung flächiger Halbzeuge, sondern darüber hinaus auch Verfahren zur Weiterverarbeitung dieser Materialien ein. Für jede potentielle Materialpaarung kann, ähnlich wie bei rheologischen Kennwerten für Kunststoffe, mit standardisierten Methoden eine Datenbasis geschaffen werden, die die Abhängigkeit des Imprägnierungsgrades von den Verarbeitungsbedingungen beschreibt. Damit kann der Versuchsaufwand bei der Einführung eines neuen Werkstoffsystems auf einer Anlage reduziert, die Verarbeitung wirtschaftlich optimiert, die Beanspruchung der Werkstoffkomponenten bei der Verarbeitung minimiert und die Einsatzstoffe verarbeitungsgerecht modifiziert werden.
Synthese und erste Anwendungen pH-sensitiver Spinmarker für site-specific spin-labelling Experimente
(1999)
Im Laufe der letzten Jahre ergaben wissenschaftliche Beobachtungen, daß verschiedene anthropogene Umweltkontaminanten, auch als endokrin wirksame Substanzen oder endocrine disruptors bezeichnet, einen negativen Effekt auf das Reproduktionsvermögen von wildlebenden Tierpopulationen haben können. Für eine Reihe von Umweltkontaminanten, zuerst hauptsächlich in aquatischen Systemen beschrieben, wird vor allem eine estrogene Wirkung auf den Organismus diskutiert. In einigen Wildtierspezies, wie Alligatoren (Guilette, 1994), Seevögeln (Fry, 1981), Fischen (Jobling, 1993) und Mollusken (Bryan, 1986) wurde das Auftreten von strukturellen Geburtsfehlern der primären Geschlechtsorgane, Verhaltensanomalien beispielsweise während der Brutpflege und eine Verschiebung des Geschlechtergleichgewichtes bereits beschrieben.
Das Enzym F0F1-ATP-Synthase katalysiert die Phosphorylierung von ADP zu ATP unter Ausnutzung des durch die Atmungskette entstehenden Protonengradienten an Membranen. Hierbei pumpt der membranintegrale F0-Teil des Proteins Protonen durch die Membran und induziert die ATP-Synthese, welche auf dem peripheren, wasserlöslichen F1-Teil des Proteins (F1-ATPase) stattfindet. F0 besteht aus drei Proteinuntereinheiten der Stöchiometrie a b_2 c_9-12, während F1 aus fünf Untereinheiten der Stöchiometrie alpha_3 beta_3 gamma delta epsilon zusammengesetzt ist. 'Native' und nucleotidbefreite F1-ATPase aus Escherichia coli (EF1, mit und ohne intrinsischen Nucleotiden) wurde mit 2',3'-O-(1-Oxy-2,2,6,6-tetramethyl-4-piperidyliden)-adenosin-5'-triphosphat (SL*-ATP) als Mg2+-Komplex mit ESR-Spektroskopie untersucht. Durch Titrationsexperimente wurden die Bindungsstöchiometrie und die ESR-Spektren in Abhängigkeit der Nucleotidkonzentration ermittelt. Die Ergebnisse dieser Untersuchungen deuten darauf hin, dass unabhängig von der Anwesenheit intrinsischer Nucleotide maximal 3 mol SL*-ATP pro mol Enzym ausschliesslich in den katalytischen Nucleotidbindungsstellen gebunden wurden. Molekülmodelle von SL*-ATP in den Bindungsstellen von mitochondrialer F1-ATPase unterstützten diese Resultate ebenso wie ATPase-Aktivitätstests von EF1 mit SL*-ATP als Substrat. Bei nucleotidbefreiter EF1 war die Substratsättigung bei substöchiometrischen Nucleotidkonzentrationen höher als beim nativen Enzym. Die ESR-Spektren von EF1 mit SL*-ATP.Mg2+ zeigten zwei au! f unterschiedliche Spinsonden-Mobilitäten hinweisende Komponenten beim nucleotidbefreiten Enzym und nur eine bei nativem Enzym. Ein verkürzter, wasserlöslicher Teil der b-Untereinheit von EF0 (b_sol) wurde mit Raum- und Tieftemperatur-ESR-Spektroskopie auf seine Struktur als Untereinheiten-Dimer alleine und an F1 gebunden untersucht. Bei Tieftemperatur-ESR-Spektren ist das Signalamplituden-Verhältnis von Tief- und Hochfeldsignal zu Zentralfeldsignal, auch als Kokorin-Zamaraev-Parameter bezeichnet, ein Indikator für dipolare Wechselwirkungen von Spinsystemen und somit für deren Abstand im Bereich von 8-25 Å. Es wurden einerseits verschiedene Cystein-Mutanten von b_sol (als b_syn bezeichnet) und andererseits eine Cysteinmutante von EF1 spezifisch kovalent mit Spinlabeln verknüpft. Die vermessenen b_sol-F1-Komplexe waren somit zum einen ausschliesslich an b, andererseits nur an EF1 und ferner sowohl an b als auch an EF1 spinmarkiert. Die Messungen ergaben, dass die Struktur des carboxyterminalen Bereichs von b_sol zwischen den Aminosäurenpositionen 124 und 139 alphahelikalen Charakter besitzt. Aufgrund vo! n Differenzen der Kokorin-Zamaraev-Parameter scheinen sich bei der Bindung von b_sol an EF1 die Helices der Untereinheiten des b_sol-Dimers gegeneinander zu verdrehen. Trotz Abwesenheit der delta-Untereinheit von EF1 schien b_sol an F1 zu binden. Die Strukturen von b_sol-Dimer alleine, im Komplex mit EF1 sowie EF1 ohne delta scheinen sich jeweils deutlich zu unterscheiden und weisen auf eine hohe Flexibilität der b-Untereinheit hin. Der Abstand der Nucleotidbindungsstellen auf den beta-Untereinheiten von EF1 zum Proteinrückgrat von b_sol ist mit mehr als 20-25 Å einzuschätzen, da mit der oberen Messtechnik keine dipolaren Wechselwirkungen ausgemacht werden konnten. Molekülmodelle eines b_syn-Dimerenfragments im Bereich der Aminosäurenpositionen 120-145 am carboxyterminalen Ende von b sowie verschiedener spinmarkierter Varianten des gleichen Dimerenfragments zeigten eine Verdrehung der beiden Helix-Längsachsen zueinander. Zwischen den Spinsystem-Abständen im Modell und den geme! ssenen Kokorin-Zamaraev-Parametern war eine Korrelation ersichtlich.
Die zweikernigen Eisenkomplexe [{CpR(OC)2Fe}2] (1) reagieren mit weißem Phosphor unter milden Bedingungen selektiv und in sehr guten Ausbeuten zu den Tetraphosphabicyclobutanderivaten 3, deren P4-Butterflygerüst durch zwei 17VE-{CpR(OC)2Fe}-Fragmente in exo/exo-Konfiguration stabilisiert ist. Mit der Röntgenstrukturanalyse des Tri-tert-butylderivates 3a konnte erstmals ein Molekül mit einem solchen Strukturinkrement vollständig charakterisiert werden. Sowohl die thermische als auch die photochemische Decarbonylierung von 3 führt zu den Cyclopentaphosphaferrocenderivaten [CpRFe(h5-P5)] (4) und den pseudo-Tripeldeckerkomplexen [{CpRFe}2(m-h4:4-P4)] (5), die sich auch durch die Langzeit-Cothermolyse der Eisendimere [{CpR(OC)2Fe}2] (1) mit überschüssigem weißen Phosphor herstellen lassen. Die beiden Tri-tert-butylderivate 4a und 5a konnten röntgenstrukturanalytisch untersucht werden. Die thermische Umsetzung äquimolarer Mengen der P4-Butterflymoleküle 3 mit Bisphenyl-acetylen führt zu sehr interessanten neuartigen Produkten: So konnte bei der Reaktion von 3a mit Tolan ein ferrocenanaloges Sandwichmolekül 7a, dessen zentrales Eisenatom jeweils von einem Tri-tert-butylcyclopentadienyl- und von einem 1,2,3-Triphospholylliganden h5-artig koordiniert ist, isoliert und ein solcher heteroaromatischer Ligand erstmals kristallstrukturanalytisch charakterisiert werden. Darüber hinaus konnte bei dieser Reaktion ein weiteres Sandwichmolekül - (Tri-tert-butylcyclopentadienyl)(tetraphospholyl)eisen(II) (8a) - NMR-spektroskopisch und massenspektrometrisch nachgewiesen werden. Zusätzlich konnte bei der Umsetzung des Pentaisopropylderivates 3c mit Tolan ein zwar theoretisch vorhergesagter, aber bislang nicht experimentell bestätigter Undecaphosphor-Komplex isoliert und kristallstrukturanalytisch untersucht werden.
Sowohl die gesteigerte Komplexität der Signalverarbeitungsalgorithmen und das umfangreichere Diensteangebot als auch die zum Erzielen der hohen erforderlichen Rechenleistungen erforderliche Parallelverarbeitung führen künftig zu einer stark ansteigenden Komplexität der digitalen Signalverarbeitung in Mobilfunksystemen. Diese Komplexität ist nur mit einem hierarchischen Modellierungs- und Entwurfsprozeß beherrschbar. Während die niedrigeren Hierarchieebenen der Programmierung und des Hardwareentwurfs bereits heute gut beherrscht werden, besteht noch Unklarheit bei den Entwurfsverfahren auf der höheren Systemebene. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs auf höheren Hierarchieebenen. Hierzu wird der Entwurf eines Experimentalsystems für das JD-CDMA-Mobilfunkkonzept auf der Systemebene betrachtet. Es wird gezeigt, daß das Steuerkreismodell ein angemessenes Modell für die digitale Signalverarbeitung in einem Mobilfunksystem auf der Systemebene ist. Das Steuerkreismodell läßt sich einerseits direkt auf die in zukünftigen Mobilfunksystemen einzusetzenden Multiprozessorsysteme abbilden und entspricht andererseits auch der nachrichtentechnischen Sichtweise der Aufgabenstellung, in der das Mobilfunksystem durch die auszuführenden Algorithmen beschrieben wird. Das Steuerkreismodell ist somit ein geeignetes Bindeglied, um von der Aufgabenstellung zu einer Implementierung zu gelangen. Weiterhin wird gezeigt, daß das Steuerkreismodell sehr modellierungsmächtig ist, und sein Einsatz im Gegensatz zu vielen bereits bekannten Entwurfsverfahren nicht auf mittels Datenflußmodellen beschreibbare Systeme begrenzt ist. Die klassischen, aus der von Datenflußmodellen ausgehenden Systemsynthese bekannten Entwurfsschritte Allokierung, Ablaufplanung und Bindung können im Kontext der Steuerkreismodellierung als Verfahren zur Konstruktion der Steuerwerksaufgabe verstanden werden. Speziell für das Experimentalsystem werden zwei verschiedene Ablaufsteuerungsstrategien modelliert und untersucht. Die volldynamische Ablaufsteuerung wird zur Laufzeit durchgeführt und ist daher nicht darauf angewiesen, daß die auszuführenden Abläufe a priori bekannt sind. Bei der selbsttaktenden Ablaufsteuerung werden die hier a priori bekannten Abläufe zum Zeitpunkt der Systemkonstruktion fest geplant, und zur Laufzeit wird dieser Plan nur noch ausgeführt. Schließlich werden noch die Auswirkungen der paketvermittelten burstförmigen Nachrichtenübertragung auf die digitale Signalverarbeitung in zukünftigen Mobilfunksystemen untersucht. Es wird gezeigt, daß es durch Datenpufferung sehr gut möglich ist, die Rechenlast in einem Mobilfunksystem zu mitteln.
Das Skript vermittelt die für eine Beschlagwortung nach den Regeln für den Schlagwortkatalog (RSWK) notwendigen Grundkenntnisse. Darüber hinaus wird beschrieben, wie die Schlagwortdaten in der Verbunddatenbank des Südwestdeutschen Bibliotheksverbund (SWB) strukturiert sind, welche Prinzipien bei der kooperativen Beschlagwortung im SWB einzuhalten sind und wie die Daten erfasst werden müssen . Des weiteren werden die in der Datenbank des SWB realisierten Suchmöglichkeiten aufgezeigt und aufgelistet, wie die dazugehörigen Suchbefehle lauten. Für Fragen der Organisation des Geschäftsgang der Teilnehmerbibliotheken wird exemplarisch der Arbeitsablauf an der UB Kaiserslautern dargestellt.
Die Untersuchung von semiklassischen Näherungen des Zeitentwicklungsoperators in der Quantenmechanik ist sowohl von fundamentalem als auch von didaktischem Interesse. Das fundamentale Interesse ist in der Beschreibung des Zusammenhangs zwischen klassischer Mechanik und Quantenmechanik begründet, das didaktische erklärt sich aus dem anschaulichen Zugang, den die Beschreibung von quantenmechanischen Prozessen durch klassische Größen liefert. Besonders klar wird dieser Zusammenhang, wenn eine Phasenraumdarstellung der Quantenmechanik betrachtet wird. Eine erste semiklassische Näherung für den Propagator im Phasenraum, den sogenannten "coherent state"-Propagator, wurde von Klauder vorgestellt. Weissman motivierte diese Näherung durch die Erweiterung der semiklassischen Korrespondenzrelationen auf den Begriff der kohärenten Variablen. In späteren Veröffentlichungen wird auf eine rigorose Herleitung mittels Pfadintegralmethoden verwiesen, die aber bis zum heutigen Tage nicht verwirklicht wurde. Ein zentraler Punkt dieser Arbeit wird es sein, zum ersten Mal diese alternative Herleitung vollständig zu präsentieren. Die Eigenschaften der semiklassischen Näherung des Phasenraumpropagators wurden für eine Reihe fundamentaler Quantenprozesse untersucht. Ausgehend von der semiklassischen Näherung des Phasenraumpropagators ergibt sich durch eine Ortsraumdarstellung desselben der Herman-Kluk-Propagator. Dieser gehört zur Klasse der Anfangswertdarstellungen ("initial value representations", IVRs), die die sonst bei semiklassischen Näherungen auftretenden Schwierigkeiten wie Kaustiken, Singularitäten und beidseitige Randbedingungen für die zugrundeliegenden klassischen Bahnen umgehen. Dies erlaubt ihre Anwendung auch auf Quantensysteme, deren klassisches Äquivalent chaotische Phasenraumbereiche enthält. Erste Untersuchungen hierzu wurden in unserer Arbeitsgruppe Ende 1997 durchgeführt. Die Frage nach der Klärung grundsätzlicher Eigenschaften des verwendeten Propagators und der verwendeten Methode sowie die Beleuchtung des theoretischen Hintegrunds lieferten die Anregung für diese Arbeit. Zu dieser Arbeit: In dieser Arbeit wird die semiklassische Näherung für den Phasenraumpropagator und hierauf aufbauend der Herman-Kluk-Propagator hergeleitet und ihre Eigenschaften untersucht. Im einzelnen gliedert sich die Arbeit folgendermaßen: In einem ersten, einführenden Kapitel werden kurz die grundlegenden Begriffe aus den drei Gebieten der klassischen Mechanik, der Quantenmechanik und der Semiklassik erläutert. Das zweite Kapitel gibt einen Überblick über die semiklassische Theorie nach Miller und Weissman. Der zentrale Begriff ist hierbei der der Korrespondenzrelation, der einen direkten Zusammenhang zwischen klassischen Größen (erzeugenden Funtionen) und unitären Transformationen in der Quantenmechanik liefert. Ein Spezialfall dieser Korrespondenz ist der Zusammenhang zwischen der Zeitentwicklung eines quantenmechanischen kohärenten Zustands und der Evolution klassischer Bahnen. Im zentralen dritten Abschnitt wird erstmalig eine vollständige Herleitung des Phasenraumpropagators mittels Pfadintegralmethoden gegeben. Aus dieser Herleitung wird klar, daß eines der Probleme der Semiklassik in der Frage liegt, welche Hamiltonfunktion einem gegebenen Hamiltonoperator zuzuordnen ist. Auch der durch die semiklassischen Näherung eingeführte Fehler wird diskutiert. Anschließend wird aus dem "coherent state"-Propagator der Herman-Kluk-Propagator hergeleitet und dessen Eigenschaften besprochen. Das vierte Kapitel beschreibt in Vorgriff auf den letzten Abschnitt die numerische Implementierung des Herman-Kluk-Propagators und verschiedene Methoden zur Gewinnung von Energieeigenwerten eines Quantensystems. Hierzu wird eine phasenraumsensitive Integrationsroutine vorgestellt. Abschließend werden die Ergebnisse der numerischen Anwendung des Propagators auf verschiedene, charakteristische Quantensysteme vorgestellt und sowohl mit der exakten Quantenmechanik, als auch mit anderen semiklassischen Methoden verglichen. Dabei werden sowohl die Stärken, als auch die Schwächen dieser Methode deutlich werden.
Diese Dissertation ist ein Beitrag zur Untersuchung der Anwendbarkeit der Random-Matrix-Theorie (RMT) in der Quantenchromodynamik (QCD). Untersucht werden die Fluktuationen der kleinen Eigenwerte des Dirac-Operators mit Kogut-Susskind-Fermionen und SUc(2)-Eichfeldern. Diese werden mit Hilfe eines Hybrid-Monte-Carlo-Algorithmus erzeugt. Die Universalität der Fluktuationen kleiner Eigenwerte, das heisst die Übereinstimmung der numerisch berechneten Spektren mit den Vorhersagen des chiralen Random-Matrix-Modells wird in dieser Arbeit nachgewiesen. Die Bedeutung dieses Resultats liegt in der Allgemeinheit des Ansatzes, die QCD-Zustandssumme für ein endliches Volumen durch ein Random-Matrix-Modell zu approximieren.
Im Rahmen dieser Arbeit wird gezeigt, daß Frauen sowohl durch die Gesetzgebung als auch durch arbeitsmarktpolitische und steuerliche Rahmenbedingungen benachteiligt werden. Es stellt sich die Frage, inwieweit eine Verbesserung der Altersversorgung für die Frau vorgenommen werden kann. Dabei muß eine verbesserte und an die Bedürfnisse der Frauen angepaßte Altersvorsorge nicht unbedingt auf die bestehende gesetzliche Rentenversicherung (GRV) aufbauen.
Struktur und Werkzeuge des experiment-spezifischen Datenbereichs der SFB501 Erfahrungsdatenbank
(1999)
Software-Entwicklungsartefakte müssen zielgerichtet während der Durchführung eines Software- Projekts erfasst werden, um für die Wiederverwendung aufbereitet werden zu können. Die methodische Basis hierzu bildet im Sonderforschungsbereich 501 das Konzept der Erfahrungsdatenbank. In ihrem experiment-spezifischen Datenbereich werden für jedes Entwicklungsprojekt alle Software-Entwicklungsartefakte abgelegt, die während des Lebenszyklus eines Projektes anfallen. In ihrem übergreifenden Datenbereich werden all die jenigen Artefakte aus dem experiment-spezifischen Datenbereich zusammengefasst, die für eine Wiederverwendung in nachfolgenden Projekten in Frage kommen. Es hat sich gezeigt, dass bereits zur Nutzung der Datenmengen im experiment- spezifischen Datenbereich der Erfahrungsdatenbank ein systematischer Zugriff notwendig ist. Ein systematischer Zugriff setzt jedoch eine normierte Struktur voraus. Im experiment-spezifischen Bereich werden zwei Arten von Experimenttypen unterschieden: "Kontrollierte Experimente" und "Fallstudien". Dieser Bericht beschreibt die Ablage- und Zugriffsstruktur für den Experimenttyp "Fallstudien". Die Struktur wurde aufgrund der Erfahrungen in ersten Fallstudien entwickelt und evaluiert.
Auf KLUEDO, dem Kaiserslauterer uniweiten elektronischen Dokumentenserver, können Angehörige der Universität Kaiserslautern wissenschaftliche Dokumente in elektronischer Form im Internet und damit weltweit veröffentlichen. Der Dokumentenserver entstand auf Initiative der Fachbereiche und der Universitätsbibliothek Kaiserslautern im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten GLOBAL INFO - Vorprojektes. Hierbei basiert der Dokumentenserver stellenweise auf dem (während des MathNet-Projektes des deutschen Forschungsnetzes (DFN) und des MathBibNet-Projektes der deutschen Forschungsgemeinschaft (DFG) aufgebauten) Mathematik-Preprintserver der Universität Kaiserslautern. Dieser Artikel umreißt die Aspekte, die hinter der Entwicklung des Dokumentenservers in der vorliegenden Form gestanden haben und gibt einen groben Überblick über die Systemarchitektur. Detailinformationen und eine Beschreibung des Systems findet man in meiner Arbeit Propadeutik metadatenbasierter Publikationsserver: Ontologie und konkordante Implementierung.
Gerade in einer von Globalisierungstendenzen geprägten Zeit wie heute - in der sowohl das Angebot als auch die Nachfrage an Informationen exponentiell wächst - gewinnen Publikationsserver an zunehmender Bedeutung: Die weltweite Verfügbarkeit und Recherchierbarkeit von elektronisch gespeicherten Ressourcen (bei gleichzeitig minimalen Kosten) sind zentrale Forderungen der Informationsgesellschaft und Antriebsmotor für internationale Informationsstrukturen. Bei der Konzeption von modernen Publikationsservern sollte daher a priori globales Denken und international anerkannte Konzepte im Vordergrund stehen. Ziel der vorliegenden Arbeit war die Unterstützung des Aufbaus eines Dokumentenservers für die Universität Kaiserslautern, der diesen Ansprüchen genügt. Im Rahmen dieser von Herrn Dr. Wolfgang Lenski (Fachbereich Informatik) betreuten Arbeit habe ich daher im ersten Teil als Orientierungsmöglichkeit eine Studie über aktuelle Bedürfnisse und Lösungsansätze angefertigt und die wesentlichsten Erkenntnisse niedergeschrieben: Nach der Formulierung eines Anforderungskataloges für Server, Ressourcen und Retrieval wird das international verbreitete Konzept der Metadaten als Ressourcenbeschreibung vorgestellt. Dieses dient zur Unterstützung effizienter und qualifizierter Retrievalverfahren die ihre Anwendung in komplexeren Systemen, wie beispielsweise dem, an der University of Colorado entwickelten, Resource-Discovery-System Harvest finden. Aufbauend auf diesen Erkenntnissen zeigt der zweite Teil in exemplarischen Zügen die Applizierung der vorgestellten Konzepte anhand der konkreten Realisation des Dokumentenservers KLUEDO der Universität Kaiserslautern. Ich beschränke mich hierbei im Wesentlichen auf den von mir entworfenen Teil der Systemarchitektur und das entwickelte Metadatenmanagementsystem.
Die Prämature Chromosomenkondensation (PCC) - Untersuchungen zum Einsatz in der Mutagenitätstestung
(1999)
In dieser Arbeit wurde die Wirkung der a,b-ungesättigten Aldehyde Crotonaldehyd (CA), trans-2-Hexenal (HX), und des N-Nitrosodiethanolamin (NDELA) untersucht. Als Kontrollsubstanzen wurde das als Aneugen bekannte Diethylstilbestrol (DES) und die als Klastogene bekannten Mutagene Mitomycin C (MMC) und Bleomycin (BLM) eingesetzt. Es wurde die Technik der vorzeitigen Chromosomenkondensation (PCC) an unstimulierten Lymphozyten in der G0-Phase eingesetzt, die für 1 Stunde mit dem jeweiligen Mutagen inkubiert worden waren. Das Ausmaß der mutagenen Schädigung bei den PCCs wurde lichtmikroskopisch durch Auszählen von Chromatinelementen analysiert. Ze llen mit mehr als 46 Chromatinelementen wurden als geschädigt gewertet. Die Resultate der PCC-Studien wurden mit den Ergebnissen aus 48 Stunden-Metaphasenkulturen verglichen. Mit der Fluoreszenz plus Giemsa (FPG)-Technik wurden die Mitosen, die zum erstenmal nach Mutagenapplikation das Metaphasestadium erreicht hatten, identifiziert. Die Metaphasenanalyse aus 48 Stunden-Kulturen zeigte für CA bei 60microM und für HX bei 100microM eine schwach signifikante Erhöhung der Anzahl aberranter Metaphasen. Die für CA zusätzlich durchgeführten 73 Stunden-Kulturen, bei denen die Mutagenbehandlung erst 48 Stunden nach Kulturansatz durchgeführt wurden, ergab ab 240microM eine schwach signifikante Erhöhung aberranter Metaphasen im Vergleich zu unbehandelten Lymphozyten. Die Analyse der Metaphasen aus 48 Stunden-Kulturen nach NDELA-Behandlung ergab, daß sich die Zahl der aberranten Metaphasen nur bei einer Konzentration von 2000microM signifikant im Vergleich zu den Zellen aus den Kontrollkulturen erhöhte. Die anderen getesteten NDELA-Konzentrationen auch die in den 73 Stunden-Kulturen eingesetzten erhöhten die Aberrrationsrate in den Metaphasechromosomen, allerdings statistisch nicht signifikant. Nach MMC-Behandlung (6microM) zeigten 27,5%, nach DES-Behandlung (100microM) 7,6% und nach Bleomycin-Behandlung (10microg/ml) 8,8% der Metaphasen Aberrationen. Damit war die Anzahl geschädigter Metaphasen im Vergleich zu den Zellen unbehandelter Kontrollkulturen nach MMC-Inkubation (6microM) und nach Bleomycin-Applikation (10microg/ml) statistisch hoch signikant, nach DES-Inkubation (100microM) allerdings nicht signifikant erhöht. Die PCC-Technik erwies sich als die im Vergleich zur Metaphasenanalyse sensitivere Methode. Alle getesteten Substanzen erhöhten die Anzahl der Chromatinelemente/Zelle dosisabhängig. Unbehandelte Lymphozyten wiesen zwischen 1,0 und 1,8 Fragmente pro geschädigte Zelle auf. Dabei waren zwischen 6,1 und 15,8% der unbehandelten Zellen geschädigt. Nach CA-Inkubation (240microM) stieg die Zahl geschädigter PCCs auf 48,7% an, wobei 3,4 Fragmente pro geschädigte Zelle zu beobachten waren. Nach Behandlung der Zellen mit HX(150microM) waren 42,9% der Zellen geschädigt und wiesen 4,6 Fragmente pro geschädigte Zelle auf. Damit war die Zunahme der Schädigung im Vergleich zur Kontrolle hoch signifikant. Die Inkubation mit NDELA schädigte die Lymphozyten in der G0-Phase bereits ab einer Konzentration von 1000microM hoch signifikant. Dabei waren 56,6% der Lymphozyten geschädigt und es traten 4,1 Fragmente pro geschädigte Zelle auf. Nach Inkubation mit MMC (20microM) waren 46,3% der Zellen geschädigt und wiesen 3,3 Fragmente pro geschädigte Zelle auf. Die Behandlung der Lymphozyten mit DES (200microM) induzierte in 26,3% der Zellen mehr als 46 Chromatinelemente pro Zelle, wobei 2,8 Fragmente pro geschädigte Zelle auftraten. Nach Behandlung der Lymphozyten mit a,b-ungesättigten Aldehyden wurde in den PCCs zusätzlich ein interessantes Phänomen beobachtet: die vorzeitig kondensierten Chromosomen erschienen im Vergleich zu den PCCs unbehandelter Zellen weniger stark kondensiert. Um das Ausmaß der Entspiralisierung erfassen zu können, wurden die PCCs zunächst semiquantitativ gemäß ihrem Kondensationsgrad in 4 Kategorien eingeteilt, wobei der Kategorie 1 die am stärksten kondensierten PCCs, der Kategorie 4 die am wenigsten kondensierten PCCs zugeordnet wurden. Bei einer CA-Konzentration von 480microM waren 55,6% und einer HX-Konzentration von 300microM waren 57,4% der untersuchten Zellen Kategorie 4 zuzuordnen. Durch die Kombination der PCC-Technik mit der Fluoreszenz in situ-Hybridisierung und den Einsatz einer Painting Sonde (exemplarisch für Chromosom 4) wurde die Längenveränderung der PCCs genauer quantifiziert werden. Dazu wurde die Länge der Chromosom 4-PCC vor und nach Behandlung mit Crotonaldehyd (240microM und 480microM) mit einem computergestützten Programm ausgemessen. So ergab sich nach Crotonaldehyd-Behandlung (480microM) durchschnittlich eine Längenzunahme um das zwei- bis dreifache. Elongierte PCCs wurden nach Inkubation der Lymphozyten mit NDELA und Bleomycin nicht beobachtet; nach Inkubation mit den Mutagenen MMC (20microM) und DES (200microM) trat dieses Phänomen nur leicht auf. Reparaturkinetikstudien mit den Hemmstoffen Arabinofuranosylcytosin, Hydroxyharnstoff und Novobiocin lassen eine verstärkte Excisionsreparatur als Ursache für die beobachtete verminderte Kondensation der PCCs nach Inkubation mit a,b-ungesättigten Aldehyden unwahrscheinlich erscheinen. Die nach Inkubation mit a,b-ungesättigten Aldehyden beobachtete verminderte Kondensation der PCCs ist eher das Resultat von Veränderungen der mitotischen Faktoren und/oder Chromatinstrukturen. Möglicherweise interferieren a,b-ungesättigte Aldehyde mit den Phosphorylierungsprozessen der Histone H1 und/oder H3, die für die PCC-Induktion bedeutsam sind und die durch die Aktivität der mitotischen Faktoren vermittelt werden.
Indirubin ist als antileukämischer Inhaltsstoff in Zubereitungen der traditionellen chinesischen Medizin erkannt und seine antineoplastische Wirkung in einer klinischen Studie an Patienten mit chronisch myeloischer Leukämie gezeigt worden. Ziel dieser Arbeit war es, bekannte und neue Indirubinderivate zu synthetisieren und Indizien für den Wirkmechanismus indigoider Bisindole zu finden. Ein Schwerpunkt sollte dabei in der Darstellung von in 5- und 3'-Stellung substituierten Indirubinderivaten liegen. Unter den 19 synthetisierten Indirubinderivaten sind die zehn neuen Verbindungen 5-Fluorindirubin, 5-Nitroindirubin, 5,5'-Dibromindirubin, das Natriumsalz der 5'-Bromindirubin-5-sulfonsäure, 5-Iodindirubin-3'-oxim sowie fünf Indirubin-5-sulfonsäureamidderivate. An der Verbindungsklasse werden detaillierte NMR-spektroskopische Untersuchungen vorgenommen. Außerdem werden Isoindigo und die beiden Bisindolderivate 2,2'-Bisindol sowie 3,3'-Diphenyl-2,2'-bisindol dargestellt. Identität und Reinheit der synthetisierten Verbindungen werden mittels Dünnschichtchromatographie, Elementaranalyse, Massenspektroskopie, Gaschromatograhie/Massenspektroskopie, UV-Spektroskopie sowie 1H-NMR- und 13C-NMR-Spektroskopie nachgewiesen. Ergänzt durch kommerziell erhältliche Indigoderivate steht damit eine Auswahl an 2',3-, 2,2'- und 3,3'-Bisindolderivaten zur Verfügung. Bei cyclovoltammetrischen Untersuchungen an Indirubin und 5-Iodindirubin werden im beobachteten Spannungsbereich bei beiden Derivaten eine im Sinne der Cyclovoltammetrie irreversible Oxidation und zwei reversible Reduktionen registriert. Die Höhe der Wellen deutet darauf hin, daß das Indirubinsystem bei den beiden Reduktionen jeweils ein Elektron aufnimmt und bei der Oxidation zwei Elektronen abgibt. Zumindest die erste Reduktion liegt mit einem Halbwellenpotential von -0,8 V in einem Bereich, der physiologisch zugänglich sein sollte. Eine Überführung in eine der vorgeschlagenen oxidierten oder reduzierten Strukturen hätte mit großer Wahrscheinlichkeit eine bessere Löslichkeit und damit eine erhöhte Transportfähigkeit der Indirubinderivate in wäßrigen Systemen zur Folge. Die Ergebnisse des Ethidiumbromidverdrängungsassays deuten darauf hin, daß einige Indirubinderivate interkalative Wechselwirkungen mit der DNA eingehen können. Bei 5-Fluorindirubin, Indirubin-3'-oxim und Indirubin-5-sulfonamid kann ein ED50-Wert bestimmt werden, der fast in der Größenordnung des starken Interkalators Doxorubicin liegt. Eine Beteiligung der Interkalation am Wirkmechanismus scheint bei 5-Fluorindirubin und Indirubin-3'-oxim möglich, denn beide hemmen im gleichen Konzentrationsbereich das Wachstum im Sulforhodamin B-Assay und im Colony-Forming-Assay. Im Colony-Forming-Assay ist Isoindigo die aktivste Substanz. Indirubinderivate haben durchschnittliche IC70-Werte, die eine Größenordnung höher liegen. Die drei Indirubinderivate mit einer freien Sulfonsäuregruppe sowie Indigo sind kaum wirksam. Die sulfonierten Indigoderivate sind inaktiv. Die beiden Melanomzellinien MEXF 989 und MEXF 515LX zeichnen sich gegenüber einigen Verbindungen durch eine bis um den Faktor 75 unterschiedliche Sensitivität aus. Die Mammakarzinomzellinie MCF 7 wird von den meisten der Indirubinderivaten sowie von den beiden 2,2'-Bisindolderivaten stärker gehemmt als der Durchschnitt. Im Luciferase-Assay an transfizierten MCF 7-Zellen kann kein Hinweis auf eine hormonrezeptorgekoppelte Wirkung gefunden werden. Im Sulforhodamin B-Assay sind Isoindigo und Indirubin-3'-oxim die wirksamsten Substanzen. Dies bestätigt das Ergebnis der durchschnittlichen Wirksamkeit in den Colony-Forming-Assays. Die geringe absolute Löslichkeit sowohl in der lipophilen als auch in der hydrophilen Phase verhindert bei etwa der Hälfte der Verbindungen eine exakte Bestimmung des Octanol-Wasser-Verteilungskoeffizienten (log POW). Dennoch wird für die restlichen Indirubinderivate eine gute Korrelation zwischen dem durchschnittlichen IC70-Wert im Colony-Forming-Assay und der Lipophilie der Substanzen gefunden. Das Optimum des log POW bewegt sich für Indirubinderivate in Bezug auf die Wachstumshemmung im Colony-Forming-Assay in einem Bereich von 3 bis 4. In ersten, orientierenden in vivo-Versuchen an thymusaplastischen Nacktmäusen, die das großzellige Lungenkarzinom LXFL 529 tragen, können Indirubin und 5-Chlorindirubin das Tumorwachstum verzögern aber nicht stoppen. 5-Methylindirubin, das schneller als die beiden anderen Derivate aus dem Injektionsbereich transportiert wird, kann ab etwa dem zehnten Tag der Behandlung das Tumorwachstum stoppen. Das Gesamtgewicht der Versuchstiere bleibt dabei konstant oder steigt leicht an. 5-Methylindirubin ist somit ein aussichtsreicher Kandidat für eine Weiterentwicklung in Richtung eines antineoplastischen Medikaments. Ausgehend von Indirubin kann durch die Variation der Substituenten eine Steigerung der Hemmwirkung am isolierten Enzymkomplex CDK1/Cyclin B um den Faktor 1200 erreicht werden. Das Natriumsalz der 3'-Hydroxyiminoindirubin-5-sulfonsäure hat einen IC50-Wert von 0,0083 microM. Die Substanzklasse besitzt außerdem eine hohe Selektivität gegenüber anderen Kinasen und übertrifft somit in Wirksamkeit und Selektivität die meisten bekannten CDK-Hemmstoffe. Für Isoindigo kann keine Hypothese zum Wirkmechanismus aufgestellt werden. Seiner hohen Aktivität im Colony-Forming-Assay und im Sulforhodamin B-Assay steht eine nur äußerst geringe Interkalationsfähigkeit sowie eine kaum vorhandene Fähigkeit zur Hemmung des Enzymkomplexes CDK1/Cyclin B gegenüber. In einer Röntgenstrukturanalyse von humaner CDK2 im Komplex mit Indirubin-5-sulfonat bzw. Indirubin-3'-oxim wird deutlich, daß sich die Inhibitoren in die ATP-Bindungstasche einlagern. Im Bereich der Aminosäuren Phe80 bis His84 ist die Form der Indirubinmoleküle komplementär zu der gekrümmten Form der ATP-Bindungstasche, ein Effekt wie er auch bei anderen CDK-Hemmstoffen beobachtet wurde. Die Ausbildung von drei Wasserstoffbrückenbindungen sowie lipophile Wechselwirkungen sind essentiell für die starke Bindung beider Derivate. Anhand der gemessenen Struktur wird deutlich, daß die 5-Position die ideale Substitutionsposition an den Benzolkernen darstellt. Indirubin-5-sulfonat bildet durch die Sulfonatgruppe ionische Wechselwirkungen mit einer Lysinseitenkette (Lys33) des Enzyms aus, die zu einer weiteren Affinitätssteigerung führen. Die Oximgruppe in Position 3' ragt in einen freien Raumbereich, der von anderen Hemmstoffen besetzt wird und eröffnet daher die Möglichkeit, weitere funktionelle Gruppierungen einzubringen und so die Hemmstärke und die Selektivität der Indirubinderivate noch zu steigern. Läßt man die ionischen Verbindungen, die aufgrund ihrer Ladung die Zellmembran (und Zellkernmembran) wahrscheinlich nicht durchdringen können, außer Betracht, so fällt auf, daß alle starken Inhibitoren des Enzymkomplexes CDK1/Cyclin B auch zu einer starken Wachstumshemmung im Colony-Forming-Assay führen. Eine Schwächung der Affinität zwischen Inhibitor und CDK1 durch eine Substitution am N1-Stickstoff führt gleichzeitig zu einem Abfall der Wirksamkeit im Colony-Forming-Assay und in anderen Testsystemen. Durch die Röntgenstrukturanalyse wird verständlich, wie eine Substitution an dieser Stelle die Wechselwirkung zwischen Inhibitor und Enzym abschwächt. Die Befunde deuten darauf hin, daß der antineoplastischen Wirkung von Indirubinderivaten ein komplexes Zusammenspiel mehrerer Teilmechanismen zugrunde liegt, möglicherweise unter Beteiligung von Int erkalation und Redoxcycling, wobei der Hauptwirk mechanismus in der Inhibierung cyclinabhängiger Kinasen besteht.
Die geometrische Eigenschaft "Chiralität", der man sowohl in der Wissenschaft als auch unbewußt im Alltag sehr oft gegenübersteht, wurde von Lord Kelvin 1884 in folgender Weise definiert [1, 2]: "Ich nenne jede geometrische Figur oder Anordnung von Punkten chiral und sage, sie besitzt Chiralität, wenn ihr ideales Spiegelbild nicht mit sich selbst zur Deckung gebracht werden kann." Vom Gesichtspunkt der Symmetrie a us betrachtet, sind also alle Objekte chiral, die keine Drehspiegelachsen (Sn) besitzen. Dabei ist z.B. an die beiden Enantiomere des Moleküls Bromchlorfluormethan zu denken oder einfach an die rechte und die linke Hand des Menschen. Ein differenzierteres Bild der Eigenschaft Chiralität erhält man, wenn man ein Konzept diskutiert, in dem vier "Ebenen" der Chiralität eingeführt werden [3]. Die erste, in weiten Kreisen unbekannte Ebene, ist die Chiralität der Atome verursacht durch die sogenannten schwachen Wechselwirkungen [4, 5, 6]. Die aus einzelnen Atomen aufgebauten Moleküle stellen die zweite Ebene dar. Die dritte Ebene wird als "suprastrukturelle Chiralität" bezeichnet und steht in isotropen Phasen für eine Anordnung von Atomen oder Molekülen verursacht durch Nahordnungen, in anisotropen Phasen verursacht durch Orientierungs- oder Positionsfernordnungen. Die Form eines makroskopischen Objekts kann als vierte Ebene betrachtet werden. Dabei kann die "Information Chiralität" von einer Ebene zur nächsten übertragen werden. Die Homochiralität der lebenden Welt, d.h. daß z.B. alle natürlich vorkommenden Aminosäuren L-Aminosäuren sind, könnte sich in der Übertragung der Chiralität von der Ebene der Atome auf die Ebene der Moleküle äußern. Ein Beweis dieser Übertragung ist mit den heutigen experimentellen Mitteln jedoch nicht möglich. Die Übertragung der Chiralität vom Molekül auf die Phase ist im Rahmen der chiralen Induktion sehr gut untersucht, während es zur Übertragung von der dritten Ebene auf die makroskopische Form eines Objektes weniger Studien gibt. Als Beispiele für ein System, das sowohl Chiralität der Ebene zwei als auch der Ebene drei besitzt, können die cholesterische oder die smektische C * Phase dienen. Die Chiralität setzt sich dort sowohl aus einem Beitrag des einzelnen Moleküls als auch aus einem Beitrag der Phase zusammen [7, 8]. Ein chirales Molekül mit der absoluten Konfiguration R oder S kann eine cholesterische Phase der Helizität P oder M induzieren [9]. Damit würde die Information absolute Konfiguration der Ebene 2 auf die Helizität der Phase übertragen. Ein weiteres typisches Beispiel sind substituierte Hexahelicene, die nach Überschreiten einer Grenzkonzentration in manchen organischen Lösungsmitteln zur Bildung columnarer Aggregate neigen [10]. Suprastrukturelle Chiralität kann aber auch an einem System aus achiralen Molekülen, also ohne Chiralität der Ebene zwei, beobachtet werden, wie z.B. an Phasen, die aus sog. "bananenförmigen Verbindungen" aufgebaut sind [11, 12, 13]. Die Stabilisierung der chiralen Phase ist verbunden mit der räumlichen Trennung der chiralen Domänen verschiedener Händigkeit. Bei NaClO3 kann man beobachten, daß im Kristallisationsprozeß zufällig Keime mit rechts- oder linkshändiger Struktur entstehen. In diesem Zusammenhang wird behauptet, daß durch Rühren der Lösung beim Kristallisationsvorgang ein Überschuß einer der beiden Formen erzeugt werden, und daß das ganze System durch einen kinetischen Effekt rein in einer der beiden enantiomeren Formen kristallisieren kann [14, 15]. Gerade in letzter Zeit konzentrieren sich Untersuchungen zunehmend auf Systeme mit suprastruktureller Chiralität, oftmals Polymere, unter ande rem wegen ihrer vielseitigen technologischen Anwendbarkeit. Seit es zu Beginn der achtziger Jahre gelang, durch geeignete organische Substituenten lösliche Poly(dialkylsilylene) zu erhalten [16, 17, 18], stieg das Interesse an dieser Verbindungsklasse nicht zuletzt wegen ihrer optischen Eigenschaften. Insbesondere ist hier die Verwendung der Poly(dialkylsilylene) im Bereich der Fotoleitung [19], nicht linearen Optik [20], Datenspeicherung [21] und Displayherstellung [22] zu erwähnen. Es ist bekannt, daß einige Poly(di-n-alkylsilylene) wie z. B. Poly(dipropylsilylen) und Poly(dipentylsilylen) mit 7/3 helikaler Konformation des Siliziumgerüstes kristallisieren [23, 24, 25]. Dabei ist der Anteil an Rechts- und Linkshelix gleich verteilt. Die Bevorzugung eines Helixdrehsinns kann erreicht werden, wenn optisch aktive Substituenten in das Polymer eingebaut werden [26, 27, 28]. Bei chiralen diacetylenischen Phospholipiden findet eine Umorientierung der Lipidmoleküle in Membrandoppelschichten statt, die zur Verdrehung der Membran zu einem zylinderförmigen Gebilde führt [29]. Die auf diesem Weg gebildeten Hohlkörper dienen als Matrize für die Herstellung metallischer Röhren mit streng definiertem Durchmesser. Sie finden Anwendung bei der Vakuum-Feldemission und in controlled-release -Systemen zum Korrosionsschutz und zur Vorbeugung von Pilzbefall [30].
Im Rahmen dieser Arbeit wurden mehr als 50 Verbindungen aus der Klasse der TADDOLe oder ihrer Analoga bzgl. ihrer HTP und ihrer UV- und CD-Spektroskopie untersucht. Dabei wurde für alle Verbindungen die HTP im Flüssigkristall ZLI-1695 temperaturabhängig bestimmt. Für 30 dieser Verbindungen wurde als Vergleich die HTP temperaturabhängig auch in K15 gemessen. Es ist erstmals möglich innerhalb einer Verbindungsklasse die HTP von neuen Verbindungen mit Hilfe von empirischen Regeln vorherzusagen. Somit konnte die bislang höchste bekannte HTP durch eine gezielte Synthese um mehr als 100% gesteigert werden (56 in K15). Es besteht nun die Möglichkeit, TADDOLe je nach gewünschter HTP maßzuschneidern. Aufgrund des hohen Verdrillungsvermögens von einigen TADDOLen wurde die Substanzklasse als Chirale Verbindungen gemeinsam mit Seebach und der BASF patentiert [7-1] sowie an weiteren Stellen veröffentlicht [7-2,3-8]. Das Vorzeichen der HTP der TADDOLe kann mit dem Vorzeichen bei der enantioselektiven Synthese korreliert werden und mit einer einfachen Regel vorhergesagt werden. Alle hier untersuchten TADDOLe mit einer R,R-Konfiguration induzieren eine Rechtshelix. Der Vergleich von HTP-Werten mit Ergebnissen aus der NMR-, anisotropen UV- und CD-Spektroskopie und Exziton-Theorie geben Ansätze, mit denen man verschiedene Einflüsse auf die HTP der TADDOLe diskutieren kann. Die Orientierungsachse bei den TADDOLen liegt senkrecht zur C2-Achse. Dies wurde mit Hilfe von 2 H-NMR für die Verbindungen 2, 3, 4 und mit Hilfe von 13 C-NMR für die Verbindungen 2, 13, 43, 45, 46 von I. Kiesewalter [7-9] gezeigt. Aus anisotropen UV-Messungen folgt diese Lage der Orientierungsachse für 3, 4, 5, 6, 8, 60, 61. Selbst bei den in C2-Richtung stark verlängerten Molekülen 60, 61 ändert sich der Anisotropiegrad und der ACD im Vergleich zu 3, 8 nur unwesentlich, was ein starkes Argument dafür ist, daß die Orientierungsachse bei den hier untersuchten TADDOLen immer senkrecht zur C2-Achse liegt. Die Mittlere Stellung der Arylgruppen zueinander hat einen Einfluß auf die Parameter der empirischen Regeln für die HTP. Verbindungen 58 und 63 unterscheiden sich nur durch den Austausch Wasserstoff-Methyl im Acetalbereich von den Verbindungen 3, 8. Die HTP ändert sich drastisch, ebenso der UV und der CD. Daraus folgt, daß die Arylgruppen im Mittel anders stehen. Anders ist der Fall beim Vergleich 3 mit 5 und 8 mit 6. Hier gibt es kaum Änderung im CD und kaum Änderung in der HTP. Ein Fall, der in der Mitte liegt sind 3 und 4. Eine Änderung im CD führt zu Änderung in der HTP bei gleichem Chromophor. Durch die Drehbarkeit um 4 C-Arylachsen besitzen die TADDOLe Konformere. Jedoch sind die Konformere sich sehr ähnlich. MM2-Rechnungen zeigen, daß sich die Konformere nur aufgrund von 180°-Drehungen der Arylgruppen um die C-Arylachse unterscheiden. Die MM2-Rechnungen wurden von Plattner [7-10] durchgeführt. Viele TADDOLe zeigen ein ähnliches konformatives Verhalten. Sie besitzen ca. 37% Temperaturabhängigkeit im CD zwischen 5°C und 75°C. Für diese Untersuchungen wurde im Rahmen dieser Arbeit eine neue Meßzelle konstruiert, die Langzeitmessungen bei Temperaturen erlaubt, die nur ca. 7°C unterhalb des Siedepunktes des Lösungsmittels liegen ohne, daß das Lösungsmittel während der Messung verdampft. Man kann es somit vermeiden, daß man eine zeitabhängige Konzentrationszunahme erhält. Weiterhin muß das verwendete Uvasol-Acetonitril gereinigt werden, um eine Zersetzung der TADDOLe während der Messung zu verhindern. Für die Bestimmung des Ordnungstensors werden bei der NMR-Methode Geometrien benötigt. Dazu wurden von den Verbindungen 4, 13, 46 Röntgenstrukturen angefertigt [7-11]. Die Verbindungen 4 und 46 bilden wegen der Überbrückung gleichzeit ig einen guten Vergleich zu den Metallkomplexen, wie sie bei der enantioselektiven Synthese eingesetzt werden. Mit der Geometrie aus der Röntgenstruktur von 4 wurde mit Hilfe der Exziton-Theorie das CD- und UV-Spektrum berechnet. Durch den Vergleich von gemessenen und nach der Exziton-Methode berechneten UV- und CD-Spektren ist man in der Lage mehr über eine mögliche Geometrie in Lösung zu sagen als nur mit der Röntgengeometrie und MM2-Rechnungen. Hierbei wurden Rechnungen an den Verbindungen 3, 4, 6 durchgeführt. Die Exziton-Methode wurde erstmals auf ein 4-Körperproblem eines organischen Nicht-Polymer-Moleküls angewendet. Das 3-Körperproblem [7-12] sowie die Beschreibung von Polymermolekülen sind in der Literatur bekannt[7-13]. Einige TADDOLe wurden, um große Effekte von kleinsten Verunreinigungen auszuschließen, ausgehend von einer Reinheit größer 99% (HPLC) so weit aufgereinigt, daß mit HPLC keine Verunreinigung mehr nachweisbar war. Verbindung 4 wurde im Rahmen dieser Arbeit synthetisiert. Die AHTP konnte erstmals für ein chirales Molekül außerhalb des experimentellen Fehlers nachgewiesen werden.
Metall-Ligand-Mehrfachbindungssysteme üben von jeher eine große Anziehungskraft auf den Chemiker aus. Selbst zwei Jahrhunderte nach der Entdeckung der ersten Eisen-Sauerstoff-Mehrfachbindung im Na2FeO4 ist die Faszination an dieser sich dynamisch entwickelnden Richtung der metallorganischen Chemie ungebrochen [1] . So vielfältig wie die verwendeten Metalle und Liganden - bis zum heutigen Tage kennt man Mehrfachbindungen zwischen Übergangsmetallen und den meisten Elementen der 4., 5. und 6. Hauptgruppe - so beeindruckend ist auch die Fülle von Übersichtsartikeln und unterschiedlichsten Publikationen zu diesem Forschungsgebiet [2] . Einen wesentlichen Impuls für das stetig wachsende Interesse stellt die große Zahl von wichtigen industriellen Prozessen dar, in denen Komplexe mit Metall-Ligand-Mehrfachbindungen eine entscheidende Rolle spielen. Exemplarisch sind zu nennen die Haber-Ammoniak-Synthese, die Reduktion von Nitrilen und das SOHIO-Verfahren zur Umwandlung von Propylen in Acylonnitril [3-5] . Desweiteren werden jährlich ca. 14 Millionen Tonnen chemischer Stoffe durch Oxidationsprozesse hergestellt [6] . Wer würde ernsthaft behaupten, die Mechanismen metallkatalysierter Prozesse wirklich zu kennen? Allein diese wenigen Beispiele zeigen auf, wie wichtig das Verständnis für Struktur und Bindungsverhältnisse sowie das Reaktionsverhalten rein anorganischer und metallorganischer Verbindungen ist und welcher großen Herausforderung sich die Grundlagenforschung in den nächsten Jahren zu stellen hat, ungeachtet der Verdienste, die sie bis dato erzielte.
Im Mittelpunkt der vorliegenden Dissertation stehen Synthesen neuer fünfgliedriger, heterocyclischer Betaine und die Durchführung anschließender Reaktivitätsstudien. Der Zugang zu heterocyclischen Betainen kann auf zwei unterschiedlichen Reaktionswegen realisiert werden. Dabei müssen jeweils als direkte Vorläufer der neuen fünfgliedrigen Betaine I Heterocumulen-Derivate des Typs II diskutiert werden, die in g-Position zu ihrer Isocyanat-, Keten-, Ketenimin- bzw. Thioketen-Einheit eine Dialkylaminogruppe besitzen (s. Schema 83). Die direkte Cyclisierung zu den neuen Betainen erfolgt dann über einen nukleophilen Angriff des freien Elektronenpaars der Dialkylaminogruppe an das Heterocumulensystem. Der erste Teil meiner Arbeit beschreibt die Herstellung heterocumulenischer Systeme vom Typ II durch die Umsetzungen von Chlorcarbonyl-Heterocumulenen (Chlorcarbonylketenen bzw. Chlorcarbonylisocyanaten) mit monoprotischen 1,2-Binukleophilen (Hydroxylaminen, Hydrazinen und Pyrazolen). Im zweiten Teil werden die neuen Betaine I durch Umsetzungen des N-(Trimethylsilylethinyl)-N,N ,N -trimethylhydrazins mit Arylisothiocyanaten realisiert. Im dritten Teil der Arbeit beschäftige ich mich mit der Umwandlung der hergestellten Thioxo- Betaine in ihre Oxo-Analoga mit Hilfe von Entschwefelungsreagentien. Das vierte Arbeitsfeld befaßt sich schließlich mit Isomerisierungs- und Alkylierungsreaktionen an ausgewählten Pyrazolidinium-4-id-Betainen.
Im Rahmen des Sonderforschungsbereichs SFB314, Projekt X9 "Lernen und Analogie in technischen Expertensystemen", wurde die Verwendbarkeit von Techniken des fallbasierten Schliessens in wissens- basierten Systemen untersucht. Als prototypische Anwendungsdomäne wurde die Arbeitsplanerstellung rotationssymmetrischer Werkstücke gewählt. Im vorliegenden Beitrag wird ein Modell der Arbeits- planerstellung unter Berücksichtigung der verschiedenen, bisher als unabhängig behandelten Planungsmethoden beschrieben. Auf der Basis einer modelbasierte Wissensakquistion aus in Unternehmen verfügbaren Arbeitsplänen wird ein Ausschnitt der Arbeitsplanerstellung, die Aufspannplanung, detailliert. Die Anwendbarkeit wurde durch eine prototypische Realisierung nachgewiesen.
In nebenläufigen Systemen erleichtert das Konzept der Atomarität vonOperationen, konkurrierende Zugriffe in größere, leichter beherrschbareAbschnitte zu unterteilen. Wenn wir aber Spezifikationen in der forma-len Beschreibungstechnik Estelle betrachten, erweist es sich, daß es un-ter bestimmten Umständen schwierig ist, die Atomarität der sogenanntenTransitionen bei Implementationen exakt einzuhalten, obwohl diese Ato-marität eine konzeptuelle Grundlage der Semantik von Estelle ist. Es wirdaufgezeigt, wie trotzdem sowohl korrekte als auch effiziente nebenläufigeImplementationen erreicht werden können. Schließlich wird darauf hinge-wiesen, daß die das Problem auslösenden Aktionen oft vom Spezifiziererleicht von vorneherein vermieden werden können; und dies gilt auch überden Kontext von Estelle hinaus.
Bestimmung der Ähnlichkeit in der fallbasierten Diagnose mit simulationsfähigen Maschinenmodellen
(1999)
Eine Fallbasis mit bereits gelösten Diagnoseproblemen Wissen über die Struktur der Maschine Wissen über die Funktion der einzelnen Bauteile (konkret und abstrakt) Die hier vorgestellte Komponente setzt dabei auf die im Rahmen des Moltke-Projektes entwickelten Systeme Patdex[Wes91] (fallbasierte Diagnose) und iMake [Sch92] bzw. Make [Reh91] (modellbasierte Generierung von Moltke- Wissensbasen) auf.
Deduktionssysteme
(1999)
Planverfahren
(1999)
Entwurf einer formalen Semantik für Estelle unter Verwendung von TLA mit Prädikatentransformatoren
(1999)
Die formale Beschreibungstechnik Estelle wird in einem internationalen Standarddefiniert. Ein Hauptnutzen einer formalen Semantik für eine Beschreibungs-sprache besteht darin, daß sie die formale Verifikation von Systembeschreibungenermöglicht. Leider ist die im Standard enthaltene Semantikdefinition für Estellenicht formal (und verständlich) genug, um formale Verifikation zu ermöglichen.Daher wird in dieser Arbeit ein Ansatz entwickelt, um die Semantik von Estellevollständig formal und in einer für die Verifikation geeigneten Weise zu definieren. Für diesen Ansatz werden ausführliche Untersuchungen angestellt, insbesondere über die Methoden der Verifikation, die unterstützt werden müssen, und über eine geeignete Darstellung der sogenannten " Transitionen" von Estelle. Um die hieraus resultierenden Forderungen zu erfüllen, wird ein neuer Formalismus entworfen, in dem Lamports temporale Logik der Aktionen und Dijkstras Prädikaten-transformatoren vereinigt werden. Anschließend wird die Definition der gesamten Semantikvon Estelle skizziert und die Definition des " Kerns von Estelle", des sogenannten Ausführungsmodells, in diesem Formalismus vollständig ausgeführt. Es zeigtsich, daß der neue Ansatz die formale Verifikation von Estelle Spezifikationen beimechanischer Unterstützung nun möglich erscheinen läßt. Eine Ausarbeitung derDetails des zum Formalismus gehörigen Schlußsystems und der skizzierten Gesamt-Semantik verbleibt allerdings zukünftigen Arbeiten.
Die Verwendung von existierenden Planungsansätzen zur Lösung von realen Anwendungs- problemen führt meist schnell zur Erkenntnis, dass eine vorliegende Problemstellung im Prinzip zwar lösbar ist, der exponentiell anwachsende Suchraum jedoch nur die Behandlung relativ kleiner Aufgabenstellungen erlaubt. Beobachtet man jedoch menschliche Planungsexperten, so sind diese in der Lage bei komplexen Problemen den Suchraum durch Abstraktion und die Verwendung bekannter Fallbeispiele als Heuristiken, entscheident zu verkleinern und so auch für schwierige Aufgabenstellungen zu einer akzeptablen Lösung zu gelangen. In dieser Arbeit wollen wir am Beispiel der Arbeitsplanung ein System vorstellen, das Abstraktion und fallbasierte Techniken zur Steuerung des Inferenzprozesses eines nichtlinearen, hierarchischen Planungssystems einsetzt und so die Komplexität der zu lösenden Gesamtaufgabe reduziert.
In den letzten Jahren wurden Methoden des fallbasierten Schliessens häufig in Bereichen verwendet, in denen traditionell symbolische Verfahren zum Einsatz kommen, beispielsweise in der Klassifikation. Damit stellt sich zwangsläufig die Frage nach den Unterschieden bzw. der Mächtigkeit dieser Lernverfahren. Jantke [Jantke, 1992] hat bereits Gemeinsamkeiten von Induktiver Inferenz und fallbasierter Klassifikation untersucht. In dieser Arbeit wollen wir einige Zusammenhänge zwischen der Fallbasis, dem Ähnlichkeitsmass und dem zu erlernenden Begriff verdeutlichen. Zu diesem Zweck wird ein einfacher symbolischer Lernalgorithmus (der Versionenraum nach [Mitchell, 1982]) in eine äquivalente, fallbasiert arbeitende Variante transformiert. Die vorgestellten Ergebnisse bestätigen die Äquivalenz von symbolischen und fallbasierten Ansätzen und zeigen die starke Abhängigkeit zwischen dem im System verwendeten Mass und dem zu lernenden Begriff.
Die Mehrzahl aller CBR-Systeme in der Diagnostik verwendet für das Fallretrieval ein numerisches Ähnlichkeitsmass. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem durch die Einführung eines an den Komponenten des zu diagnostizierenden technischen Systems orientierten Ähnlichkeitsbegriffs nicht nur das Retrieval wesentlich verbessert werden kann, sondern sich auch die Möglichkeit zu einer echten Fall- und Lösungstransformation bietet. Dies führt wiederum zu einer erheblichen Verkleinerung der Fallbasis. Die Ver- wendung dieses Ähnlichkeitsbegriffes setzt die Integration von zusätzlichem Wissen voraus, das aus einem qualitativem Modell der Domäne (im Sinne der modellbasierten Diagnostik) gewonnen wird.
Patdex is an expert system which carries out case-based reasoning for the fault diagnosis of complex machines. It is integrated in the Moltke workbench for technical diagnosis, which was developed at the university of Kaiserslautern over the past years, Moltke contains other parts as well, in particular a model-based approach; in Patdex where essentially the heuristic features are located. The use of cases also plays an important role for knowledge acquisition. In this paper we describe Patdex from a principal point of view and embed its main concepts into a theoretical framework.
Die Realisierung zunehmend komplexer Softwareprojekte erfordert das direkte und indirekteZusammenwirken einer immer größer werdenden Zahl von Personen. Die dafür benötigte Infrastrukturist mit der zunehmenden globalen Rechner-Vernetzung bereits vorhanden, doch wird ihr Potential vonherkömmlichen Werkzeugen in der Regel bei weitem nicht ausgeschöpft. Das in diesem Artikelvorgestellte Rahmenmodell für Softwareentwicklung wurde explizit im Hinblick auf die globaleKooperation von Entwicklern entworfen. WebMake, eine auf diesem Modell basierende Software-entwicklungsumgebung, adressiert das Ziel seiner Einsetzbarkeit im globalen Maßstab durch dieVerwendung des World-Wide Web als Datenspeicherungs- und Kommunikationsinfrastruktur.
Der ständig zunehmende Einsatz verteilter DV-Systeme führt zu einem stark steigendenBedarf an verteilten Anwendungen. Deren Entwicklung in den verschiedensten Anwen-dungsfeldern wie Fabrik- und Büroautomatisierung ist für die Anwender bislang kaum zuhandhaben. Neue Konzepte des Software Engineering sind daher notwendig, und zwar inden drei Bereichen 'Sprachen', 'Werkzeuge' und 'Umgebungen'. Objekt-orientierte Me-thoden und graphische Unterstützung haben sich bei unseren Arbeiten als besonders taug-lich herausgestellt, um in allen drei Bereichen deutliche Fortschritte zu erzielen. Entspre-chend wurde ein universeller objektorientierter graphischer Editor, ODE, als einesunserer zentralen Basis-Werkzeuge ('tool building tool') entwickelt. ODE basiert aufdem objekt-orientierten Paradigma sowie einer leicht handhabbaren funktionalen Sprachefür Erweiterungen; außerdem erlaubt ODE die einfache Integration mit anderen Werk-zeugen und imperativ programmierten Funktionen. ODE entstand als Teil von DOCASE,einer Software-Produktionsumgebung für verteilte Anwendungen. Grundzüge von DO-CASE werden vorgestellt, Anforderungen an ODE abgeleitet. Dann wird ODE detaillier-ter beschrieben. Es folgt eine exemplarische Beschreibung einer Erweiterung von ODE,nämlich der für die DOCASE-Entwurfssprache.
Typologie spielt in der Geschichte der Architekturtheorie seit jeher eine Schlüsselrolle innerhalb der Diskussion und Forschung über Architektur. In der Architektur existiert Typologie meist als Form der Klassifikation von Architektur bzw. im Versuch den "Archetyp", die abstrakte "Idee" der Architektur, vorzustellen. Die bisher angewendeten Ordnungssysteme zur Klassifikation beschränken sich auf wenige Strukturmerkmale (z.B. Nutzung, Konstruktion, Stil/Epoche). Dabei wird zwangsläufig ein Großteil von Informationen der Objekte ausgeblendet. Die Einteilungen der Gliederungsebenen werden subjektiv festgelegt. Diese subjektiv hierarchische Ordnung erzeugt das Problem, dass eine Wertung bereits im System immanent ist. Soll ein Ordnungssystem jedoch die Möglichkeit einer objektiven Wertung enthalten, so ist es eine unabdingbare Voraussetzung, dass keine subjektive Wertung bereits im Gliederungssystem vorliegt. Die vorliegende Arbeit zeigt, wie es möglich ist, ein System der Ordnung zu entwickeln, das Typologie, basierend auf der Trennung von Architektur und Bauen, unter Beachtung des Phänomens der ästhetischen Differenz, nur aus Beschreibungen von Gebäuden mit nachweislich objektimmanenten Kriterien, ohne Wertungen im System selbst, konstituiert. Diese Typologie kann für weiterreichende Entwurfs- und Bewertungssysteme die Grundlage bilden. Der bisher vorherrschende Typusbegriff wird dabei zugunsten eines temporären, fluktuierenden Typus aufgehoben. Mit diesem Typologieansatz werden Voraussetzungen geschaffen, die Objekte der Architektur grundsätzlich vergleichbar machen. Auch wenn ein empirischer Ansatz nicht zwingend nötig ist, da diese Grundlagen auch theoretisch nachgewiesen sind, werden die vorgestellten Thesen, da diese Vorgehensweise für Untersuchungen von Architektur und Gebäuden von den bekannten Verfahren wesentlich differiert, im Modellversuch dargestellt. Als Untersuchungsgegenstände sind exemplarisch "industriell gefertigte Waschbeton-Minimalbaukörper als Verwahrräume für Entsorgungsgüter in der Bundesrepublik Deutschland" als abgeschlossene Population ausgewählt.
In der vorliegenden Arbeit wird die Zeitfestigkeit von Verbundträgern mit Profilblechen unter Berücksichtigung der während der Einstufen-Belastung im Versuch auftretenden Veränderungen (zyklische Dübelkennlinien, Kraftumlagerungen, ...) im System Verbundträger behandelt. Aus den Ergebnissen der Push-Out-Versuche wird eine Ermüdungsfestigkeitskurve -Wöhlerlinie - bestimmt, die im weiteren Grundlage der Zeitfestigkeitsuntersuchungen der Kopfbolzendübel in Betongurten mit Profilblechen ist. In einer ersten, vereinfachten Versuchsauswertung werden die Dübelkräfte der Verbundträger über die Elastizitätstheorie nach dem elastischen Schubfluß und unter Annahme starrer Verdübelung (d. h. Ebenbleiben des Gesamtquerschnitts) ermittelt. Daraus wird dann die Zeitfestigkeit berechnet. Die Bestimmung der Restlebensdauer der Verbundmittel über nichtlinear berechnete Dübelkäfte unter Berücksichtigung der Nachgiebigkeit in der Verbundfuge - jedoch mit Steifigkeiten wie bei Erstbelastung - erfolgt in einer zweiten Auswertungsstufe. Um die wahrscheinlichen Vorgänge im Verbundträger unter wiederholter Be- und Entlastung erklären und anschließend in Computersimulationen nachvollziehen zu können, wird in den Kapiteln 4 bis 6 das phänomenologische Verhalten der einzelnen Komponenten des Verbundträgers (Stahlträger, Betongurt und Verdübelung) unter zyklischer Beanspruchung behandelt. Unter der Annahme, daß die einzelnen Komponenten ihr phänomenologisches Verhalten unter zyklischer Beanspruchung auch im Verbundträger -Zusammenwirken der einzelnen Komponenten zu einer gemeinsamen Tragwirkung- beibehalten, wird in Kapitel 7 ein Rechenmodell entwickelt. Mit den hergeleiteten zyklischen Dübelkennlinien und nichtlinearen Computersimulationen werden Schädigungen für alle Elemente (Dübel, Stahlträger) der Verbundträger - zu jedem Zeitpunkt während der Versuchsdauer - bestimmt. Mittels der linearen Schadensakkumulationshypothese von Palmgren-Miner und mit den für die einzelnen Elementen bestimmten Ermüdungsfestigkeitskurven wird daraus die jeweilige Restlebensdauer berechnet. Dabei werden die ständigen Veränderungen im nichtlinearen Tragverhalten der Verbundträger aufgrund der Kraftumlagerungen infolge der zyklischen Kennlinien, der Nachgiebigkeit in der Verbundfuge, des Ausfalls einzelner Dübel, der evtl. auftretenden bleibenden Verformungen, der unterschiedlichen Be- und Entlastungspfade, ..., in den Simulationsberechnungen erfaßt. Abschließend wird das Verbundträgertragverhalten bis zum endgültigen Versagen (Bruch des Trägers) auch nach dem Abscheren (Ausfall) des ersten Dübels dargestellt.
Zunehmende Kritik an den Wohngebieten der vergangenen Jahre, die als Schlafstädte bezeichnet werden, die Probleme der jüngeren Generation, die vom Medienkonsum, über Gewaltbereitschaft bis zur Politikverdrossenheit reichen, machen ein planerisch angemessenes Handeln sowohl bei der Gestaltung der Wohngebiete als auch bei der Beteiligung immer dringlicher. Dies kommt in den Arbeiten der Kinder und Jugendlichen zum Ausdruck. Im Rahmen der vorliegenden Arbeit wurde eine methodische Vorgehensweise zur Beteiligung von Kindern und Jugendlichen theoretisch entwickelt und praktisch angewendet, um so zur inhaltlichen Definition von Bedürfnissen beizutragen. Die aus forschungsökonomischen Gründen in Rheinland-Pfalz durchgeführten empirischen Beteiligungen bedürfen dabei sicherlich im Hinblick auf die Einbindung von Kindern und Jugendlichen aus Großstädten noch weiterer Untersuchungen. Ebenso besteht im Zusammenhang mit dem Programm der Sozialen Stadt, bei der Beteiligung von Kindern aus sozialen Brennpunkten und der Einbindung von ausländischen Jugendlichen Untersuchungsbedarf. Deutlich kamen die Probleme der Mädchen im öffentlichen Raum zum Ausdruck, so dass sowohl bei der Beteiligung als auch in der Bauleitplanung Handlungsbedarf besteht. Es hat sich gezeigt, dass Kinder und Jugendliche als Stellvertreter/-innen ihre Bedürfnisse ausdrücken können. Bei der Gestaltung der Wohngebiete müssen die ingenieurtechnischen Gesichtspunkte gegenüber den sozialen und kommunikativen Aspekten in den Hintergrund treten, damit sie den Bedürfnissen der Kinder und Jugendlichen entsprechen. Erforderlich ist, dass alle Planungsverantwortlichen von der Politik über die Verwaltung bis zu den Planerinnen und Planern für die Bedürfnisse sensibilisiert und über diese informiert werden und die Möglichkeiten des Baugesetzbuches ausgeschöpft bzw. weitere gesetzliche Grundlagen geschaffen werden. Es wird damit auch ein Beitrag zu einer stärkeren Demokratisierung der Planung geleistet und der Forderung einer nachhaltigen Stadtentwicklung, wie sie z.B. in der Agenda 21 gefordert wird, entsprochen.
In dieser Arbeit wurde die Induktion von Apoptose durch vier a,b-ungesättigte Aldehyde und ein zyklisches Keton untersucht. Die Apoptoseinduktion wurde mittels 2-Parameter-Durchflußzytometrie (DNA-/Proteinmessung), Fluoreszenzmikroskopie und DNA-Isolation bestimmt. Es wurden dazu Konzentrationskinetiken (0 bis 150microM) und Zeitkinetiken (1h-Inkubation mit anschließender Postinkubation bis 24h bzw.72h bei Molt4; 0h bis 24h bei 2-Cyclohexen-1-on) an den humanen Zellinien U937, HL-60, K562 und Molt4 aufgestellt. Bei den Zellinien U937 und HL-60 konnte die induzierte Apoptose sowohl quantitativ (durchflußzytometrisch und morphologisch) als auch qualitativ (DNA-Leiter) eindeutig bestimmt werden. Für alle Verbindungen wurde eine dosis- und zeitabhängige Induktion von Apoptose detektiert. Darüberhinaus lieferte die morphologische Analyse Informationen über die Verteilung der einzelnen Apoptosestadien. Die Zellinien K562 und Molt4 zeigten keine so deutliche Übereinstimmung zwischen den 3 Detektionsmethoden. Für die Zellinie K562 ergab sich in den eingesetzten Konzentrationsbereichen nur bei 2-Cyclohexen-1-on durchflußzytometrisch eine dosis- und zeitabhängige Apoptoseinduktion, die sich zwar mit der Analyse der DNA-Leiter, nicht aber mit der morphologischen Auswertung bestätigen ließ. Für trans-2-Hexenal und trans-2-Octenal konnte nur zeitabhängig ein Anstieg mittels FCM detektiert werden, der nur für trans-2-Octenal signifikant war. Bei beiden ergab sich keine DNA-Leiter. Die morphologische Analyse für trans-2-Hexenal ließ einen ebenfalls nicht signifikanten Anstieg erkennen. Für trans-2-Octenal wurde keine morphologische Analyse durchgeführt. Die Zellinie Molt4 zeigte nur zeitabhängig für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al und 2-trans,6-cis-Nonadienal eine Apoptoseinduktion, die ausschließlich für 2-trans,4-trans-Hexadien-1-al signifikant war. Die Analyse der DNA-Leiter war auch hier in allen Fällen negativ. Die morphologische Analyse konnte für 2-Cyclohexen-1-on zusätzliche, im FCM nicht detektierte Apoptose zeigen. Der Vergleich der 1-Parameter-Messung des DNA-Gehaltes mit der 2-Parameter-Messung des DNA- und Proteingehaltes der Zellinie U937 bei trans-2-Hexenal- und 2-Cyclohexen-1-on-Behandlung ergab zusätzliche, bei der 1-Parameter-Messung ?versteckte" apoptotische Zellen. Diese waren eindeutig bestimmten Zellzyklusphasen zuzuordnen. Ein weiterer Vergleich der DNA-/Proteinmessung mit der als spezifischste Methode geltenden Markierung der Strangbrüche mit fluoreszenzmarkierten Nukleotiden wurde durchgeführt. Dazu wurden Beispiele aus der Literatur eingesetzt. Dieser Vergleich zeigte, daß bei einem geeigneten Zellsystem die zellzyklusspezifische Apoptosebestimmung vergleichbar war. Von Vorteil für die DNA-/Proteinmessung war dabei die einfache und kostengünstige Durchführung.Der zur Überprüfung der Diskrepanzen zwischen den Detektionsmethoden bei den Zellinien K562 und Molt4 eingesetzte Annexin V-Assay bot in beiden Fällen keine weitere Information. Die eingesetzten Methoden konnten also bei den Zellinien U937 und HL-60 in guter Übereinstimmung Apoptose detektieren, die Zellinien K562 und Molt4 zeigten sich aufgrund fehlender Fragmentierung der DNA in 180bp-Fragmente und der relativen Apoptoseresistenz von K562 für dieses Screening als ungeeignet. Für diese Zellinien müßten weitere Methoden, die nicht auf der Fragmentierung der DNA beruhen, eingesetzt werden.Aufgrund der Tatsache, daß die Apoptoseinduktion bei den Zellinien K562 und Molt4 erst nach längerer Inkubationsdauer auftrat, wurde diese als verzögerte Apoptose interpretiert. Im Vergleich dazu handelte es sich bei den Zellinien U937 und HL-60 um frühe Apoptose. Setzt man die Apoptoseinduktion mit der Phasenspezifität der Verbindungen in Beziehung, so kann man für die Zellinien U937 und HL-60 nach Inkubation mit den untersuchten Aldehyden von Homo-Zyklus-Apoptose, mit 2-Cyclohexen-1-on von Homo-Phase-Apoptose sprechen, obwohl letztere durchflußzytometrisch erst nach 12h in Erscheinung trat. Für die Zellinien K562 und Molt4 handelte es sich bei allen Verbindungen um post-mitotische-Apoptose. Die Aldehyde zeigten bezüglich ihrer Apoptoseinduktion bei U937 und HL-60 keine Phasenspezifität, es waren alle Zellzyklusphasen betroffen. Bei K562 zeigten sie G1-Phasenspezifität, bei Molt4 G1- und teilweise G2-Phasenspezifität. 2-Cyclohexen-1-on ergab S-Phasenspezifität bei U937 und HL-60 sowie G1-Phasenspezifität bei K562. Außerden trat im Zeitverlauf für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al, trans-2-Octenal und 2-Cyclohexen-1-on ein G2/M-Arrest auf, 2-trans,6-cis-Nonadienal erzeugte einen G1-Arrest.Der Einfluß der Kettenlänge und Anzahl der Doppelbindungen auf das apoptoseinduzierende Potential wurde an den Zellinien U937 und HL-60 für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al, trans-2-Octenal und 2-trans,6-cis-Nonadienal untersucht. Dabei ergab sich ein substanzabhängiger Anstieg der Apoptoseinduktion mit steigender Kettenlänge, der aber nicht in allen Fällen signifikant war. Der Einfluß der Doppelbindungen konnte nur im direkten Vergleich von trans-2-Hexenal und 2-trans,4-trans-Hexadien-1-al betrachtet werden. Hier trat kein signifikanter Unterschied zwischen den beiden Verbindungen auf, was wahrscheinlich auf die Konjugation der Doppelbindungen und die damit verbundene erhöhte Polarität und gleichzeitig erniedrigte Lipophilie zurückzuführen war.
Die generelle Zielsetzung der vorliegenden Arbeit, einen Beitrag zur Untersuchung des Mischungsverhaltens von Phospholipiden zu liefern, läßt sich in eine theoretische und eine experimentelle Problemstellung unterteilen: Im theoretischen Bereich lag die erste Herausforderung darin, bereits existierende Modelle zur Monte Carlo-Simulation von Lipidsystemen aus vorhandenen Publikationen zu sichten, die relevanten mathematischen Formulierungen zu entwickeln und anschließend in einen geeigneten Quellcode zur Durchführung der entsprechenden Computersimulationen zu übersetzen. Mit den hieraus gewonnenen Erfahrungen sollte dann der Versuch unternommen werden, eigene Ideen bei der Simulation von Einphasen-/Zweikomponentensystemen bzw. Zweiphasen-/Einkomponentensystemen umzusetzen und die Ergebnisse auf der Grundlage der verwendeten physikalischen Modelle zu interpretieren. Als Höhepunkt wurde abschließend die Entwicklung eines Formelgebäudes zur Beschreibung von Zweiphasen-/ Zweikomponentensystemen ins Auge gefaßt. Auf experimenteller Seite wurde das Ziel angestrebt, wässerige PC/PE- bzw. PC/PG-Systeme mit unterschiedlichen Kettenlängen auf ihre Mischbarkeit hin zu untersuchen. Hierzu war es erforderlich, die bereits im Arbeitskreis vorhandenen kalorimetrischen Daten zu vervollständigen. Außerdem sollten die entsprechenden äquimolaren Gemische aus jeweils einem deuterierten und einem undeuterierten Phospholipid hergestellt und anschließend mittels 2H-NMR- und FTIR-spektroskopischer Methoden analysiert werden, um auf diese Weise die beiden Komponenten der Mischungen getrennt voneinander beobachten zu können. Die benötigten perdeuterierten Lipide sollten vorher aus den entsprechenden Fettsäuren synthetisiert werden.
Polycyclische aromatische Kohlenwasserstoffe (PAK) stellen eine Gruppe von möglichen Kanzerogenen dar, die ihre mutagene und kanzerogene Wirkung erst nach einer zweistufigen biologischen Aktivierung zum Dihydrodiolepoxid entfalten. Der ubiquitär in der Umwelt vorkommende PAK Benzo[c]phenanthren ist in Nagersystemen in vitro und in vivo nur schwach biologisch aktiv, während die korrespondierenden Fjord-Region-B[c]PH-3,4-Dihydrodiol-1,2-Epoxide zu den am stärksten kanzerogenen PAK-Dihydrodiolepoxiden gehören. Die geringe Bildung von B[c]PH-3,4-DH als Vorstufe der B[c]PH-3,4-DH-1,2-Epoxide im Nager wird für die geringe biologische Aktivität von B[c]PH verantwortlich gemacht. Bisher waren nur wenige Daten zur Beurteilung der Aktivierungskapazität in menschlichem Gewebe verfügbar. In dieser Studie konnte erstmals eindeutig gezeigt werden, daß Gewebepräparationen aus Humanleber B[c]PH effizient zu genotoxischen und mutagenen Metaboliten aktivieren. Im Gegensatz zu Leberpräparationen von Ratte und Schwein, in denen mit der bevorzugten Bildung des B[c]PH-5,6-DH detoxifizierende Metabolismuswege dominieren, wird in humanen Leberpräparationen bevorzugt B[c]PH-3,4-DH als Vorläuferverbindung der ultimal kanzerogenen B[c]PH-3,4-DH-1,2-Epoxide gebildet. Von den in der menschlichen Leber vorhandenen Cytochrom P450-Enzymen erwies sich CYP 1A2 als hauptverantwortlich für die metabolische Aktivierung von B[c]PH. CYP 3A4 scheint für die Bildung von B[c]PH-5,6-DH mitverantwortlich zu sein. Beide Isoenzyme werden in der Leber stark exprimiert und besitzen eine Schlüsselfunktion bei der PAK-Aktivierung. Im Gegensatz zu humanen Lebermikrosomen erwiesen sich humane Lungenmikrosomen im wesentlichen als inaktiv. Die einzige aktive humane Lungenprobe generierte neben dem überwiegenden Metaboliten B[c]PH-5,6-DH auch bedeutende Anteile B[c]PH-3,4-DH. Studien mit CYP 450-Inhibitoren belegen eine Bedeutung von CYP 1A1 für die Aktivierung in der menschlichen Lunge, welches durch Zigarettenrauch induzierbar ist. Auch das extrahepatisch vorkommende CYP 1B1, welches vor allem in der Niere, dem Uterus und der Brustdrüse vorkommt, metabolisierte B[c]PH effektiv. Auch der zweite Schritt der Aktivierungskaskade wurde untersucht. B[c]PH-3,4-DH konnte durch humane Lebergewebepräparationen zu genotoxischen Metaboliten aktiviert werden. Die induzierte Genotoxizität war vergleichbar mit der des kanzerogenen B[a]P-7,8-DH. CYP 3A4 konnte als hauptverantwortlich für die Aktivierung identifiziert werden. Auch für humanes CYP 1B1 ist B[c]PH-3,4-DH ein gutes Substrat. Im Gegensatz dazu induzierte B[c]PH-5,6-DH nur geringe Genotoxizität. Nach Aktivierung in V79-Säugerzellen, die humanes CYP 3A4 exprimieren, wirkte B[c]PH-3,4-DH mutagen, vergleichbar mit B[a]P-7,8-DH. Schwache Mutagenität konnte auch für B[c]PH-5,6-DH nachgewiesen werden. Zusätzlich wurden die Fjord-Region-Verbindung Dibenzo[a,l]pyren-11,12-Dihydrodiol (DB[a,l]P-11,12-DH), Benzo[j]fluoranthen-9,10-Dihydrodiol (B[j]F-9,10-DH), und Fluoranthen-2,3-Dihydrodiol (FLU-2,3-DH) untersucht. DB[a,l]P-11,12-DH war im Genotoxizitäts- sowie Mutagenitätstest am stärksten aktiv und induzierte 10-fach mehr HPRT-Mutationen als B[c]PH-3,4-DH und B[a]P-7,8-DH. B[j]F-9,10-DH zeigte nur im Genotoxizitätstest schwache Aktivität, während FLU-2,3-DH in beiden Systemen inaktiv war. Humanes CYP 3A4 und zu geringerem Ausmaß CYP 1A2 konnten als hauptverantwortlich für die Aktivierung von DB[a,l]P-11,12-DH identifiziert werden. Somit konnte diese Studie zeigen, daß B[c]PH durch CYP 450-Enzyme in humanem Gewebe zu genotoxischen und mutagenen Verbindungen aktiviert werden kann. Im Tierexperiment ermittelte Daten haben dagegen eine vorrangige Metabolisierung zu wenig mutagenen Metaboliten ergeben. Sie korrelieren mit dem Befund des geringen kanzerogenen Potentials im Tierexperiment. Im Gegensatz dazu wird B[c]PH in humanen Gewebepräparationen effizient zu mutagenen Endprodukten aktiviert. Die Ergebnisse zeigen, daß für die Risikobewertung wesentliche Unterschiede beim B[c]PH-Metabolismus zwischen Mensch und Nager bestehen und die Ratte im Falle von B[c]PH kein prädiktives Modell für die Biotransformation beim Menschen darstellt. Es konnte gezeigt werden, daß für die Aktivierung von B[c]PH in menschlichem Lebergewebe eine Kombination des induzierbaren CYP 1A2 (1. Aktivierungsschritt) und des Hauptenzyms der Humanleber CYP 3A4 (2. Aktivierungsschritt) für eine effiziente Aktivierung verantwortlich ist. Die Ergebnisse dieser Studie legen nahe, daß B[c]PH eine Bedeutung für die Entstehung von Krebs beim Menschen besitzt.
Das zentrale Thema der vorliegenden Arbeit war die spektroskopische Untersuchung der Chiralität mittels von CD-, UV- und polarisierter UV-Spektroskopie an unverbrückten (R-1 bis R-3) und verbrückten 1,1' -Binaphtholen (R-4 bis R-7). Diese spektroskopischen Untersuchungen sind für die Interpretation der HTP (helical twisting power) erforderlich, um insbesondere auch einen Vergleich der Ergebnisse der Chiralitätsbeobachtungen CD und HTP zu ermöglichen. Um die Spektren der 1,1' -Binaphthole mit der Struktur zu korrelieren und insbesondere die Ordnungszustände in der flüssigkristallinen Phase über die 2 H-NMR-Spektren zu erhalten, mußte die Geometrie der Verbindungen, gelöst in der flüssigkristallinen Phase, bekannt sein. Da die Struktur in dieser Phase zum Teil verändert sein kann wurde die Geometrie der 1,1'-Binaphthole R-1 bis R-7 und damit der Winkel q, sowie der Potentialkurvenverlauf als Funktion der Drehung um die Naphthyl-Naphthyl-Verbindungsachse mit der AM1-Methode für die Gasphase berechnet, und mit Ergebnissen aus Röntgenstrukturdaten aus Arbeiten von Reiß und Frank [74-78] verglichen. Für die unverbrückten 1,1'-Binaphthole wurden im Bereich 90 ° +-30 ° breite flache Potentialkurven (Änderung der Energie < kT) erhalten, während die Potentialkurven der verbrückten 1,1'-Binaphthole schmäler und steiler im Verlauf ausfallen, da die Verbrückung durch den Dioxepinring eine Rotation um die Naphthyl-Naphthyl- Verbindungsachse nicht zuläßt. Als Konsequenz der flachen Potentialkurve muß für die Gasphase für diese Moleküle eine "Large Amplitude Motion (LAM)" beachtet werden, die für die Beschreibung unserer Effekte in der flüssigkristallinen Matrix in Form von lösungsmittelstabilisierten Konformere zu berücksichtigen ist, für die eine Simulation nicht durchgeführt wurde. Die Winkel zwischen den mittleren Naphthylebenen aus der AM1-Methode qAM1 und der Röntgenstrukturanalyse qRSA weichen für die verbrückten 1,1 -Binaphthole 4, 5 und 6 maximal 7° voneinander ab. Für 7 ergab sich eine große Abweichung, die aber möglicherweise artifiziell ist, da die Röntgenstruktur zum jetzigen Zeitpunkt, wegen einer Zwillingsbildung im Kristall noch nicht vollständig analysiert wurde. Bei den unverbrückten 1,1'-Binaphtholen führt die flache Potentialkurve dazu, daß die äußere Umgebung d.h. die Packungseffekte einen wesentlichen Einfluß auf den Winkel qRSA zwischen den mittleren Naphthylebenen ausübt. Hieraus ist zu ersehen, daß der Flüssigkristall ebenfalls eine Auswirkung auf den Winkel q haben wird. Es zeigt sich, daß der CD von Verbindung R-1 wesentlich besser reproduziert werden kann, wenn man zur Beschreibung -255- eine Boltzmann-Wichtung über alle mit der Exziton-Theorie berechneten CD-Spektren der einzelnen Konformationen der Potentialkurve durchführt, als wenn nur die Geometrie des Minimums benutzt wird. Um die Anisotropie der 1,1' -Binaphthole im Flüssigkristall zu analysieren ist es notwendig die Ordnung der Moleküle in der Phase, d.h. die Hauptachsen und Hauptwerte des Ordnungstensors zu kennen, die im Rahmen der Arbeit von I. Kiesewalter [92] gemessen wurde. Die Orientierung der Hauptachsen im Molekül sind abhängig von der Geometrie des Moleküls und muß, da die Moleküle C2-Symmetrie besitzen, experimentell bestimmt werden. Hierbei besteht zusätzlich das Problem, daß zwar die Größe der Quadrupolaufspaltungen experimentell ermittelbar sind, nicht aber ihr Vorzeichen. Ein Verfahren diese Informationslücke der Vorzeichen zu beheben bestand darin, alle Zuordnungen zu denkbaren Orientierungszuständen durch eine Permutation zu erhalten. Durch weitere Kriterien werden dann Zuordnungen aufgrund der erhaltenen Ergebnisse aussortiert. Für die so gefundenen Sätze von Hauptwerten * 33 ii g ist zu prüfen ob sie innerhalb des Ordnungsdreiecks liegen. Erfüllen die * 33 ii g dieses in der Hierachie oberste Kriterium folgen weitere, wie z.B. die Übereinstimmung mit den Hauptwerten aus der 13 C-Spektroskopie, um die optimalste Lösung zu ermitteln. Für 2 existieren keine Ordnungsparameter S * und D * aufgrund der schlechten Löslichkeit in ZLI-1695. Aus Tensorkoordinaten eii * , die mit Hilfe der experimentellen Ordnungsparameter S * und D * aus den Anisotropiegraden, ermittelt wurden, können im Rahmen des Exziton-Modells interpretiert werden. Für die unverbrückten 1,1-Binaphthole 1 bis 3 zeigt sich, daß die Aufspaltungsenergie n , m NK E D und damit die Wechselwirkung zwischen den Naphthylebenen, die im Exziton-Modell als Dipol-Dipol-Wechselwirkung beschrieben wird, im Vergleich zu den verbrückten 1,1-Binaphtolen 4, 5 und 7 sehr gering ist. 1 zeigt eine Aufspaltungsenergie von 1 n , m NK cm 9 . 335 E - = D , 2 und 3 zeigen eine von 94.0 cm -1 und 0 cm -1 . Der Mittelwert der Aufspaltungsenergien aus den Tensorkoordinaten von 4, 5 und 7 beträgt dagegen 1 n , m NK cm 6 . 1093 E - = D . Aus den Tensorkoordinaten der unverbrückten 1,1 ' -Binaphthole ergibt sich weiterhin, daß die a-Bande eine höhere Intensität besitzt als die b-Bande. Für die verbrückten 1,1' -Binaphthole ist das Verhältnis a- zu b-Bande genau umgekehrt. Aus Anpassungen experimenteller CD- und UV-Spektren, mit Gleichungen, die aus der Exziton-Theorie abgeleitet wurden, findet man die gleiche Tendenz, wie aus den Ergebnissen der Tensorkoordinatenzerlegung. Die Wechselwirkungsenergie n , m NK E D ist für die verbrückten 1,1' - 256-Binaphthole 1 bis 3 ca. doppelt so groß, wie für die unverbrückten 1,1' -Binaphthole 4 bis 7. Speziell aus der Anpassung der UV-Spektren ergibt sich, daß für die verbrückten 1,1' -Binaphthole 1 bis 3, daß die a-Bande größer als die b-Bande ist, während die verbrückten 1,1-Binaphthole ein umgekehrtes Verhältnis von a- zu b-Bande zeigen Weiterhin konnte mit den Tensorkoordinaten die Lage des elektrischen Dipolübergangsmomentes der a-Bande ( A B -Übergang) für 4, 5 und 7 bestimmt werden. Man findet, daß das elektrische Dipolübergangsmoment a m , das in der Ebene senkrecht zur C2-Achse polarisiert ist, einen Winkel von 49° mit der Naphthyl-Naphthyl-Verbindungsachse einschließt. Speziell für die Verbindungen 4 und 7 zeigt sich aus den Tensorkoordinaten, daß der b- bzw. B A -Übergang einmal entlang der * 2 x -Achse für 4 bzw. entlang der * 3 x -Achse für 7 liegt. Dies zeigt, daß die Orientierungsachse aus der Naphthyl-Naphthyl-Achse bei Verbindung 4 in Richtung der C2-Achse bei Verbindung 7 gekippt ist. In den Tensorkoordinaten * 22 e bei Verbindung 4 und * 33 e bei Verbindung 7, die nach dem Exziton-Modell nur den A A -Übergang zeigen sollten, kann eine zusätzliche Bande im Spektralbereich des B A -Übergangs beobachtet werden. Bei den unverbrückten 1,1' -Binaphtholen tritt diese zusätzliche Bande bei der Tensorkoordinatenzerlegung nicht zum Vorschein. Die Ursache für diese zusätzliche Bande könnte eine Intensivierung eines Übergangs sein aufgrund der Verkrümmung des Naphthylrings und der damit verbundenen Erniedrigung der Symmetrie. Für die Dipolstärke würde dann im Grundkörper, d.h. im 2-Hydroxy- naphthalin mit einem planaren System - p 0 D NK = gelten. Tabelle 78. zeigt alle Ergebnisse für die unverbrückten (1 bis 3) und verbrückten (4 bis 7) 1,1 -Binaphthole, die aus AM1-Rechnungen, Röntgenstrukturanalyse und anisotroper UV-Spektroskopie im Rahmen dieser Arbeit erhalten wurden. Die Daten aus der anisotropen UV-Spektroskopie werden verglichen mit Daten, die man aus einer Anpassung experimenteller CD- und UV-Spektren in ZLI-1695 bei T=80°C, mit Hilfe von Gleichungen, die aus der Exziton-Theorie abgeleitet sind, erhält.
In der vorliegenden Arbeit wird das photochemische Reaktionsverhalten der Komplexe Tricarbonyl(h6-1,3,5,7-cyclooctatetraen)chrom(0) ( 1) und Tricarbonyl(h6-1,3,5-cyclooctatrien)chrom(0) ( 2) gegenüber Alkinen untersucht. Zur Charakterisierung aller Produkte wurden IR-, 1H-NMR- und 13C-NMR-spektroskopische Untersuchungen durchgeführt. Massenspektroskopische Messungen und Elementaranalysen ergänzen die analytischen Daten. An Hand der synthetisierten Verbindungen werden abhängig vomSubstitutionsmuster der eingesetzten Alkine für beide Ausgangskomplexe drei verschiedene Produkttypen identifiziert.Beide Komplexe reagieren mit sterisch aufwendigen Alkinen, wie Tolan und 1- Phenyl-2-trimethylsilylethin durch [6+2]-Cycloaddition zu den 1:1-Addukten des Typs A. Aus 1 werden die Tricarbonyl(h4:2-bicyclo[4.2.2]deca-2,4,7,9-tetraen)chrom(0)- Komplexe und aus 2 die Tricarbonyl(h4:2-bicyclo[4.2.2]deca-2,4,7-trien)chrom(0)-Komplexe gebildet. Mit sterisch weniger aufwendig substituierten Alkine, wie 2-Butin (9) und 3-Hexin ( 10), sowie endständige Alkine, wie Trimethylsilylethin ( 7) und 3,3-Dimethyl-1-butin ( 8) werden die 2:1-Produkte des Typs B durch Tandem-[6+2]- homo-[6+2]-Cycloadditionen mit nachfolgender De- und teilweiser Rekomplexierung gebildet. Hierbei entstehen aus 1 Tetracarbonyl(h2:2-tetracyclo[9.1.0.04,8.05,12]- dodeca-2,6,9-trien)chrom(0)-Komplexe. Mit 2 werden die Kohlenwasserstoffe Tetracyclo[9.1.0.0 4,8.05,12]dodeca-6,9-dien erhalten. In einer Konkurrenzreaktion entstehen bei der Umsetzung mit den Alkinen 9 und 10 durch nacheinander ablaufende [6+2]- und [2+2]- Cycloadditionen die 2:1-Produkte des Typs C. Aus 1 werden hierbei Tetracarbonyl( h2:2-tricyclo[6.2.2.02,5]dodeca-3,6,9,11-tetraen)- chrom(0)-Komplexe und aus 2 werden die Kohlenwasserstoffe Tricyclo[6.2.2.0 2,5]dodeca-3,6,9-trien gebildet. Mit den endständigen Alkinen werden ausschliesslich die koordinierten bzw. freien Tetracyclen B erhalten. Mit den Alkinen 9 und 10 wird dieser Typ nur als Nebenprodukt isoliert. Das mit diesen Alkinen gebildete Hauptprodukt sind die Tricycloverbindungen des Typs C. Die Erklärung fürdiese zwei verschiedenen Produkttypen ist aus der mechanistischen Betrachtung der chromvermittelten Cycloadditionen zu verstehen. Bei der photochemischen Umsetzung von Tricarbonyl( h6-1,3,5,7-cycloocta-tetraen)chrom(0) werden Carbonyl-chrom-Komplexe aller drei Typen isoliert. Für die Umsetzungen mit Tricarbonyl(h6-1,3,5-cyclooctatrien)chrom(0) sind nur für die 1:1-Addukte Komplexe zu isolieren. Die 2:1-Produkte werden aufgrund ihrer Molekülstruktur nicht koordiniert. Bei dem Versuch den freien Kohlenwasserstoff 6,12-Bistrimethylsilyltetracyclo-[9.1.0.0 4,8.05,12]dodeca-2,6,9-trien an ein Cyclopentadienylkobaltfragment zu komplexieren, wird eine Copeartige Umlagerung beobachtet. Der resultierendeKohlenwasserstoff wird am Kobalt koordiniert. Weitere Untersuchungen zum photochemischen Reaktionspotential von 2 werden mit 1,3,5-Cycloheptatrienvorgenommen. Bei dieser Reaktion findet jedoch keine C-C-Verknüpfung sondern ein Austausch der Liganden statt. Umgekehrt reagiert Cyclooctatrien durch das mit ihm im Gleichgewicht vorliegenden Valenzisomer Bicyclo[4.2.0]octa-2,4-dien über eine [6+4]- Cycloaddition photochemisch mit Tricarbonyl(h6-1,3,5- cycloheptatrien)chrom(0) zu Tricarbonyl(h4:2-tetracyclo[6.4.2.12,7.09,12]pentadeca-3,5,13-trien)chrom(0).
In der vorliegenden Arbeit wurde das Reaktionsverhalten von zweikernigen Eisencarbonyl-komplexen mit h5:3-koordinierten, verbrückenden Fulvenliganden gegenüber ausgewählten Alkinen untersucht. Hierzu kamen die drei Komplexe Pentacarbonyl(m-h5:3-6,6-diphenylfulven)dieisen(Fe-Fe) (1), Pentacarbonyl(m-h5:3-6-methyl-6-phenylfulven)dieisen(Fe-Fe) (2) und Pentacarbonyl[m-h5:3-6(E-prop-1-enyl)fulven]dieisen(Fe-Fe) (5) zum Einsatz. Die Charakterisierung der Produkte erfolgte anhand der IR-, 1H-NMR- sowie 13C-NMR-Spektren. Darüber hinaus konnte von den Verbindungen 7 und 19 eine Kristallstrukturanalyse angefertigt werden. Bei den Umsetzungen des literaturbekannten Komplexes 1 sowie bei den Umsetzungen von Komplex 2 mit ausgewählten Alkinen konnten jeweils fünf Produkte isoliert werden. Bei diesen insertiert das eingesetzte Alkin ausschließlich in ß-Position am Fünfring in die Eisen-Kohlenstoff-Bindung, wobei die CC-Bindungsknüpfung bei den verwendeten 1-Alkinen regiospezifisch an C2 erfolgt. Darüber hinaus konnte aufgrund NMR-spektros-kopischer Untersuchungen die Stellung der Methylgruppe am exocyclischen Kohlenstoff der aus den Umsetzungen mit 2 gebildeten Produkte, ausschließlich in Z-Position am Enylsystem nachgewiesen werden. Zusätzlich zur bislang nicht literaturbekannten Verbindung 2 konnten bei deren Synthese die beiden ebenfalls bislang unbekannten Komplexe Hexacarbonyl(m-h5:1-6-methyl-6-phenylfulven)dieisen(Fe-Fe) (3) und Tetra-carbonyl-(m-h5:5-1,2-dicyclopenta-dien-diyl-1,2-dimethyl-1,2-diphenylethan)dieisen (Fe-Fe) (4) isoliert werden. Bei den photochemischen Umsetzungen der literaturbekannten Verbindung 5 mit Alkinen erfolgt die CC-Bindungsknüpfung zwischen dem Alkin und dem Fulvenliganden nicht am Fünfring, sondern am exocyclischen Enylsystem. In einer Pauson-Khand-analogen Reaktion wird unter Einbezug eines Äquivalentes Kohlenmonoxid ein Cyclopentenonsystem generiert, dessen Sauerstoffatom an die Pentacarbonyldieiseneinheit koordiniert ist. Bei Verwendung von 2-Butin als Reaktionspartner kann zusätzlich Komplex 16 isoliert werden, welcher als ein Zwischenprodukt auf dem Wege der Synthese des Cyclopentenon-systems angesehen werden kann. Weiterhin konnten in den drei Verbindungen 1, 2 und 4 gehinderte Ligandbewegungen mit Hilfe der dynamischen NMR-Spektroskopie aufgefunden und studiert werden.
Die FoF1-ATP-Synthase katalysiert die Synthese von ATP aus ADP und Pi bei der oxidativen bzw. Photophosphorylierung. Der ATP-Synthase-Komplex läßt sich in zwei funktionelle Einheiten unterteilen: Fo ist ein integraler Membranproteinkomplex, der den Protonenkanal bildet. F1 hingegen ist ein wasserlöslicher Proteinkomplex, der die Nukleotidbindungsstellen trägt. Die ATP-Synthase aus Escherichia coli hat die Zusammensetzung alpha3beta3gamma delta epsilon für die F1 und ab2c9-12 für den Fo-Teil. "Native" (d.h. nicht nukleotidbefreite) F1 aus Escherichia coli (EF1) wurde mit verschiedenen spinmarkierten Adeninnukleotiden ESR-spektroskopisch vermessen. Es wurden Spektren mit zwei Signalen gemessen, ein Hinweis auf zwei verschiedene Konformationen der Bindungsstellen. Durch Titrationsexperimente wurden die Bindungsstöchiometrie und die Spektren für die verschiedenen verwendeten Nukleotide ermittelt. Die gleichen Experimente wurden mit einer Mutante, die in den nichtkatalytischen Bindungsstellen keine Nukleotide bindet, durchgeführt. Die vorliegenden Ergebnisse deuten darauf hin, daß zwei der drei katalytischen Bindungsstellen zum äußeren Signal beitragen, während die dritte das innere Signal hervorruft. Die Untereinheiten alpha; und beta der EF1, wurden isoliert und in gleicher Weise wie die F1 untersucht. Während alpha; 0,8 Moleküle SL-ATP binden konnte, zeigte beta keine Bindung. Mit 2',3'-SL-ATP in Komplex mit alpha; konnten ESR-Spektren mit zwei Signalen gemessen werden, die SL-ATP-Derivate, bei denen der Spin-Label entweder an der 2'- oder 3'-Position fixiert ist, zeigten lediglich ein Signal. Die beobachteten 2Azz-Werte unterscheiden sich stark in Abhängigkeit von der Position des Spin-Labels. Um die Bindung der F1 an den Fo-Teil und die Struktur des aus den b- und delta-Untereinheiten gebildeten zweiten Stiels zu untersuchen, wurden verschiedene Mutanten einer wasserlöslichen Form der b-Untereinheit (bsyn) mit dem Spin-Label IodacetamidTEMPO markiert. Das System F1/bsyn wurde mit den an unterschiedlichen Positionen markierten bsyn-Mutanten ESR-spektroskopisch untersucht. Dabei wurden Spektren von freiem bsyn sowie bsyn im Komplex mit F1 und F1-delta (alpha3beta3gamma epsilon) aufgenommen: Alle gelabelten b-Mutanten weisen ähnliche ESR-Spektren von stark mobilen Spin-Labeln auf. Die ähnlichen Werte lassen darauf schließen, daß der b-Dimer über weite Teile eine vergleichbare Struktur besitzt. Im Komplex mit F1 zeigen fast alle Mutanten eine stärkere Immobilisierung als die freien b-Mutanten. Tendenziell nimmt in Richtung des C-Terminus die Differenz der Hochfeld : Mittelfeld-Verhältnisse der Spektren von b und F1/b zu, was die Vermutung nahelegt, daß die Bindung von b an die F1 in Richtung des C-Terminus stärkeren Einfluß auf die Struktur hat. bsyn im Komplex mit F1-delta zeigt nur an einzelnen Positionen eine stärkere Immobilisierung des Spin-Labels. Es scheint somit wahrscheinlich, daß die b-Untereinheit außer über delta noch weitere Kontakte mit der EF1 hat.
In diesem Aufsatz geht es um eine Klassifikation von Programmen nach zwei orthogonalen Kriterien.Programm und Software werden dabei nicht als Synonyme angesehen; Programm sein wird hiergleichgesetzt mit ausführbar sein, d.h. etwas ist dann und nur dann ein Programm, wenn man die Fragebeantworten kann, was es denn heißen solle, dieses Etwas werde ausgeführt. Es gibt durchaus Softwa-regebilde, bezüglich derer diese Frage keinen Sinn hat und die demzufolge auch keine Programme sind - beispielsweise eine Funktions - oder eine Klassenbibliothek.Klassifikation ist von Nutzen, wenn sie Vielfalt überschaubarer macht - die Vielfalt der Schüler einergroßen Schule wird überschaubarer, wenn die Schüler "klassifiziert" sind, d.h. wenn sie in ihren Klas-senzimmern sitzen. Die im folgenden vorgestellte Klassifikation soll die Vielfalt von Programmenüberschaubarer machen.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
In diesem Aufsatz wird die Arbeitsweise eines Werkzeuges dargestellt, mit dessen Hilfedie Analyse von Feature-Interaktionen in Intelligenten (Telefon-)Netzwerken unterstütztwird. Dieses Werkzeug basiert auf einem von uns entwickelten formalen Lösungsansatz, deraus einem geeigneten Spezifikationsstil, aus einem formalen Kriterium zur Erkennung vonFeature-Interaktionen und aus einer Methode zur Auflösung der erkannten Feature- Interaktionen besteht. Das Werkzeug führt eine statische Analyse von Estelle-Spezifikationendurch und erkennt dabei potientielle Feature-Interaktionen sowie nichtausführbare Transitionen. Darüberhinaus kann es die erkannten nichtausführbaren Transitionen zur Optimierung aus der Spezifikation entfernen. Wir erläutern zunächst kurz den zugrundeliegendenAnsatz und beschreiben danach die Anwendung auf Estelle anhand der Funktionsweisedes Werkzeuges.
Zur schnellen Kommunikation zwischen Rechnern werden laufzeiteffiziente Implementationen von Protokoll-Spezifikationen benötigt. Die herkömmliche Schichten-Aufteilung verursacht hohe Kosten. In dieser Projektarbeit wurde eine andere Spezifikationsform, die Methode des strukturierten Produktautomaten, am Beispiel der OSI-Schichten 5 und 6 untersucht. Der Aufwand zur Erstellung und Wartung der Spezifikation und die Laufzeiteffizienz der daraus entstandenen Inplementation wurden mit mehreren anderen Spezifikationsformen verglichen und bewertet. Die Methode des strukturierten Produktautomaten erwies sich dabei als ein geeigneter Spezifikationsstil.
Komprimierungsverfahren
(1999)
Bedingt durch das Wachstum von Informationsnachfrage und -angebot werden effizientere Wege zur Repräsentation von Informationen aller Art benötigt. Dies kann sowohl durch Assimilation und Optimierung der gewählten Datenstruktur und ihrer Repräsentation als auch (additiv) durch Komprimierung derselbigen erreicht werden. Diese Ausarbeitung soll in pragmatischer Art und Weise in das Themengebiet der Komprimierung einführen. Vorgestellt werden insgesamt 3 Stellvertreter aus unterschiedlichen Bereichen : Komprimierung von Texten mittels Huffman-Code, Komprimierung von Bitlisten mittels Laufkomprimierung (RLE-Komprimierung), Komprimierung von - auf dem RGB-Farbmodell basierenden - Grafiken mittels eines eigenen Verfahrens. Während die ersten beiden Verfahren Vertreter verlustfreier Komprimierung sind, ist das Dritte ein Vertreter der verlustbehafteten Komprimierung. Die vorgestellten Verfahren werden zur Arrondierung an konkreten Beispielen eingeübt und schließlich sogar in der Programmiersprache Pascal implementiert. Die konkrete Realisation in einer gegebenen Programmiersprache birgt kanonischerweise die Gefahr, den Blick für das Wesentliche zu verlieren. Deshalb wurde bei der Erstellung dieser Ausarbeitung (im speziellen der Programmieraufgaben) akribisch auf Abstrahierung unnötiger Details geachtet.
Die Beweisentwicklungsumgebung Omega-Mkrp soll Mathematiker bei einer ihrer Haupttätigkeiten, nämlich dem Beweisen mathematischer Theoreme unterstützen. Diese Unterstützung muß so komfortabel sein, daß die Beweise mit vertretbarem Aufwand formal durchgeführt werden können und daß die Korrektheit der so erzeugten Beweise durch das System sichergestellt wird. Ein solches System wird sich nur dann wirklich durchsetzen, wenn die rechnergestützte Suche nach formalen Beweisen weniger aufwendig und leichter ist, als ohne das System. Um dies zu erreichen, ergeben sich verschiedene Anforderungen an eine solche Entwicklungsumgebung, die wir im einzelnen beschreiben. Diese betreffen insbesondere die Ausdruckskraft der verwendeten Objektsprache, die Möglichkeit, abstrakt über Beweispläne zu reden, die am Menschen orientierte Präsentation der gefundenen Beweise, aber auch die effiziente Unterstützung beim Füllen von Beweislücken. Das im folgenden vorgestellte Omega-Mkrp-System ist eine Synthese der Ansätze des vollautomatischen, des interaktiven und des planbasierten Beweisens und versucht erstmalig die Ergebnisse dieser drei Forschungsrichtungen in einem System zu vereinigen. Dieser Artikel soll eine Übersicht über unsere Arbeit an diesem System geben.
Im Bereich des Software Engineering werden komplexe Software-Entwicklungsprojekte betrachtet. Im Rahmen dieser Projekte werden große Mengen von Informationen bearbeitet. Diese Informationen werden in Software-Artefakten (z.B. in Projektplänen oder Entwicklungsdokumenten, wie Anforderungsbeschreibungen)
festgehalten. Die Artefakte werden während der Entwicklung und der Wartung eines Softwaresystems häufig geändert. Änderungen einer Information in einem Artefakt haben häufig Änderungen
im selben und in anderen Artefakten zur Folge, da Beziehungen innerhalb und zwischen den in den Artefakten festgehaltenen Informationen bestehen. Die Beziehungen liegen meist nicht explizit vor, so daß die Konsequenzen einer Änderung schwer zu überblicken sind. In dieser Arbeit wurde ein Verfolgbarkeitsansatz ausgewählt, der den Benutzer bei der Durchführung von Änderungen an Artefakten unterstützt. Unterstützung bedeutet hierbei, daß der Aufwand zur Durchführung einer Änderung reduziert wird und weniger Fehler bei der Durchführung gemacht werden.
In der Arbeit wurden Anforderungen an einen auszuwählenden Verfolgbarkeitsansatz gestellt. Eine Anforderung war, daß er auf verschiedene Bereiche des Software Engineering, wie z.B. Systementwurf oder Meßplanung, mit jeweils sehr unterschiedlichen Artefakten, anwendbar sein sollte. Die durchgeführte
Literaturrecherche und die anschließende Bewertung anhand der gestellten Anforderungen ergaben, daß das Prinzip der Metamodellierung in Verbindung mit Wissensbankverwaltungssystemen ein geeigneter Verfolgbarkeitsansatz ist. Eine Evaluation, die sich auf Fallstudien aus den Bereichen
"Objektorientierter Entwurf mit UML" und "Meßplanung mit GQM" bezog, ergab, daß das Wissensbankverwaltungssystem
ConceptBase, das auf der Wissensrepräsentationssprache 0-Telos basiert, ein geeignetes Werkzeug zur Unterstützung des Verfolgbarkeitsansatzes ist.