Refine
Year of publication
- 1999 (100) (remove)
Document Type
- Preprint (46)
- Doctoral Thesis (28)
- Article (7)
- Course Material (6)
- Master's Thesis (6)
- Lecture (2)
- Study Thesis (2)
- Working Paper (2)
- Report (1)
Language
- German (100) (remove)
Has Fulltext
- yes (100)
Keywords
- Praktikum (6)
- Case-Based Reasoning (5)
- Fallbasiertes Schliessen (3)
- Maschinelles Lernen (3)
- Diagnose technischer Systeme (2)
- KLUEDO (2)
- Server (2)
- ATP-Synthase (1)
- Ablagestruktur (1)
- Access System (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (39)
- Kaiserslautern - Fachbereich Chemie (19)
- Kaiserslautern - Fachbereich Mathematik (10)
- Kaiserslautern - Fachbereich Physik (9)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (8)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (1)
- Universitätsbibliothek (1)
Die Verwendung von existierenden Planungsansätzen zur Lösung von realen Anwendungs- problemen führt meist schnell zur Erkenntnis, dass eine vorliegende Problemstellung im Prinzip zwar lösbar ist, der exponentiell anwachsende Suchraum jedoch nur die Behandlung relativ kleiner Aufgabenstellungen erlaubt. Beobachtet man jedoch menschliche Planungsexperten, so sind diese in der Lage bei komplexen Problemen den Suchraum durch Abstraktion und die Verwendung bekannter Fallbeispiele als Heuristiken, entscheident zu verkleinern und so auch für schwierige Aufgabenstellungen zu einer akzeptablen Lösung zu gelangen. In dieser Arbeit wollen wir am Beispiel der Arbeitsplanung ein System vorstellen, das Abstraktion und fallbasierte Techniken zur Steuerung des Inferenzprozesses eines nichtlinearen, hierarchischen Planungssystems einsetzt und so die Komplexität der zu lösenden Gesamtaufgabe reduziert.
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von bekannten Fallbeispielen ein derzeit sehr aktuelles Thema. Auch für Diagnoseaufgaben gewinnt der fallbasierte Ansatz immer mehr an Bedeutung. In diesem Papier soll der im Rahmen des Moltke -Projektes1 an der Universität Kaiserslautern entwickelte fallbasierte Problemlöser Patdex/22 vorgestellt werden. Ein erster Prototyp, Patdex/1, wurde bereits 1988 entwickelt.
Patdex is an expert system which carries out case-based reasoning for the fault diagnosis of complex machines. It is integrated in the Moltke workbench for technical diagnosis, which was developed at the university of Kaiserslautern over the past years, Moltke contains other parts as well, in particular a model-based approach; in Patdex where essentially the heuristic features are located. The use of cases also plays an important role for knowledge acquisition. In this paper we describe Patdex from a principal point of view and embed its main concepts into a theoretical framework.
Formalismen und Anschauung
(1999)
In der Philosophie ist es selbstverständlich, daß Autoren, die Erkenntnisse früherer Philosophen weitergeben oder kommentieren, die Originalliteratur kennen und sich in ihrer Argumentation explizit auf bestimmte Stellen in den Originaldarstellungen beziehen. In der Technik dagegen ist es allgemein akzeptierte Praxis, daß Autoren von Lehrbüchern, in denen Erkenntnisse früherer Forscher dargestellt oder kommentiert werden, nicht die Originaldarstellungen zugrunde legen, sondern sich mit den Darstellungen in der Sekundärliteratur begnügen. Man denke an die Erkenntnisse von Boole oder Maxwell, die in sehr vielen Lehrbüchern der Digitaltechnik bzw. der theoretischen Elektrotechnik vermittelt werden, ohne daß die Autoren dieser Lehrbücher auf die Originalschriften von Boole oder Maxwell Bezug nehmen. Dagegen wird man wohl kaum ein Buch über Erkenntnisse von Aristoteles oder Kant finden, dessen Autor sich nicht explizit auf bestimmte Stellen in den Schriften dieser Philosophen bezieht.
Die systemtheoretische Begründung für die Einführung des Zustandsbegriffs findet man im Mosaik-stein "Der Zustandsbegriff in der Systemtheorie". Während sich die dortige Betrachtung sowohl mitkontinuierlichen als auch mit diskreten Systemen befaßt, wird hier die Betrachtung auf diskrete Sy-steme beschränkt.
Umgangssprachlich wurde das Wort Daten schon gebraucht, lange bevor der Computer erfundenwurdeund die AbkürzungEDV für "Elektronische Datenverarbeitung" in die Alltagssprache gelangte.So sagte beispielsweise der Steuerberater zu seinem Klienten: "Bevor ich Ihre Steuererklärung fertigmachen kann, brauche ich von Ihnen noch ein paar Daten." Oder der Straßenbaureferent einer Stadtschrieb an den Oberbürgermeister: "Für die Entscheidung, welche der beiden in Frage stehenden Stra-ßen vorrangig ausgebaut werden soll, müssen wir noch eine Datenerhebung durchführen." Bei diesenDaten ging es zwar oft um Zahlen - Geldbeträge, Anzahl der Kinder, Anzahl der Beschäftigungsmo-nate, gezählte Autos - , aber eine Gleichsetzung von Daten mit Zahlen wäre falsch. Zum einen wärenZahlen ohne mitgelieferte Wörter wie Monatseinkommen, Kinderzahl u.ä. für den Steuerberater nutz-los, zum anderen will das Finanzamt u.a. auch den Arbeitgeber des Steuerpflichtigen wissen, und dazumuß eine Adresse angegeben werden, aber keine Zahl.
Für die Systemtheorie ist der Begriff Zustand ein sehr zentraler Begriff. Das Wort "Zustand" wird um-gangssprachlich recht häufig verwendet, aber wenn man die Leute fragen würde, was sie denn meinen,wenn sie das Wort Zustand benützen, dann würde man sicher nicht die präzise Definition bekommen,die man für die Systemtheorie braucht.
In diesem Aufsatz geht es um eine Klassifikation von Programmen nach zwei orthogonalen Kriterien.Programm und Software werden dabei nicht als Synonyme angesehen; Programm sein wird hiergleichgesetzt mit ausführbar sein, d.h. etwas ist dann und nur dann ein Programm, wenn man die Fragebeantworten kann, was es denn heißen solle, dieses Etwas werde ausgeführt. Es gibt durchaus Softwa-regebilde, bezüglich derer diese Frage keinen Sinn hat und die demzufolge auch keine Programme sind - beispielsweise eine Funktions - oder eine Klassenbibliothek.Klassifikation ist von Nutzen, wenn sie Vielfalt überschaubarer macht - die Vielfalt der Schüler einergroßen Schule wird überschaubarer, wenn die Schüler "klassifiziert" sind, d.h. wenn sie in ihren Klas-senzimmern sitzen. Die im folgenden vorgestellte Klassifikation soll die Vielfalt von Programmenüberschaubarer machen.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
Im Rahmen dieser Arbeit wurden mehr als 50 Verbindungen aus der Klasse der TADDOLe oder ihrer Analoga bzgl. ihrer HTP und ihrer UV- und CD-Spektroskopie untersucht. Dabei wurde für alle Verbindungen die HTP im Flüssigkristall ZLI-1695 temperaturabhängig bestimmt. Für 30 dieser Verbindungen wurde als Vergleich die HTP temperaturabhängig auch in K15 gemessen. Es ist erstmals möglich innerhalb einer Verbindungsklasse die HTP von neuen Verbindungen mit Hilfe von empirischen Regeln vorherzusagen. Somit konnte die bislang höchste bekannte HTP durch eine gezielte Synthese um mehr als 100% gesteigert werden (56 in K15). Es besteht nun die Möglichkeit, TADDOLe je nach gewünschter HTP maßzuschneidern. Aufgrund des hohen Verdrillungsvermögens von einigen TADDOLen wurde die Substanzklasse als Chirale Verbindungen gemeinsam mit Seebach und der BASF patentiert [7-1] sowie an weiteren Stellen veröffentlicht [7-2,3-8]. Das Vorzeichen der HTP der TADDOLe kann mit dem Vorzeichen bei der enantioselektiven Synthese korreliert werden und mit einer einfachen Regel vorhergesagt werden. Alle hier untersuchten TADDOLe mit einer R,R-Konfiguration induzieren eine Rechtshelix. Der Vergleich von HTP-Werten mit Ergebnissen aus der NMR-, anisotropen UV- und CD-Spektroskopie und Exziton-Theorie geben Ansätze, mit denen man verschiedene Einflüsse auf die HTP der TADDOLe diskutieren kann. Die Orientierungsachse bei den TADDOLen liegt senkrecht zur C2-Achse. Dies wurde mit Hilfe von 2 H-NMR für die Verbindungen 2, 3, 4 und mit Hilfe von 13 C-NMR für die Verbindungen 2, 13, 43, 45, 46 von I. Kiesewalter [7-9] gezeigt. Aus anisotropen UV-Messungen folgt diese Lage der Orientierungsachse für 3, 4, 5, 6, 8, 60, 61. Selbst bei den in C2-Richtung stark verlängerten Molekülen 60, 61 ändert sich der Anisotropiegrad und der ACD im Vergleich zu 3, 8 nur unwesentlich, was ein starkes Argument dafür ist, daß die Orientierungsachse bei den hier untersuchten TADDOLen immer senkrecht zur C2-Achse liegt. Die Mittlere Stellung der Arylgruppen zueinander hat einen Einfluß auf die Parameter der empirischen Regeln für die HTP. Verbindungen 58 und 63 unterscheiden sich nur durch den Austausch Wasserstoff-Methyl im Acetalbereich von den Verbindungen 3, 8. Die HTP ändert sich drastisch, ebenso der UV und der CD. Daraus folgt, daß die Arylgruppen im Mittel anders stehen. Anders ist der Fall beim Vergleich 3 mit 5 und 8 mit 6. Hier gibt es kaum Änderung im CD und kaum Änderung in der HTP. Ein Fall, der in der Mitte liegt sind 3 und 4. Eine Änderung im CD führt zu Änderung in der HTP bei gleichem Chromophor. Durch die Drehbarkeit um 4 C-Arylachsen besitzen die TADDOLe Konformere. Jedoch sind die Konformere sich sehr ähnlich. MM2-Rechnungen zeigen, daß sich die Konformere nur aufgrund von 180°-Drehungen der Arylgruppen um die C-Arylachse unterscheiden. Die MM2-Rechnungen wurden von Plattner [7-10] durchgeführt. Viele TADDOLe zeigen ein ähnliches konformatives Verhalten. Sie besitzen ca. 37% Temperaturabhängigkeit im CD zwischen 5°C und 75°C. Für diese Untersuchungen wurde im Rahmen dieser Arbeit eine neue Meßzelle konstruiert, die Langzeitmessungen bei Temperaturen erlaubt, die nur ca. 7°C unterhalb des Siedepunktes des Lösungsmittels liegen ohne, daß das Lösungsmittel während der Messung verdampft. Man kann es somit vermeiden, daß man eine zeitabhängige Konzentrationszunahme erhält. Weiterhin muß das verwendete Uvasol-Acetonitril gereinigt werden, um eine Zersetzung der TADDOLe während der Messung zu verhindern. Für die Bestimmung des Ordnungstensors werden bei der NMR-Methode Geometrien benötigt. Dazu wurden von den Verbindungen 4, 13, 46 Röntgenstrukturen angefertigt [7-11]. Die Verbindungen 4 und 46 bilden wegen der Überbrückung gleichzeit ig einen guten Vergleich zu den Metallkomplexen, wie sie bei der enantioselektiven Synthese eingesetzt werden. Mit der Geometrie aus der Röntgenstruktur von 4 wurde mit Hilfe der Exziton-Theorie das CD- und UV-Spektrum berechnet. Durch den Vergleich von gemessenen und nach der Exziton-Methode berechneten UV- und CD-Spektren ist man in der Lage mehr über eine mögliche Geometrie in Lösung zu sagen als nur mit der Röntgengeometrie und MM2-Rechnungen. Hierbei wurden Rechnungen an den Verbindungen 3, 4, 6 durchgeführt. Die Exziton-Methode wurde erstmals auf ein 4-Körperproblem eines organischen Nicht-Polymer-Moleküls angewendet. Das 3-Körperproblem [7-12] sowie die Beschreibung von Polymermolekülen sind in der Literatur bekannt[7-13]. Einige TADDOLe wurden, um große Effekte von kleinsten Verunreinigungen auszuschließen, ausgehend von einer Reinheit größer 99% (HPLC) so weit aufgereinigt, daß mit HPLC keine Verunreinigung mehr nachweisbar war. Verbindung 4 wurde im Rahmen dieser Arbeit synthetisiert. Die AHTP konnte erstmals für ein chirales Molekül außerhalb des experimentellen Fehlers nachgewiesen werden.
Sowohl die gesteigerte Komplexität der Signalverarbeitungsalgorithmen und das umfangreichere Diensteangebot als auch die zum Erzielen der hohen erforderlichen Rechenleistungen erforderliche Parallelverarbeitung führen künftig zu einer stark ansteigenden Komplexität der digitalen Signalverarbeitung in Mobilfunksystemen. Diese Komplexität ist nur mit einem hierarchischen Modellierungs- und Entwurfsprozeß beherrschbar. Während die niedrigeren Hierarchieebenen der Programmierung und des Hardwareentwurfs bereits heute gut beherrscht werden, besteht noch Unklarheit bei den Entwurfsverfahren auf der höheren Systemebene. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs auf höheren Hierarchieebenen. Hierzu wird der Entwurf eines Experimentalsystems für das JD-CDMA-Mobilfunkkonzept auf der Systemebene betrachtet. Es wird gezeigt, daß das Steuerkreismodell ein angemessenes Modell für die digitale Signalverarbeitung in einem Mobilfunksystem auf der Systemebene ist. Das Steuerkreismodell läßt sich einerseits direkt auf die in zukünftigen Mobilfunksystemen einzusetzenden Multiprozessorsysteme abbilden und entspricht andererseits auch der nachrichtentechnischen Sichtweise der Aufgabenstellung, in der das Mobilfunksystem durch die auszuführenden Algorithmen beschrieben wird. Das Steuerkreismodell ist somit ein geeignetes Bindeglied, um von der Aufgabenstellung zu einer Implementierung zu gelangen. Weiterhin wird gezeigt, daß das Steuerkreismodell sehr modellierungsmächtig ist, und sein Einsatz im Gegensatz zu vielen bereits bekannten Entwurfsverfahren nicht auf mittels Datenflußmodellen beschreibbare Systeme begrenzt ist. Die klassischen, aus der von Datenflußmodellen ausgehenden Systemsynthese bekannten Entwurfsschritte Allokierung, Ablaufplanung und Bindung können im Kontext der Steuerkreismodellierung als Verfahren zur Konstruktion der Steuerwerksaufgabe verstanden werden. Speziell für das Experimentalsystem werden zwei verschiedene Ablaufsteuerungsstrategien modelliert und untersucht. Die volldynamische Ablaufsteuerung wird zur Laufzeit durchgeführt und ist daher nicht darauf angewiesen, daß die auszuführenden Abläufe a priori bekannt sind. Bei der selbsttaktenden Ablaufsteuerung werden die hier a priori bekannten Abläufe zum Zeitpunkt der Systemkonstruktion fest geplant, und zur Laufzeit wird dieser Plan nur noch ausgeführt. Schließlich werden noch die Auswirkungen der paketvermittelten burstförmigen Nachrichtenübertragung auf die digitale Signalverarbeitung in zukünftigen Mobilfunksystemen untersucht. Es wird gezeigt, daß es durch Datenpufferung sehr gut möglich ist, die Rechenlast in einem Mobilfunksystem zu mitteln.
Struktur und Werkzeuge des experiment-spezifischen Datenbereichs der SFB501 Erfahrungsdatenbank
(1999)
Software-Entwicklungsartefakte müssen zielgerichtet während der Durchführung eines Software- Projekts erfasst werden, um für die Wiederverwendung aufbereitet werden zu können. Die methodische Basis hierzu bildet im Sonderforschungsbereich 501 das Konzept der Erfahrungsdatenbank. In ihrem experiment-spezifischen Datenbereich werden für jedes Entwicklungsprojekt alle Software-Entwicklungsartefakte abgelegt, die während des Lebenszyklus eines Projektes anfallen. In ihrem übergreifenden Datenbereich werden all die jenigen Artefakte aus dem experiment-spezifischen Datenbereich zusammengefasst, die für eine Wiederverwendung in nachfolgenden Projekten in Frage kommen. Es hat sich gezeigt, dass bereits zur Nutzung der Datenmengen im experiment- spezifischen Datenbereich der Erfahrungsdatenbank ein systematischer Zugriff notwendig ist. Ein systematischer Zugriff setzt jedoch eine normierte Struktur voraus. Im experiment-spezifischen Bereich werden zwei Arten von Experimenttypen unterschieden: "Kontrollierte Experimente" und "Fallstudien". Dieser Bericht beschreibt die Ablage- und Zugriffsstruktur für den Experimenttyp "Fallstudien". Die Struktur wurde aufgrund der Erfahrungen in ersten Fallstudien entwickelt und evaluiert.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
In diesem Aufsatz wird die Arbeitsweise eines Werkzeuges dargestellt, mit dessen Hilfedie Analyse von Feature-Interaktionen in Intelligenten (Telefon-)Netzwerken unterstütztwird. Dieses Werkzeug basiert auf einem von uns entwickelten formalen Lösungsansatz, deraus einem geeigneten Spezifikationsstil, aus einem formalen Kriterium zur Erkennung vonFeature-Interaktionen und aus einer Methode zur Auflösung der erkannten Feature- Interaktionen besteht. Das Werkzeug führt eine statische Analyse von Estelle-Spezifikationendurch und erkennt dabei potientielle Feature-Interaktionen sowie nichtausführbare Transitionen. Darüberhinaus kann es die erkannten nichtausführbaren Transitionen zur Optimierung aus der Spezifikation entfernen. Wir erläutern zunächst kurz den zugrundeliegendenAnsatz und beschreiben danach die Anwendung auf Estelle anhand der Funktionsweisedes Werkzeuges.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
Metall-Ligand-Mehrfachbindungssysteme üben von jeher eine große Anziehungskraft auf den Chemiker aus. Selbst zwei Jahrhunderte nach der Entdeckung der ersten Eisen-Sauerstoff-Mehrfachbindung im Na2FeO4 ist die Faszination an dieser sich dynamisch entwickelnden Richtung der metallorganischen Chemie ungebrochen [1] . So vielfältig wie die verwendeten Metalle und Liganden - bis zum heutigen Tage kennt man Mehrfachbindungen zwischen Übergangsmetallen und den meisten Elementen der 4., 5. und 6. Hauptgruppe - so beeindruckend ist auch die Fülle von Übersichtsartikeln und unterschiedlichsten Publikationen zu diesem Forschungsgebiet [2] . Einen wesentlichen Impuls für das stetig wachsende Interesse stellt die große Zahl von wichtigen industriellen Prozessen dar, in denen Komplexe mit Metall-Ligand-Mehrfachbindungen eine entscheidende Rolle spielen. Exemplarisch sind zu nennen die Haber-Ammoniak-Synthese, die Reduktion von Nitrilen und das SOHIO-Verfahren zur Umwandlung von Propylen in Acylonnitril [3-5] . Desweiteren werden jährlich ca. 14 Millionen Tonnen chemischer Stoffe durch Oxidationsprozesse hergestellt [6] . Wer würde ernsthaft behaupten, die Mechanismen metallkatalysierter Prozesse wirklich zu kennen? Allein diese wenigen Beispiele zeigen auf, wie wichtig das Verständnis für Struktur und Bindungsverhältnisse sowie das Reaktionsverhalten rein anorganischer und metallorganischer Verbindungen ist und welcher großen Herausforderung sich die Grundlagenforschung in den nächsten Jahren zu stellen hat, ungeachtet der Verdienste, die sie bis dato erzielte.
Die Induktive Logische Programmierung (ILP) ist ein Forschungsgebiet, das Techniken aus dem Maschinellen Lernen und der Logischen Programmierung vereint. Sie untersucht das klassische Problem induktiven Lernens aus klassifizierten Beispielen im Rahmen der Hornlogik erster Stufe. Inzwischen gibt es eine grosse Zahl verschiedener Ansätze für dieses Lernproblem, die sich hauptsächlich in der Suchrichtung im Hypothesenraum, den Generalisierungs- und Spezialisierungsoperatoren und den verwendeten nichtlogischen Beschränkungen (Bias) unterscheiden. Der Vergleich und die Integration dieser verschiedenen Ansätze war die Hauptmotivation für die Entwicklung des Systems MILES. MILES ist eine Programmierumgebung für die ILP, die neben Mechanismen zur Repräsentation und Verwaltung von Beispielen, Hintergrundwissen und Hypothesen einen Werkzeugkasten mit einem Grossteil der bekannten Generalisierungs-, Spezialisierungs- und Reformulierungsoperatoren enthält. Eine generische Kontrolle erlaubt, verschiedene dieser Operatoren in einen spezifischen ILP-Algorithmus zu integrieren. In diesem Beitrag wird ein kurzer Überblick über die Repräsentation, die Operatoren und die Kontrolle von MILES gegeben.
Spektralsequenzen
(1999)
Das Skript vermittelt die für eine Beschlagwortung nach den Regeln für den Schlagwortkatalog (RSWK) notwendigen Grundkenntnisse. Darüber hinaus wird beschrieben, wie die Schlagwortdaten in der Verbunddatenbank des Südwestdeutschen Bibliotheksverbund (SWB) strukturiert sind, welche Prinzipien bei der kooperativen Beschlagwortung im SWB einzuhalten sind und wie die Daten erfasst werden müssen . Des weiteren werden die in der Datenbank des SWB realisierten Suchmöglichkeiten aufgezeigt und aufgelistet, wie die dazugehörigen Suchbefehle lauten. Für Fragen der Organisation des Geschäftsgang der Teilnehmerbibliotheken wird exemplarisch der Arbeitsablauf an der UB Kaiserslautern dargestellt.
Synthese und erste Anwendungen pH-sensitiver Spinmarker für site-specific spin-labelling Experimente
(1999)
Die Prämature Chromosomenkondensation (PCC) - Untersuchungen zum Einsatz in der Mutagenitätstestung
(1999)
In dieser Arbeit wurde die Wirkung der a,b-ungesättigten Aldehyde Crotonaldehyd (CA), trans-2-Hexenal (HX), und des N-Nitrosodiethanolamin (NDELA) untersucht. Als Kontrollsubstanzen wurde das als Aneugen bekannte Diethylstilbestrol (DES) und die als Klastogene bekannten Mutagene Mitomycin C (MMC) und Bleomycin (BLM) eingesetzt. Es wurde die Technik der vorzeitigen Chromosomenkondensation (PCC) an unstimulierten Lymphozyten in der G0-Phase eingesetzt, die für 1 Stunde mit dem jeweiligen Mutagen inkubiert worden waren. Das Ausmaß der mutagenen Schädigung bei den PCCs wurde lichtmikroskopisch durch Auszählen von Chromatinelementen analysiert. Ze llen mit mehr als 46 Chromatinelementen wurden als geschädigt gewertet. Die Resultate der PCC-Studien wurden mit den Ergebnissen aus 48 Stunden-Metaphasenkulturen verglichen. Mit der Fluoreszenz plus Giemsa (FPG)-Technik wurden die Mitosen, die zum erstenmal nach Mutagenapplikation das Metaphasestadium erreicht hatten, identifiziert. Die Metaphasenanalyse aus 48 Stunden-Kulturen zeigte für CA bei 60microM und für HX bei 100microM eine schwach signifikante Erhöhung der Anzahl aberranter Metaphasen. Die für CA zusätzlich durchgeführten 73 Stunden-Kulturen, bei denen die Mutagenbehandlung erst 48 Stunden nach Kulturansatz durchgeführt wurden, ergab ab 240microM eine schwach signifikante Erhöhung aberranter Metaphasen im Vergleich zu unbehandelten Lymphozyten. Die Analyse der Metaphasen aus 48 Stunden-Kulturen nach NDELA-Behandlung ergab, daß sich die Zahl der aberranten Metaphasen nur bei einer Konzentration von 2000microM signifikant im Vergleich zu den Zellen aus den Kontrollkulturen erhöhte. Die anderen getesteten NDELA-Konzentrationen auch die in den 73 Stunden-Kulturen eingesetzten erhöhten die Aberrrationsrate in den Metaphasechromosomen, allerdings statistisch nicht signifikant. Nach MMC-Behandlung (6microM) zeigten 27,5%, nach DES-Behandlung (100microM) 7,6% und nach Bleomycin-Behandlung (10microg/ml) 8,8% der Metaphasen Aberrationen. Damit war die Anzahl geschädigter Metaphasen im Vergleich zu den Zellen unbehandelter Kontrollkulturen nach MMC-Inkubation (6microM) und nach Bleomycin-Applikation (10microg/ml) statistisch hoch signikant, nach DES-Inkubation (100microM) allerdings nicht signifikant erhöht. Die PCC-Technik erwies sich als die im Vergleich zur Metaphasenanalyse sensitivere Methode. Alle getesteten Substanzen erhöhten die Anzahl der Chromatinelemente/Zelle dosisabhängig. Unbehandelte Lymphozyten wiesen zwischen 1,0 und 1,8 Fragmente pro geschädigte Zelle auf. Dabei waren zwischen 6,1 und 15,8% der unbehandelten Zellen geschädigt. Nach CA-Inkubation (240microM) stieg die Zahl geschädigter PCCs auf 48,7% an, wobei 3,4 Fragmente pro geschädigte Zelle zu beobachten waren. Nach Behandlung der Zellen mit HX(150microM) waren 42,9% der Zellen geschädigt und wiesen 4,6 Fragmente pro geschädigte Zelle auf. Damit war die Zunahme der Schädigung im Vergleich zur Kontrolle hoch signifikant. Die Inkubation mit NDELA schädigte die Lymphozyten in der G0-Phase bereits ab einer Konzentration von 1000microM hoch signifikant. Dabei waren 56,6% der Lymphozyten geschädigt und es traten 4,1 Fragmente pro geschädigte Zelle auf. Nach Inkubation mit MMC (20microM) waren 46,3% der Zellen geschädigt und wiesen 3,3 Fragmente pro geschädigte Zelle auf. Die Behandlung der Lymphozyten mit DES (200microM) induzierte in 26,3% der Zellen mehr als 46 Chromatinelemente pro Zelle, wobei 2,8 Fragmente pro geschädigte Zelle auftraten. Nach Behandlung der Lymphozyten mit a,b-ungesättigten Aldehyden wurde in den PCCs zusätzlich ein interessantes Phänomen beobachtet: die vorzeitig kondensierten Chromosomen erschienen im Vergleich zu den PCCs unbehandelter Zellen weniger stark kondensiert. Um das Ausmaß der Entspiralisierung erfassen zu können, wurden die PCCs zunächst semiquantitativ gemäß ihrem Kondensationsgrad in 4 Kategorien eingeteilt, wobei der Kategorie 1 die am stärksten kondensierten PCCs, der Kategorie 4 die am wenigsten kondensierten PCCs zugeordnet wurden. Bei einer CA-Konzentration von 480microM waren 55,6% und einer HX-Konzentration von 300microM waren 57,4% der untersuchten Zellen Kategorie 4 zuzuordnen. Durch die Kombination der PCC-Technik mit der Fluoreszenz in situ-Hybridisierung und den Einsatz einer Painting Sonde (exemplarisch für Chromosom 4) wurde die Längenveränderung der PCCs genauer quantifiziert werden. Dazu wurde die Länge der Chromosom 4-PCC vor und nach Behandlung mit Crotonaldehyd (240microM und 480microM) mit einem computergestützten Programm ausgemessen. So ergab sich nach Crotonaldehyd-Behandlung (480microM) durchschnittlich eine Längenzunahme um das zwei- bis dreifache. Elongierte PCCs wurden nach Inkubation der Lymphozyten mit NDELA und Bleomycin nicht beobachtet; nach Inkubation mit den Mutagenen MMC (20microM) und DES (200microM) trat dieses Phänomen nur leicht auf. Reparaturkinetikstudien mit den Hemmstoffen Arabinofuranosylcytosin, Hydroxyharnstoff und Novobiocin lassen eine verstärkte Excisionsreparatur als Ursache für die beobachtete verminderte Kondensation der PCCs nach Inkubation mit a,b-ungesättigten Aldehyden unwahrscheinlich erscheinen. Die nach Inkubation mit a,b-ungesättigten Aldehyden beobachtete verminderte Kondensation der PCCs ist eher das Resultat von Veränderungen der mitotischen Faktoren und/oder Chromatinstrukturen. Möglicherweise interferieren a,b-ungesättigte Aldehyde mit den Phosphorylierungsprozessen der Histone H1 und/oder H3, die für die PCC-Induktion bedeutsam sind und die durch die Aktivität der mitotischen Faktoren vermittelt werden.
Ziel dieser Arbeit ist es, eine Methode zur Verfügung zu stellen, mit der ein Simulator für gebäudespezifische Aufgaben modelliert werden kann. Die Modellierung muß dabei so angelegt sein, daß sowohl einfache als auch sehr komplexe Simulatoren für spezielle Gebäude entworfen werden können. Aus dem erstellten Modell ist es anschließend möglich, mit Hilfe von Generatoren automatisch ein Programm zu erzeugen. Dadurch kann ein Entwerfer ohne spezielle Kenntnisse auf dem Gebiet der Simulation einen Gebäude-Simulator entwickeln. Zur Modellierung wurde ein domänenspezifischer Katalog von Entwurfsmustern erstellt. Dabei können die einzelnen Muster direkt zur Modellierung und Codegenerierung eingesetzt werden.
Seinen Versuch, den Begriff der negativen Größen in die Weltweisheit einzuführen beginnt der neununddreißigjährige Immanuel Kant mit einer grundsätzlichen Erörterung über einen etwaigen Gebrauch, den man in der Weltweisheit von der Mathematik ma-chen kann. Dabei stellt er die These auf, daß Mathematik grundsätzlich nur auf zweierlei Art in die Philosophie eingreifen könne. Eine erste Möglichkeit sieht Kant in der Nachahmung mathematischer Methoden bei der Darstellung von Philosophie, die andere Möglichkeit besteht für ihn in der konkreten Anwendung mathematischer Theorien in der Naturlehre. Die zuerst genannte Möglichkeit beurteilt Kant ausgesprochen negativ; seine Kritik an dem von Comenius zunächst ganz allgemein formulierten und dann von Christian Wolff insbesondere für die Philosophie favorisierten Programm einer Präsentation der Philosophie nach mathematischem Vorbild einer Darstellung more geometrico demonstrata ist hinlänglich bekannt. Die Verwendung von Mathematik in der Naturlehre sieht Kant zwar durchaus positiv; in den Metaphysischen Anfangsgründen der Naturwissenschaft wird er gut zwei Jahrzehnte später sogar jene berühmte Behauptung hinzufügen, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist. Dennoch weist Kant mit aller Deutlichkeit auf die engen Grenzen des Wirkungsbereichs solcher Anwendungen von Mathematik hin, denn seiner Meinung nach würden aber auch nur die zur Naturlehre gehörigen Einsichten von derartigem mathematischem Zugriff profitieren.
In einem Beitrag zu Platons Philosophie des Abstiegs schreibt C.F. v. Weizsäcker, er sei "überzeugt, daß die griechische Philosophie, dieses in allen Weltkulturen einzigartige Kunstwerk, ohne das mathematische Paradigma undenkbar gewesen wäre" . Und in seiner berühmten Kant-Vorlesung im WS 1935/36 erklärte M. Heidegger, es sei "kein Zufall, daß die Kritik der reinen Vernunft... ständig von einer Besinnung auf das Wesen des Mathematischen und der Mathematik begleitet sei" . Was hier über Platon und Kant gesagt wird, trifft auf fast alle abendländischen Philosophen von Rang zu: Explizit oder implizit spielt die Mathematik eine entscheidende Rolle für die neue philosophische Konzeption. Welche Gründe sind es, die der Mathematik einen so hohen Stellenwert im Denken der maßgebenden Philosophen sichern? Mit welchen Intentionen und Zielvorstellungen montieren Philosophen seit Platon bis Heidegger, seit Aristoteles bis Bloch immer wieder Aussagen über Mathematik in ihre Philosophie? Weshalb war in den vergangenen zweieinhalb Jahrtausenden keine andere Wissenschaft für die Philosophie so >>frag-würdig<< wie die Mathematik? Die Philosophie hat - dies ist offensichtlich - den Dialog mit der Mathematik immer wieder gesucht. Und wie steht es um das Interesse der Mathematik an einem Dialog mit der Philosophie? In einem äußerst gehaltvollen und auch heute noch sehr lesenswerten Aufsatz Mathematik und Antike stellt der Mathematiker O. Toeplitz 1925 die Frage, "ob einmal im Dasein der Mathematik die Philosophie bestimmend in sie eingegriffen hat, ihre eigentliche definitive Gestalt gebildet hat" ? Eine derartige Initiative aus der Mathematik heraus zum Dialog mit der Philosophie ist kein Einzelfall. Cantor, Hilbert, Weyl, Gödel und Robinson - um nur einige Repräsentanten der neueren Mathematik in Erinnerung zu rufen - haben sich immer wieder um Kontakte mit der Philosophie bemüht.
Die Mehrzahl aller CBR-Systeme in der Diagnostik verwendet für das Fallretrieval ein numerisches Ähnlichkeitsmass. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem durch die Einführung eines an den Komponenten des zu diagnostizierenden technischen Systems orientierten Ähnlichkeitsbegriffs nicht nur das Retrieval wesentlich verbessert werden kann, sondern sich auch die Möglichkeit zu einer echten Fall- und Lösungstransformation bietet. Dies führt wiederum zu einer erheblichen Verkleinerung der Fallbasis. Die Ver- wendung dieses Ähnlichkeitsbegriffes setzt die Integration von zusätzlichem Wissen voraus, das aus einem qualitativem Modell der Domäne (im Sinne der modellbasierten Diagnostik) gewonnen wird.
Bestimmung der Ähnlichkeit in der fallbasierten Diagnose mit simulationsfähigen Maschinenmodellen
(1999)
Eine Fallbasis mit bereits gelösten Diagnoseproblemen Wissen über die Struktur der Maschine Wissen über die Funktion der einzelnen Bauteile (konkret und abstrakt) Die hier vorgestellte Komponente setzt dabei auf die im Rahmen des Moltke-Projektes entwickelten Systeme Patdex[Wes91] (fallbasierte Diagnose) und iMake [Sch92] bzw. Make [Reh91] (modellbasierte Generierung von Moltke- Wissensbasen) auf.
Die systematische Verbesserung von Techniken zur Entwicklung und Betreuung von Software setzt eine explizite Darstellung der in einem Projekt ablaufenden Vorgnge (Prozesse) voraus. Diese Darstellungen (Prozemodelle) werden durch Software- Prozemodellierung gewonnen. Eine Sprache zur Beschreibung solcher Modelle ist MVP-L. Verschiedene Standard-Prozemodelle existieren bereits. Bisher gibt es jedoch kaum dokumentierte Software-Entwicklungsprozesse, die speziell fr die Entwicklung reaktiver Systeme entworfen worden sind, d. h. auf die besonderen Anfordernisse bei der Entwicklung reaktiver Systeme zugeschnitten sind. Auch ist bisher nur wenig Erfahrung dokumentiert, fr welche Art von Projektkontexten diese Prozesse gltig sind. Eine Software- Entwicklungsmethode, die - mit Einschrnkungen - zur Entwicklung reaktiver Systeme geeignet ist, ist SOMT (SDL-oriented Object Modeling Technique). Dieser Bericht beschreibt die erfahrungsbasierte Modellierung der Software-Entwicklungsprozesse von SOMT mit MVP-L. Zunchst werden inhaltliche Grundlagen der Software-Entwicklungsmethode SOMT beschrieben. Insbesondere wird auf die eingesetzten Techniken und deren Kombination eingegangen. Anschlieend werden mgliche Projektkontexte charakterisiert, in denen das SOMT-Modell im Sinne eines Erfahrungselements Gltigkeit hat. Darauf werden der Modellierungsvorgang sowie hierbei gemachte Erfahrungen dokumentiert. Eine vollstndige Darstellung des Modells in grafischer MVP-L-Notation befindet sich im Anhang. Die Darstellung des Modells in textueller Notation kann der SFB-Erfahrungsdatenbank entnommen werden.
Verfahren des Maschinellen Lernens haben heute eine Reife erreicht, die zu ersten erfolgreichen industriellen Anwendungen geführt hat. In der Prozessdiagnose und -steuerung ermöglichen Lernverfahren die Klassifikation und Bewertung von Betriebszuständen, d.h. eine Grobmodellierung eines Prozesses, wenn dieser nicht oder nur teilweise mathematisch beschreibbar ist. Ausserdem gestatten Lernverfahren die automatische Generierung von Klassifizierungsprozeduren, die deterministisch abgearbeitet werden und daher für die Belange der Echtzeitdiagnose und -steuerung u.U. zeiteffektiver als Inferenzmechanismen auf logischer bzw. Produktionsregelbasis sind, da letztere immer mit zeitaufwendigen Suchprozessen verbunden sind.
Im Laufe der letzten Jahre ergaben wissenschaftliche Beobachtungen, daß verschiedene anthropogene Umweltkontaminanten, auch als endokrin wirksame Substanzen oder endocrine disruptors bezeichnet, einen negativen Effekt auf das Reproduktionsvermögen von wildlebenden Tierpopulationen haben können. Für eine Reihe von Umweltkontaminanten, zuerst hauptsächlich in aquatischen Systemen beschrieben, wird vor allem eine estrogene Wirkung auf den Organismus diskutiert. In einigen Wildtierspezies, wie Alligatoren (Guilette, 1994), Seevögeln (Fry, 1981), Fischen (Jobling, 1993) und Mollusken (Bryan, 1986) wurde das Auftreten von strukturellen Geburtsfehlern der primären Geschlechtsorgane, Verhaltensanomalien beispielsweise während der Brutpflege und eine Verschiebung des Geschlechtergleichgewichtes bereits beschrieben.
Die FoF1-ATP-Synthase katalysiert die Synthese von ATP aus ADP und Pi bei der oxidativen bzw. Photophosphorylierung. Der ATP-Synthase-Komplex läßt sich in zwei funktionelle Einheiten unterteilen: Fo ist ein integraler Membranproteinkomplex, der den Protonenkanal bildet. F1 hingegen ist ein wasserlöslicher Proteinkomplex, der die Nukleotidbindungsstellen trägt. Die ATP-Synthase aus Escherichia coli hat die Zusammensetzung alpha3beta3gamma delta epsilon für die F1 und ab2c9-12 für den Fo-Teil. "Native" (d.h. nicht nukleotidbefreite) F1 aus Escherichia coli (EF1) wurde mit verschiedenen spinmarkierten Adeninnukleotiden ESR-spektroskopisch vermessen. Es wurden Spektren mit zwei Signalen gemessen, ein Hinweis auf zwei verschiedene Konformationen der Bindungsstellen. Durch Titrationsexperimente wurden die Bindungsstöchiometrie und die Spektren für die verschiedenen verwendeten Nukleotide ermittelt. Die gleichen Experimente wurden mit einer Mutante, die in den nichtkatalytischen Bindungsstellen keine Nukleotide bindet, durchgeführt. Die vorliegenden Ergebnisse deuten darauf hin, daß zwei der drei katalytischen Bindungsstellen zum äußeren Signal beitragen, während die dritte das innere Signal hervorruft. Die Untereinheiten alpha; und beta der EF1, wurden isoliert und in gleicher Weise wie die F1 untersucht. Während alpha; 0,8 Moleküle SL-ATP binden konnte, zeigte beta keine Bindung. Mit 2',3'-SL-ATP in Komplex mit alpha; konnten ESR-Spektren mit zwei Signalen gemessen werden, die SL-ATP-Derivate, bei denen der Spin-Label entweder an der 2'- oder 3'-Position fixiert ist, zeigten lediglich ein Signal. Die beobachteten 2Azz-Werte unterscheiden sich stark in Abhängigkeit von der Position des Spin-Labels. Um die Bindung der F1 an den Fo-Teil und die Struktur des aus den b- und delta-Untereinheiten gebildeten zweiten Stiels zu untersuchen, wurden verschiedene Mutanten einer wasserlöslichen Form der b-Untereinheit (bsyn) mit dem Spin-Label IodacetamidTEMPO markiert. Das System F1/bsyn wurde mit den an unterschiedlichen Positionen markierten bsyn-Mutanten ESR-spektroskopisch untersucht. Dabei wurden Spektren von freiem bsyn sowie bsyn im Komplex mit F1 und F1-delta (alpha3beta3gamma epsilon) aufgenommen: Alle gelabelten b-Mutanten weisen ähnliche ESR-Spektren von stark mobilen Spin-Labeln auf. Die ähnlichen Werte lassen darauf schließen, daß der b-Dimer über weite Teile eine vergleichbare Struktur besitzt. Im Komplex mit F1 zeigen fast alle Mutanten eine stärkere Immobilisierung als die freien b-Mutanten. Tendenziell nimmt in Richtung des C-Terminus die Differenz der Hochfeld : Mittelfeld-Verhältnisse der Spektren von b und F1/b zu, was die Vermutung nahelegt, daß die Bindung von b an die F1 in Richtung des C-Terminus stärkeren Einfluß auf die Struktur hat. bsyn im Komplex mit F1-delta zeigt nur an einzelnen Positionen eine stärkere Immobilisierung des Spin-Labels. Es scheint somit wahrscheinlich, daß die b-Untereinheit außer über delta noch weitere Kontakte mit der EF1 hat.
Prozeßanalyse und Modellbildung bei der Herstellung gewebeverstarkter, thermoplastischer Halbzeuge
(1999)
Werkstoff- und verarbeitungsspezifische Vorteile gewebeverstärkter, thermoplastischer Faser-Kunststoff-
Verbunde bieten ein erhebliches Potential für die Umsetzung konsequenter Leichtbauweisen in den verschiedenen Anwendungsbereichen der Industrie. In der Regel erfolgt die
Herstellung von Bauteilen in einer Prozeßkette, die sich aus den beiden Kernprozesse Verbundbildung (Imprägnierung und Konsolidierung) und Formgebung zusammensetzt. Die Verbundbildung erfolgt mit Hilfe diskontinuierlicher (Autoklav, Etagenpresse) oder kontinuierliche (Kalander, Doppelbandpresse) Verfahren, die z.B. umformbare Halbzeuge wie ORGANOBLECHEN, zur weiteren Verarbeitung bereitstellen. Diese Entkopplung des Imprägnierungsprozesses der Verstärkungstextilien mit thermoplastischer Matrix von der Bauteilherstellung ermöglicht - analog der Blechumformung - eine großserientaugliche Prozeßtechnik mit kurzen Taktzeiten. Alle wesentlichen Eigenschaften des Verbundwerkstoffes werden so während der Halbzeugherstellung determiniert, während die Bauteilherstellung dann nur der Umformung dient. Auf dem Verbundwerkstoffmarkt ist ein Reihe von Halbzeugen mit verschiedenen Eigenschaftsprofilen verfügbar. Infolge des ständigen Wandels der werkstofflichen Anforderungsprofile
ist jedoch eine permanente Weiterentwicklung der Halbzeuge notwendig. Hieraus resultiert für die Werkstoffhersteller ein großes technisches und wirtschaftliches Risiko, da die
aufwendige Werkstoffentwicklung - aufgrund mangelnder wissenschaftlicher Grundlagen - mit erheblichen Unsicherheiten behaftet ist. Derzeit wird die Neuentwicklung von anforderungsspezifischen Halbzeugen mit Hilfe von Trial- and-Error Versuchen hinsichtlich der universellen Prozeßparameter (Temperatur, Zeit und Druck) betrieben. Derartige Versuchsreihen bedingen einen beträchtlichen finanziellen und zeitlichen Umfang und stellen somit ein wesentliches Entwicklungsrisiko dar. Darüber hinaus sind die Ergebnisse nur für Anlagen gleichen Typs und Bauart uneingeschränkt anwendbar. Eine Übertragbarkeit der Prozeßparameter auf andere Anlagenkonzepte ist nicht gegeben, so daß die Prozeßfenster jeweils immer individuell ermittelt werden müssen. Aufgrund
dieser aufwendigen Vorgehensweise werden deshalb intensive Anstrengungen unternommen, die während der Materialherstellung auftretenden Vorgänge mathematisch zu
modellieren, um dann durch rechnerische Simulation der Verarbeitungsprozesse eine Abschätzung des energetischen und zeitlichen Aufwandes zu ermöglichen. Daraus ergab sich die Aufgabe, das Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter, flächiger thermoplastischer Halbzeuge durch umfangreiche Untersuchungen an verschiedensten Materialkombinationen zu analysieren. Ziel war es, die bei der Halbzeugherstellung
auftretenden Effekte zu charakterisieren, Ansätze zu deren Modellierung zu entwickeln und Erkenntnisse zur Optimierung der Prozeß- und Materialparameter zu gewinnen. Wesentliche Ergebnisse der Prozeßanalyse sind das Auftreten von transversalen Makro- und Mikroströmen sowie das Entstehen von festigkeits- und steifigkeitsreduzierenden Bindenähten
und Lufteinschlüssen. Ferner laufen innerhalb der Faserbündel, temperatur- und druckabhängige Lösungs- und Diffusionsvorgänge bei der Eliminierung der Lufteinschlüsse sowie Wechselwirkungen zwischen elastischen Geweben und strömender Matrix ab. Zentrales Ergebnis der Untersuchung stellt ein abgeleitetes System von funktionalen Abhängigkeiten dar, welches einen ersten, grundlegenden Schritt zur Erstellung eines umfassenden Simulationsmodells des komplexen Prozesses bildet. Hiermit schließt die vorliegende Arbeit erstmals eine Lücke zwischen anlagenspezifischen Versuchsreihen und der allgemeinen numerischen Prozeßsimulation, die es ermöglicht, das
Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter thermoplastischer Halbzeuge auf experimenteller Basis anlagenunabhängig zu beschreiben. Dazu wurden die regelbaren Prozeßgrößen Verarbeitungstemperatur T (°K), Verarbeitungszeit t (s) und
Konsolidierungsdruck P (Pa) zu einer dimensionslosen, matrixspezifischen Prozeßkonstanten - B-Faktor (tP/n(T))- zusammengefaßt, die den Verarbeitungszyklus energetisch und zeitlich bilanziert. Diese Vorgehensweise erlaubt die Untersuchung des funktionalen Zusammenhangs zwischen Prozeßregelgrößen und Imprägnierungsqualität innerhalb bestimmter Grenzen sowie den Vergleich verschiedenartiger diskontinuierlicher und kontinuierlicher Anlagentypen und
die Ableitung von Substitutionsbeziehungen zwischen den Regelgrößen. Dabei konnte gezeigt werden, daß die imprägnierungsbedingte Abnahme der Halbzeugdicke in Abhängigkeit des B-Faktors unabhängig von der verwendeten Anlagentechnik einem exponentiellen Gesetz folgt, dessen halbzeugspezifische Regressionskoeflizienten die während der Imprägnierung und Konsolidierung auftretenden Effekte zusammenfassen und die Ableitung optimaler Prozeßeinstellungen erlauben. Damit ist es möglich, für bestimmte Materialpaarungen mit Hilfe des B-Faktors einen Verarbeitungsbereich zu identifizieren, der aufgrund der
anlagenunabhängigen Betrachtungsweise der Parameter Temperatur, Imprägnierzeit und Konsolidierungsdruck
unter Berücksichtigung verschiedener Randbedingungen prinzipiell auf jede beliebige Anlagenkonfiguration zur Imprägnierung und Konsolidierung übertragen werden kann. Dies schließt deshalb nicht nur diskontinuierliche und kontinuierliche Prozesse zur Herstellung flächiger Halbzeuge, sondern darüber hinaus auch Verfahren zur Weiterverarbeitung dieser Materialien ein. Für jede potentielle Materialpaarung kann, ähnlich wie bei rheologischen Kennwerten für Kunststoffe, mit standardisierten Methoden eine Datenbasis geschaffen werden, die die Abhängigkeit des Imprägnierungsgrades von den Verarbeitungsbedingungen beschreibt. Damit kann der Versuchsaufwand bei der Einführung eines neuen Werkstoffsystems auf einer Anlage reduziert, die Verarbeitung wirtschaftlich optimiert, die Beanspruchung der Werkstoffkomponenten bei der Verarbeitung minimiert und die Einsatzstoffe verarbeitungsgerecht modifiziert werden.
Im Mittelpunkt der vorliegenden Dissertation stehen Synthesen neuer fünfgliedriger, heterocyclischer Betaine und die Durchführung anschließender Reaktivitätsstudien. Der Zugang zu heterocyclischen Betainen kann auf zwei unterschiedlichen Reaktionswegen realisiert werden. Dabei müssen jeweils als direkte Vorläufer der neuen fünfgliedrigen Betaine I Heterocumulen-Derivate des Typs II diskutiert werden, die in g-Position zu ihrer Isocyanat-, Keten-, Ketenimin- bzw. Thioketen-Einheit eine Dialkylaminogruppe besitzen (s. Schema 83). Die direkte Cyclisierung zu den neuen Betainen erfolgt dann über einen nukleophilen Angriff des freien Elektronenpaars der Dialkylaminogruppe an das Heterocumulensystem. Der erste Teil meiner Arbeit beschreibt die Herstellung heterocumulenischer Systeme vom Typ II durch die Umsetzungen von Chlorcarbonyl-Heterocumulenen (Chlorcarbonylketenen bzw. Chlorcarbonylisocyanaten) mit monoprotischen 1,2-Binukleophilen (Hydroxylaminen, Hydrazinen und Pyrazolen). Im zweiten Teil werden die neuen Betaine I durch Umsetzungen des N-(Trimethylsilylethinyl)-N,N ,N -trimethylhydrazins mit Arylisothiocyanaten realisiert. Im dritten Teil der Arbeit beschäftige ich mich mit der Umwandlung der hergestellten Thioxo- Betaine in ihre Oxo-Analoga mit Hilfe von Entschwefelungsreagentien. Das vierte Arbeitsfeld befaßt sich schließlich mit Isomerisierungs- und Alkylierungsreaktionen an ausgewählten Pyrazolidinium-4-id-Betainen.
Der ständig zunehmende Einsatz verteilter DV-Systeme führt zu einem stark steigendenBedarf an verteilten Anwendungen. Deren Entwicklung in den verschiedensten Anwen-dungsfeldern wie Fabrik- und Büroautomatisierung ist für die Anwender bislang kaum zuhandhaben. Neue Konzepte des Software Engineering sind daher notwendig, und zwar inden drei Bereichen 'Sprachen', 'Werkzeuge' und 'Umgebungen'. Objekt-orientierte Me-thoden und graphische Unterstützung haben sich bei unseren Arbeiten als besonders taug-lich herausgestellt, um in allen drei Bereichen deutliche Fortschritte zu erzielen. Entspre-chend wurde ein universeller objektorientierter graphischer Editor, ODE, als einesunserer zentralen Basis-Werkzeuge ('tool building tool') entwickelt. ODE basiert aufdem objekt-orientierten Paradigma sowie einer leicht handhabbaren funktionalen Sprachefür Erweiterungen; außerdem erlaubt ODE die einfache Integration mit anderen Werk-zeugen und imperativ programmierten Funktionen. ODE entstand als Teil von DOCASE,einer Software-Produktionsumgebung für verteilte Anwendungen. Grundzüge von DO-CASE werden vorgestellt, Anforderungen an ODE abgeleitet. Dann wird ODE detaillier-ter beschrieben. Es folgt eine exemplarische Beschreibung einer Erweiterung von ODE,nämlich der für die DOCASE-Entwurfssprache.
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
In der vorliegenden Arbeit wird die Zeitfestigkeit von Verbundträgern mit Profilblechen unter Berücksichtigung der während der Einstufen-Belastung im Versuch auftretenden Veränderungen (zyklische Dübelkennlinien, Kraftumlagerungen, ...) im System Verbundträger behandelt. Aus den Ergebnissen der Push-Out-Versuche wird eine Ermüdungsfestigkeitskurve -Wöhlerlinie - bestimmt, die im weiteren Grundlage der Zeitfestigkeitsuntersuchungen der Kopfbolzendübel in Betongurten mit Profilblechen ist. In einer ersten, vereinfachten Versuchsauswertung werden die Dübelkräfte der Verbundträger über die Elastizitätstheorie nach dem elastischen Schubfluß und unter Annahme starrer Verdübelung (d. h. Ebenbleiben des Gesamtquerschnitts) ermittelt. Daraus wird dann die Zeitfestigkeit berechnet. Die Bestimmung der Restlebensdauer der Verbundmittel über nichtlinear berechnete Dübelkäfte unter Berücksichtigung der Nachgiebigkeit in der Verbundfuge - jedoch mit Steifigkeiten wie bei Erstbelastung - erfolgt in einer zweiten Auswertungsstufe. Um die wahrscheinlichen Vorgänge im Verbundträger unter wiederholter Be- und Entlastung erklären und anschließend in Computersimulationen nachvollziehen zu können, wird in den Kapiteln 4 bis 6 das phänomenologische Verhalten der einzelnen Komponenten des Verbundträgers (Stahlträger, Betongurt und Verdübelung) unter zyklischer Beanspruchung behandelt. Unter der Annahme, daß die einzelnen Komponenten ihr phänomenologisches Verhalten unter zyklischer Beanspruchung auch im Verbundträger -Zusammenwirken der einzelnen Komponenten zu einer gemeinsamen Tragwirkung- beibehalten, wird in Kapitel 7 ein Rechenmodell entwickelt. Mit den hergeleiteten zyklischen Dübelkennlinien und nichtlinearen Computersimulationen werden Schädigungen für alle Elemente (Dübel, Stahlträger) der Verbundträger - zu jedem Zeitpunkt während der Versuchsdauer - bestimmt. Mittels der linearen Schadensakkumulationshypothese von Palmgren-Miner und mit den für die einzelnen Elementen bestimmten Ermüdungsfestigkeitskurven wird daraus die jeweilige Restlebensdauer berechnet. Dabei werden die ständigen Veränderungen im nichtlinearen Tragverhalten der Verbundträger aufgrund der Kraftumlagerungen infolge der zyklischen Kennlinien, der Nachgiebigkeit in der Verbundfuge, des Ausfalls einzelner Dübel, der evtl. auftretenden bleibenden Verformungen, der unterschiedlichen Be- und Entlastungspfade, ..., in den Simulationsberechnungen erfaßt. Abschließend wird das Verbundträgertragverhalten bis zum endgültigen Versagen (Bruch des Trägers) auch nach dem Abscheren (Ausfall) des ersten Dübels dargestellt.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
In der vorliegenden Arbeit wurde das Reaktionsverhalten von zweikernigen Eisencarbonyl-komplexen mit h5:3-koordinierten, verbrückenden Fulvenliganden gegenüber ausgewählten Alkinen untersucht. Hierzu kamen die drei Komplexe Pentacarbonyl(m-h5:3-6,6-diphenylfulven)dieisen(Fe-Fe) (1), Pentacarbonyl(m-h5:3-6-methyl-6-phenylfulven)dieisen(Fe-Fe) (2) und Pentacarbonyl[m-h5:3-6(E-prop-1-enyl)fulven]dieisen(Fe-Fe) (5) zum Einsatz. Die Charakterisierung der Produkte erfolgte anhand der IR-, 1H-NMR- sowie 13C-NMR-Spektren. Darüber hinaus konnte von den Verbindungen 7 und 19 eine Kristallstrukturanalyse angefertigt werden. Bei den Umsetzungen des literaturbekannten Komplexes 1 sowie bei den Umsetzungen von Komplex 2 mit ausgewählten Alkinen konnten jeweils fünf Produkte isoliert werden. Bei diesen insertiert das eingesetzte Alkin ausschließlich in ß-Position am Fünfring in die Eisen-Kohlenstoff-Bindung, wobei die CC-Bindungsknüpfung bei den verwendeten 1-Alkinen regiospezifisch an C2 erfolgt. Darüber hinaus konnte aufgrund NMR-spektros-kopischer Untersuchungen die Stellung der Methylgruppe am exocyclischen Kohlenstoff der aus den Umsetzungen mit 2 gebildeten Produkte, ausschließlich in Z-Position am Enylsystem nachgewiesen werden. Zusätzlich zur bislang nicht literaturbekannten Verbindung 2 konnten bei deren Synthese die beiden ebenfalls bislang unbekannten Komplexe Hexacarbonyl(m-h5:1-6-methyl-6-phenylfulven)dieisen(Fe-Fe) (3) und Tetra-carbonyl-(m-h5:5-1,2-dicyclopenta-dien-diyl-1,2-dimethyl-1,2-diphenylethan)dieisen (Fe-Fe) (4) isoliert werden. Bei den photochemischen Umsetzungen der literaturbekannten Verbindung 5 mit Alkinen erfolgt die CC-Bindungsknüpfung zwischen dem Alkin und dem Fulvenliganden nicht am Fünfring, sondern am exocyclischen Enylsystem. In einer Pauson-Khand-analogen Reaktion wird unter Einbezug eines Äquivalentes Kohlenmonoxid ein Cyclopentenonsystem generiert, dessen Sauerstoffatom an die Pentacarbonyldieiseneinheit koordiniert ist. Bei Verwendung von 2-Butin als Reaktionspartner kann zusätzlich Komplex 16 isoliert werden, welcher als ein Zwischenprodukt auf dem Wege der Synthese des Cyclopentenon-systems angesehen werden kann. Weiterhin konnten in den drei Verbindungen 1, 2 und 4 gehinderte Ligandbewegungen mit Hilfe der dynamischen NMR-Spektroskopie aufgefunden und studiert werden.
Das Enzym F0F1-ATP-Synthase katalysiert die Phosphorylierung von ADP zu ATP unter Ausnutzung des durch die Atmungskette entstehenden Protonengradienten an Membranen. Hierbei pumpt der membranintegrale F0-Teil des Proteins Protonen durch die Membran und induziert die ATP-Synthese, welche auf dem peripheren, wasserlöslichen F1-Teil des Proteins (F1-ATPase) stattfindet. F0 besteht aus drei Proteinuntereinheiten der Stöchiometrie a b_2 c_9-12, während F1 aus fünf Untereinheiten der Stöchiometrie alpha_3 beta_3 gamma delta epsilon zusammengesetzt ist. 'Native' und nucleotidbefreite F1-ATPase aus Escherichia coli (EF1, mit und ohne intrinsischen Nucleotiden) wurde mit 2',3'-O-(1-Oxy-2,2,6,6-tetramethyl-4-piperidyliden)-adenosin-5'-triphosphat (SL*-ATP) als Mg2+-Komplex mit ESR-Spektroskopie untersucht. Durch Titrationsexperimente wurden die Bindungsstöchiometrie und die ESR-Spektren in Abhängigkeit der Nucleotidkonzentration ermittelt. Die Ergebnisse dieser Untersuchungen deuten darauf hin, dass unabhängig von der Anwesenheit intrinsischer Nucleotide maximal 3 mol SL*-ATP pro mol Enzym ausschliesslich in den katalytischen Nucleotidbindungsstellen gebunden wurden. Molekülmodelle von SL*-ATP in den Bindungsstellen von mitochondrialer F1-ATPase unterstützten diese Resultate ebenso wie ATPase-Aktivitätstests von EF1 mit SL*-ATP als Substrat. Bei nucleotidbefreiter EF1 war die Substratsättigung bei substöchiometrischen Nucleotidkonzentrationen höher als beim nativen Enzym. Die ESR-Spektren von EF1 mit SL*-ATP.Mg2+ zeigten zwei au! f unterschiedliche Spinsonden-Mobilitäten hinweisende Komponenten beim nucleotidbefreiten Enzym und nur eine bei nativem Enzym. Ein verkürzter, wasserlöslicher Teil der b-Untereinheit von EF0 (b_sol) wurde mit Raum- und Tieftemperatur-ESR-Spektroskopie auf seine Struktur als Untereinheiten-Dimer alleine und an F1 gebunden untersucht. Bei Tieftemperatur-ESR-Spektren ist das Signalamplituden-Verhältnis von Tief- und Hochfeldsignal zu Zentralfeldsignal, auch als Kokorin-Zamaraev-Parameter bezeichnet, ein Indikator für dipolare Wechselwirkungen von Spinsystemen und somit für deren Abstand im Bereich von 8-25 Å. Es wurden einerseits verschiedene Cystein-Mutanten von b_sol (als b_syn bezeichnet) und andererseits eine Cysteinmutante von EF1 spezifisch kovalent mit Spinlabeln verknüpft. Die vermessenen b_sol-F1-Komplexe waren somit zum einen ausschliesslich an b, andererseits nur an EF1 und ferner sowohl an b als auch an EF1 spinmarkiert. Die Messungen ergaben, dass die Struktur des carboxyterminalen Bereichs von b_sol zwischen den Aminosäurenpositionen 124 und 139 alphahelikalen Charakter besitzt. Aufgrund vo! n Differenzen der Kokorin-Zamaraev-Parameter scheinen sich bei der Bindung von b_sol an EF1 die Helices der Untereinheiten des b_sol-Dimers gegeneinander zu verdrehen. Trotz Abwesenheit der delta-Untereinheit von EF1 schien b_sol an F1 zu binden. Die Strukturen von b_sol-Dimer alleine, im Komplex mit EF1 sowie EF1 ohne delta scheinen sich jeweils deutlich zu unterscheiden und weisen auf eine hohe Flexibilität der b-Untereinheit hin. Der Abstand der Nucleotidbindungsstellen auf den beta-Untereinheiten von EF1 zum Proteinrückgrat von b_sol ist mit mehr als 20-25 Å einzuschätzen, da mit der oberen Messtechnik keine dipolaren Wechselwirkungen ausgemacht werden konnten. Molekülmodelle eines b_syn-Dimerenfragments im Bereich der Aminosäurenpositionen 120-145 am carboxyterminalen Ende von b sowie verschiedener spinmarkierter Varianten des gleichen Dimerenfragments zeigten eine Verdrehung der beiden Helix-Längsachsen zueinander. Zwischen den Spinsystem-Abständen im Modell und den geme! ssenen Kokorin-Zamaraev-Parametern war eine Korrelation ersichtlich.
Die geometrische Eigenschaft "Chiralität", der man sowohl in der Wissenschaft als auch unbewußt im Alltag sehr oft gegenübersteht, wurde von Lord Kelvin 1884 in folgender Weise definiert [1, 2]: "Ich nenne jede geometrische Figur oder Anordnung von Punkten chiral und sage, sie besitzt Chiralität, wenn ihr ideales Spiegelbild nicht mit sich selbst zur Deckung gebracht werden kann." Vom Gesichtspunkt der Symmetrie a us betrachtet, sind also alle Objekte chiral, die keine Drehspiegelachsen (Sn) besitzen. Dabei ist z.B. an die beiden Enantiomere des Moleküls Bromchlorfluormethan zu denken oder einfach an die rechte und die linke Hand des Menschen. Ein differenzierteres Bild der Eigenschaft Chiralität erhält man, wenn man ein Konzept diskutiert, in dem vier "Ebenen" der Chiralität eingeführt werden [3]. Die erste, in weiten Kreisen unbekannte Ebene, ist die Chiralität der Atome verursacht durch die sogenannten schwachen Wechselwirkungen [4, 5, 6]. Die aus einzelnen Atomen aufgebauten Moleküle stellen die zweite Ebene dar. Die dritte Ebene wird als "suprastrukturelle Chiralität" bezeichnet und steht in isotropen Phasen für eine Anordnung von Atomen oder Molekülen verursacht durch Nahordnungen, in anisotropen Phasen verursacht durch Orientierungs- oder Positionsfernordnungen. Die Form eines makroskopischen Objekts kann als vierte Ebene betrachtet werden. Dabei kann die "Information Chiralität" von einer Ebene zur nächsten übertragen werden. Die Homochiralität der lebenden Welt, d.h. daß z.B. alle natürlich vorkommenden Aminosäuren L-Aminosäuren sind, könnte sich in der Übertragung der Chiralität von der Ebene der Atome auf die Ebene der Moleküle äußern. Ein Beweis dieser Übertragung ist mit den heutigen experimentellen Mitteln jedoch nicht möglich. Die Übertragung der Chiralität vom Molekül auf die Phase ist im Rahmen der chiralen Induktion sehr gut untersucht, während es zur Übertragung von der dritten Ebene auf die makroskopische Form eines Objektes weniger Studien gibt. Als Beispiele für ein System, das sowohl Chiralität der Ebene zwei als auch der Ebene drei besitzt, können die cholesterische oder die smektische C * Phase dienen. Die Chiralität setzt sich dort sowohl aus einem Beitrag des einzelnen Moleküls als auch aus einem Beitrag der Phase zusammen [7, 8]. Ein chirales Molekül mit der absoluten Konfiguration R oder S kann eine cholesterische Phase der Helizität P oder M induzieren [9]. Damit würde die Information absolute Konfiguration der Ebene 2 auf die Helizität der Phase übertragen. Ein weiteres typisches Beispiel sind substituierte Hexahelicene, die nach Überschreiten einer Grenzkonzentration in manchen organischen Lösungsmitteln zur Bildung columnarer Aggregate neigen [10]. Suprastrukturelle Chiralität kann aber auch an einem System aus achiralen Molekülen, also ohne Chiralität der Ebene zwei, beobachtet werden, wie z.B. an Phasen, die aus sog. "bananenförmigen Verbindungen" aufgebaut sind [11, 12, 13]. Die Stabilisierung der chiralen Phase ist verbunden mit der räumlichen Trennung der chiralen Domänen verschiedener Händigkeit. Bei NaClO3 kann man beobachten, daß im Kristallisationsprozeß zufällig Keime mit rechts- oder linkshändiger Struktur entstehen. In diesem Zusammenhang wird behauptet, daß durch Rühren der Lösung beim Kristallisationsvorgang ein Überschuß einer der beiden Formen erzeugt werden, und daß das ganze System durch einen kinetischen Effekt rein in einer der beiden enantiomeren Formen kristallisieren kann [14, 15]. Gerade in letzter Zeit konzentrieren sich Untersuchungen zunehmend auf Systeme mit suprastruktureller Chiralität, oftmals Polymere, unter ande rem wegen ihrer vielseitigen technologischen Anwendbarkeit. Seit es zu Beginn der achtziger Jahre gelang, durch geeignete organische Substituenten lösliche Poly(dialkylsilylene) zu erhalten [16, 17, 18], stieg das Interesse an dieser Verbindungsklasse nicht zuletzt wegen ihrer optischen Eigenschaften. Insbesondere ist hier die Verwendung der Poly(dialkylsilylene) im Bereich der Fotoleitung [19], nicht linearen Optik [20], Datenspeicherung [21] und Displayherstellung [22] zu erwähnen. Es ist bekannt, daß einige Poly(di-n-alkylsilylene) wie z. B. Poly(dipropylsilylen) und Poly(dipentylsilylen) mit 7/3 helikaler Konformation des Siliziumgerüstes kristallisieren [23, 24, 25]. Dabei ist der Anteil an Rechts- und Linkshelix gleich verteilt. Die Bevorzugung eines Helixdrehsinns kann erreicht werden, wenn optisch aktive Substituenten in das Polymer eingebaut werden [26, 27, 28]. Bei chiralen diacetylenischen Phospholipiden findet eine Umorientierung der Lipidmoleküle in Membrandoppelschichten statt, die zur Verdrehung der Membran zu einem zylinderförmigen Gebilde führt [29]. Die auf diesem Weg gebildeten Hohlkörper dienen als Matrize für die Herstellung metallischer Röhren mit streng definiertem Durchmesser. Sie finden Anwendung bei der Vakuum-Feldemission und in controlled-release -Systemen zum Korrosionsschutz und zur Vorbeugung von Pilzbefall [30].
Deduktionssysteme
(1999)