Refine
Year of publication
- 1999 (100) (remove)
Document Type
- Preprint (46)
- Doctoral Thesis (28)
- Article (7)
- Course Material (6)
- Master's Thesis (6)
- Lecture (2)
- Study Thesis (2)
- Working Paper (2)
- Report (1)
Language
- German (100) (remove)
Has Fulltext
- yes (100)
Keywords
- Praktikum (6)
- Case-Based Reasoning (5)
- Fallbasiertes Schliessen (3)
- Maschinelles Lernen (3)
- Diagnose technischer Systeme (2)
- KLUEDO (2)
- Server (2)
- ATP-Synthase (1)
- Ablagestruktur (1)
- Access System (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (39)
- Kaiserslautern - Fachbereich Chemie (19)
- Kaiserslautern - Fachbereich Mathematik (10)
- Kaiserslautern - Fachbereich Physik (9)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (8)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (1)
- Universitätsbibliothek (1)
In dieser Arbeit wurde die Induktion von Apoptose durch vier a,b-ungesättigte Aldehyde und ein zyklisches Keton untersucht. Die Apoptoseinduktion wurde mittels 2-Parameter-Durchflußzytometrie (DNA-/Proteinmessung), Fluoreszenzmikroskopie und DNA-Isolation bestimmt. Es wurden dazu Konzentrationskinetiken (0 bis 150microM) und Zeitkinetiken (1h-Inkubation mit anschließender Postinkubation bis 24h bzw.72h bei Molt4; 0h bis 24h bei 2-Cyclohexen-1-on) an den humanen Zellinien U937, HL-60, K562 und Molt4 aufgestellt. Bei den Zellinien U937 und HL-60 konnte die induzierte Apoptose sowohl quantitativ (durchflußzytometrisch und morphologisch) als auch qualitativ (DNA-Leiter) eindeutig bestimmt werden. Für alle Verbindungen wurde eine dosis- und zeitabhängige Induktion von Apoptose detektiert. Darüberhinaus lieferte die morphologische Analyse Informationen über die Verteilung der einzelnen Apoptosestadien. Die Zellinien K562 und Molt4 zeigten keine so deutliche Übereinstimmung zwischen den 3 Detektionsmethoden. Für die Zellinie K562 ergab sich in den eingesetzten Konzentrationsbereichen nur bei 2-Cyclohexen-1-on durchflußzytometrisch eine dosis- und zeitabhängige Apoptoseinduktion, die sich zwar mit der Analyse der DNA-Leiter, nicht aber mit der morphologischen Auswertung bestätigen ließ. Für trans-2-Hexenal und trans-2-Octenal konnte nur zeitabhängig ein Anstieg mittels FCM detektiert werden, der nur für trans-2-Octenal signifikant war. Bei beiden ergab sich keine DNA-Leiter. Die morphologische Analyse für trans-2-Hexenal ließ einen ebenfalls nicht signifikanten Anstieg erkennen. Für trans-2-Octenal wurde keine morphologische Analyse durchgeführt. Die Zellinie Molt4 zeigte nur zeitabhängig für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al und 2-trans,6-cis-Nonadienal eine Apoptoseinduktion, die ausschließlich für 2-trans,4-trans-Hexadien-1-al signifikant war. Die Analyse der DNA-Leiter war auch hier in allen Fällen negativ. Die morphologische Analyse konnte für 2-Cyclohexen-1-on zusätzliche, im FCM nicht detektierte Apoptose zeigen. Der Vergleich der 1-Parameter-Messung des DNA-Gehaltes mit der 2-Parameter-Messung des DNA- und Proteingehaltes der Zellinie U937 bei trans-2-Hexenal- und 2-Cyclohexen-1-on-Behandlung ergab zusätzliche, bei der 1-Parameter-Messung ?versteckte" apoptotische Zellen. Diese waren eindeutig bestimmten Zellzyklusphasen zuzuordnen. Ein weiterer Vergleich der DNA-/Proteinmessung mit der als spezifischste Methode geltenden Markierung der Strangbrüche mit fluoreszenzmarkierten Nukleotiden wurde durchgeführt. Dazu wurden Beispiele aus der Literatur eingesetzt. Dieser Vergleich zeigte, daß bei einem geeigneten Zellsystem die zellzyklusspezifische Apoptosebestimmung vergleichbar war. Von Vorteil für die DNA-/Proteinmessung war dabei die einfache und kostengünstige Durchführung.Der zur Überprüfung der Diskrepanzen zwischen den Detektionsmethoden bei den Zellinien K562 und Molt4 eingesetzte Annexin V-Assay bot in beiden Fällen keine weitere Information. Die eingesetzten Methoden konnten also bei den Zellinien U937 und HL-60 in guter Übereinstimmung Apoptose detektieren, die Zellinien K562 und Molt4 zeigten sich aufgrund fehlender Fragmentierung der DNA in 180bp-Fragmente und der relativen Apoptoseresistenz von K562 für dieses Screening als ungeeignet. Für diese Zellinien müßten weitere Methoden, die nicht auf der Fragmentierung der DNA beruhen, eingesetzt werden.Aufgrund der Tatsache, daß die Apoptoseinduktion bei den Zellinien K562 und Molt4 erst nach längerer Inkubationsdauer auftrat, wurde diese als verzögerte Apoptose interpretiert. Im Vergleich dazu handelte es sich bei den Zellinien U937 und HL-60 um frühe Apoptose. Setzt man die Apoptoseinduktion mit der Phasenspezifität der Verbindungen in Beziehung, so kann man für die Zellinien U937 und HL-60 nach Inkubation mit den untersuchten Aldehyden von Homo-Zyklus-Apoptose, mit 2-Cyclohexen-1-on von Homo-Phase-Apoptose sprechen, obwohl letztere durchflußzytometrisch erst nach 12h in Erscheinung trat. Für die Zellinien K562 und Molt4 handelte es sich bei allen Verbindungen um post-mitotische-Apoptose. Die Aldehyde zeigten bezüglich ihrer Apoptoseinduktion bei U937 und HL-60 keine Phasenspezifität, es waren alle Zellzyklusphasen betroffen. Bei K562 zeigten sie G1-Phasenspezifität, bei Molt4 G1- und teilweise G2-Phasenspezifität. 2-Cyclohexen-1-on ergab S-Phasenspezifität bei U937 und HL-60 sowie G1-Phasenspezifität bei K562. Außerden trat im Zeitverlauf für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al, trans-2-Octenal und 2-Cyclohexen-1-on ein G2/M-Arrest auf, 2-trans,6-cis-Nonadienal erzeugte einen G1-Arrest.Der Einfluß der Kettenlänge und Anzahl der Doppelbindungen auf das apoptoseinduzierende Potential wurde an den Zellinien U937 und HL-60 für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al, trans-2-Octenal und 2-trans,6-cis-Nonadienal untersucht. Dabei ergab sich ein substanzabhängiger Anstieg der Apoptoseinduktion mit steigender Kettenlänge, der aber nicht in allen Fällen signifikant war. Der Einfluß der Doppelbindungen konnte nur im direkten Vergleich von trans-2-Hexenal und 2-trans,4-trans-Hexadien-1-al betrachtet werden. Hier trat kein signifikanter Unterschied zwischen den beiden Verbindungen auf, was wahrscheinlich auf die Konjugation der Doppelbindungen und die damit verbundene erhöhte Polarität und gleichzeitig erniedrigte Lipophilie zurückzuführen war.
Das System ART (ASF RRL Translation) stellt im wesentlichen eine Umgebung dar,in welcher die Modularisierbarkeit von Beweisen (Induktionsbeweisen über Gleichungs-spezifikationen) untersucht werden kann. Es wurde die bereits bestehende Spezifikati-onsprache ASF (siehe [BeHeKl89]), in welcher modularisierte Spezifikationen möglichsind, so erweitert, daß zusätzlich auch Beweisaufgaben spezifiziert werden können. Imfolgenden wird diese erweiterte Spezifikationsprache auch ASF genannt. Als Bewei-ser für die Beweisaufgaben einer Spezifikation wurde RRL (siehe [KaZh89]) gewählt.RRL kann sowohl Kommandos aus einem File abarbeiten, wie auch Sitzungsprotokolleanfertigen, mit deren Hilfe sich die Beweisverläufe und Benutzereingaben der entspre-chenden RRL-Sitzung rekonstruieren lassen. In ART kann nun eine ASF-Spezifikation,die Beweisaufgaben umfassen kann, in ein File übersetzt werden, welches von RRLabgearbeitet werden kann. Dies wird im folgenden kurz mit 'Übersetzung von ASF nach RRL' bezeichnet. Bei der Abarbeitung eines solchen Files wird von RRL ein Sit-zungsprotokoll angelegt. ART kann dieses Sitzungsprotokoll dazu heranziehen, neueErgebnisse, wie etwa den erfolgreichen Beweis einer Beweisaufgabe, zu ermitteln, umdiese Ergebnisse der ursprüngliche Spezifikation hinzuzufügen. Dies wird im folgendenkurz mit 'Rückübersetzung von RRL nach ASF' bezeichnet. Im Kern besteht ART alsoaus einer Komponente zur Übersetzung von ASF nach RRL und aus einer Komponentezur Rückübersetzung von RRL nach ASF.
In nebenläufigen Systemen erleichtert das Konzept der Atomarität vonOperationen, konkurrierende Zugriffe in größere, leichter beherrschbareAbschnitte zu unterteilen. Wenn wir aber Spezifikationen in der forma-len Beschreibungstechnik Estelle betrachten, erweist es sich, daß es un-ter bestimmten Umständen schwierig ist, die Atomarität der sogenanntenTransitionen bei Implementationen exakt einzuhalten, obwohl diese Ato-marität eine konzeptuelle Grundlage der Semantik von Estelle ist. Es wirdaufgezeigt, wie trotzdem sowohl korrekte als auch effiziente nebenläufigeImplementationen erreicht werden können. Schließlich wird darauf hinge-wiesen, daß die das Problem auslösenden Aktionen oft vom Spezifiziererleicht von vorneherein vermieden werden können; und dies gilt auch überden Kontext von Estelle hinaus.
Im Bereich des Software Engineering werden komplexe Software-Entwicklungsprojekte betrachtet. Im Rahmen dieser Projekte werden große Mengen von Informationen bearbeitet. Diese Informationen werden in Software-Artefakten (z.B. in Projektplänen oder Entwicklungsdokumenten, wie Anforderungsbeschreibungen)
festgehalten. Die Artefakte werden während der Entwicklung und der Wartung eines Softwaresystems häufig geändert. Änderungen einer Information in einem Artefakt haben häufig Änderungen
im selben und in anderen Artefakten zur Folge, da Beziehungen innerhalb und zwischen den in den Artefakten festgehaltenen Informationen bestehen. Die Beziehungen liegen meist nicht explizit vor, so daß die Konsequenzen einer Änderung schwer zu überblicken sind. In dieser Arbeit wurde ein Verfolgbarkeitsansatz ausgewählt, der den Benutzer bei der Durchführung von Änderungen an Artefakten unterstützt. Unterstützung bedeutet hierbei, daß der Aufwand zur Durchführung einer Änderung reduziert wird und weniger Fehler bei der Durchführung gemacht werden.
In der Arbeit wurden Anforderungen an einen auszuwählenden Verfolgbarkeitsansatz gestellt. Eine Anforderung war, daß er auf verschiedene Bereiche des Software Engineering, wie z.B. Systementwurf oder Meßplanung, mit jeweils sehr unterschiedlichen Artefakten, anwendbar sein sollte. Die durchgeführte
Literaturrecherche und die anschließende Bewertung anhand der gestellten Anforderungen ergaben, daß das Prinzip der Metamodellierung in Verbindung mit Wissensbankverwaltungssystemen ein geeigneter Verfolgbarkeitsansatz ist. Eine Evaluation, die sich auf Fallstudien aus den Bereichen
"Objektorientierter Entwurf mit UML" und "Meßplanung mit GQM" bezog, ergab, daß das Wissensbankverwaltungssystem
ConceptBase, das auf der Wissensrepräsentationssprache 0-Telos basiert, ein geeignetes Werkzeug zur Unterstützung des Verfolgbarkeitsansatzes ist.
Bestimmung der Ähnlichkeit in der fallbasierten Diagnose mit simulationsfähigen Maschinenmodellen
(1999)
Eine Fallbasis mit bereits gelösten Diagnoseproblemen Wissen über die Struktur der Maschine Wissen über die Funktion der einzelnen Bauteile (konkret und abstrakt) Die hier vorgestellte Komponente setzt dabei auf die im Rahmen des Moltke-Projektes entwickelten Systeme Patdex[Wes91] (fallbasierte Diagnose) und iMake [Sch92] bzw. Make [Reh91] (modellbasierte Generierung von Moltke- Wissensbasen) auf.
Die Realisierung zunehmend komplexer Softwareprojekte erfordert das direkte und indirekteZusammenwirken einer immer größer werdenden Zahl von Personen. Die dafür benötigte Infrastrukturist mit der zunehmenden globalen Rechner-Vernetzung bereits vorhanden, doch wird ihr Potential vonherkömmlichen Werkzeugen in der Regel bei weitem nicht ausgeschöpft. Das in diesem Artikelvorgestellte Rahmenmodell für Softwareentwicklung wurde explizit im Hinblick auf die globaleKooperation von Entwicklern entworfen. WebMake, eine auf diesem Modell basierende Software-entwicklungsumgebung, adressiert das Ziel seiner Einsetzbarkeit im globalen Maßstab durch dieVerwendung des World-Wide Web als Datenspeicherungs- und Kommunikationsinfrastruktur.
Die Verwendung von existierenden Planungsansätzen zur Lösung von realen Anwendungs- problemen führt meist schnell zur Erkenntnis, dass eine vorliegende Problemstellung im Prinzip zwar lösbar ist, der exponentiell anwachsende Suchraum jedoch nur die Behandlung relativ kleiner Aufgabenstellungen erlaubt. Beobachtet man jedoch menschliche Planungsexperten, so sind diese in der Lage bei komplexen Problemen den Suchraum durch Abstraktion und die Verwendung bekannter Fallbeispiele als Heuristiken, entscheident zu verkleinern und so auch für schwierige Aufgabenstellungen zu einer akzeptablen Lösung zu gelangen. In dieser Arbeit wollen wir am Beispiel der Arbeitsplanung ein System vorstellen, das Abstraktion und fallbasierte Techniken zur Steuerung des Inferenzprozesses eines nichtlinearen, hierarchischen Planungssystems einsetzt und so die Komplexität der zu lösenden Gesamtaufgabe reduziert.
Umgangssprachlich wurde das Wort Daten schon gebraucht, lange bevor der Computer erfundenwurdeund die AbkürzungEDV für "Elektronische Datenverarbeitung" in die Alltagssprache gelangte.So sagte beispielsweise der Steuerberater zu seinem Klienten: "Bevor ich Ihre Steuererklärung fertigmachen kann, brauche ich von Ihnen noch ein paar Daten." Oder der Straßenbaureferent einer Stadtschrieb an den Oberbürgermeister: "Für die Entscheidung, welche der beiden in Frage stehenden Stra-ßen vorrangig ausgebaut werden soll, müssen wir noch eine Datenerhebung durchführen." Bei diesenDaten ging es zwar oft um Zahlen - Geldbeträge, Anzahl der Kinder, Anzahl der Beschäftigungsmo-nate, gezählte Autos - , aber eine Gleichsetzung von Daten mit Zahlen wäre falsch. Zum einen wärenZahlen ohne mitgelieferte Wörter wie Monatseinkommen, Kinderzahl u.ä. für den Steuerberater nutz-los, zum anderen will das Finanzamt u.a. auch den Arbeitgeber des Steuerpflichtigen wissen, und dazumuß eine Adresse angegeben werden, aber keine Zahl.
Deduktionssysteme
(1999)
In einem Beitrag zu Platons Philosophie des Abstiegs schreibt C.F. v. Weizsäcker, er sei "überzeugt, daß die griechische Philosophie, dieses in allen Weltkulturen einzigartige Kunstwerk, ohne das mathematische Paradigma undenkbar gewesen wäre" . Und in seiner berühmten Kant-Vorlesung im WS 1935/36 erklärte M. Heidegger, es sei "kein Zufall, daß die Kritik der reinen Vernunft... ständig von einer Besinnung auf das Wesen des Mathematischen und der Mathematik begleitet sei" . Was hier über Platon und Kant gesagt wird, trifft auf fast alle abendländischen Philosophen von Rang zu: Explizit oder implizit spielt die Mathematik eine entscheidende Rolle für die neue philosophische Konzeption. Welche Gründe sind es, die der Mathematik einen so hohen Stellenwert im Denken der maßgebenden Philosophen sichern? Mit welchen Intentionen und Zielvorstellungen montieren Philosophen seit Platon bis Heidegger, seit Aristoteles bis Bloch immer wieder Aussagen über Mathematik in ihre Philosophie? Weshalb war in den vergangenen zweieinhalb Jahrtausenden keine andere Wissenschaft für die Philosophie so >>frag-würdig<< wie die Mathematik? Die Philosophie hat - dies ist offensichtlich - den Dialog mit der Mathematik immer wieder gesucht. Und wie steht es um das Interesse der Mathematik an einem Dialog mit der Philosophie? In einem äußerst gehaltvollen und auch heute noch sehr lesenswerten Aufsatz Mathematik und Antike stellt der Mathematiker O. Toeplitz 1925 die Frage, "ob einmal im Dasein der Mathematik die Philosophie bestimmend in sie eingegriffen hat, ihre eigentliche definitive Gestalt gebildet hat" ? Eine derartige Initiative aus der Mathematik heraus zum Dialog mit der Philosophie ist kein Einzelfall. Cantor, Hilbert, Weyl, Gödel und Robinson - um nur einige Repräsentanten der neueren Mathematik in Erinnerung zu rufen - haben sich immer wieder um Kontakte mit der Philosophie bemüht.
Für die Systemtheorie ist der Begriff Zustand ein sehr zentraler Begriff. Das Wort "Zustand" wird um-gangssprachlich recht häufig verwendet, aber wenn man die Leute fragen würde, was sie denn meinen,wenn sie das Wort Zustand benützen, dann würde man sicher nicht die präzise Definition bekommen,die man für die Systemtheorie braucht.
Die Beweisentwicklungsumgebung Omega-Mkrp soll Mathematiker bei einer ihrer Haupttätigkeiten, nämlich dem Beweisen mathematischer Theoreme unterstützen. Diese Unterstützung muß so komfortabel sein, daß die Beweise mit vertretbarem Aufwand formal durchgeführt werden können und daß die Korrektheit der so erzeugten Beweise durch das System sichergestellt wird. Ein solches System wird sich nur dann wirklich durchsetzen, wenn die rechnergestützte Suche nach formalen Beweisen weniger aufwendig und leichter ist, als ohne das System. Um dies zu erreichen, ergeben sich verschiedene Anforderungen an eine solche Entwicklungsumgebung, die wir im einzelnen beschreiben. Diese betreffen insbesondere die Ausdruckskraft der verwendeten Objektsprache, die Möglichkeit, abstrakt über Beweispläne zu reden, die am Menschen orientierte Präsentation der gefundenen Beweise, aber auch die effiziente Unterstützung beim Füllen von Beweislücken. Das im folgenden vorgestellte Omega-Mkrp-System ist eine Synthese der Ansätze des vollautomatischen, des interaktiven und des planbasierten Beweisens und versucht erstmalig die Ergebnisse dieser drei Forschungsrichtungen in einem System zu vereinigen. Dieser Artikel soll eine Übersicht über unsere Arbeit an diesem System geben.
In der Philosophie ist es selbstverständlich, daß Autoren, die Erkenntnisse früherer Philosophen weitergeben oder kommentieren, die Originalliteratur kennen und sich in ihrer Argumentation explizit auf bestimmte Stellen in den Originaldarstellungen beziehen. In der Technik dagegen ist es allgemein akzeptierte Praxis, daß Autoren von Lehrbüchern, in denen Erkenntnisse früherer Forscher dargestellt oder kommentiert werden, nicht die Originaldarstellungen zugrunde legen, sondern sich mit den Darstellungen in der Sekundärliteratur begnügen. Man denke an die Erkenntnisse von Boole oder Maxwell, die in sehr vielen Lehrbüchern der Digitaltechnik bzw. der theoretischen Elektrotechnik vermittelt werden, ohne daß die Autoren dieser Lehrbücher auf die Originalschriften von Boole oder Maxwell Bezug nehmen. Dagegen wird man wohl kaum ein Buch über Erkenntnisse von Aristoteles oder Kant finden, dessen Autor sich nicht explizit auf bestimmte Stellen in den Schriften dieser Philosophen bezieht.
Die Kenntnis der Transportmechanismen von polaren und unpolaren Molekülen durch biologische Membranen ist notwendig für das Verständnis von vielen biologischen Vorgängen. Die vorliegende Arbeit soll einen Beitrag zum Verständnis des Transportes von kleinen Molekülen durch Phospholipidmodellmembranen liefern. Hierzu wurden kinetische und kalorimetrische Messungen an Lipidvesikeln durchgeführt. Besonders großes Interesse bestand darin, zu klären, wie diese Moleküle die Membran durchqueren. Um das Permeationsverhalten von Wasser zu erforschen, wurden systematische Untersuchungen der osmotisch getriebenen und der diffusionskontrollierten Wasserpermeation an Lipiddoppelschichten, hergestellt aus Phospholipiden mit unterschiedlichen Kopfgruppen und unterschiedlichen Fettsäureketten durchgeführt. Dabei wurde auch die Permeationsgeschwindigkeit im Phasenumwandlungsbereich untersucht. Die diffusionskontrollierte Wasserpermeation wird mit Hilfe des H2O/D2O-Austauschverfahrens gemessen und bei osmotischen Messungen erzeugt man einen Konzentrationsgradienten zwischen intra- und extravesikulärem Raum. Es wurde für alle Lipide und Lipidgemische eine sprunghafte Zunahme der osmotischen und diffusiven Wasserpermeation an der Hauptphasenumwandlung gel -> flüssigkristallin gefunden. Die Permeabilitätskoeffizienten für die osmotische Wasserpermeation lagen bei allen Messungen um den Faktor 100 höher als die Werte für die diffusionskontrollierte Wasserpermeation. Im Phasenumwandlungsbereich durchlaufen die Permeabilitätskoeffizienten ein Maximum. Die experimentell gewonnenen Daten lassen einen Wassertransport durch transiente Poren, die sich durch Defektstellen und thermische Fluktuationen in der Doppelschicht bilden, vermuten und widersprechen einem Löslichkeitsdiffusionsmechanismus. Um den Einfluß des Konzentrationsgradienten auf die Permeation näher zu untersuchen, wurden osmotische Messungen mit unterschiedlichen Harnstoffkonzentrationen durchgeführt. Es zeigte sich, daß die Wasserpermeation abhängig vom angelegten Konzentrationsgradienten war, während die Harnstoffpermeation keine Abhängigkeit zeigte. Die stark unterschiedlichen Permeabilitätskoeffizienten der beiden Moleküle legen den Verdacht nahe, daß sie auf unterschiedlichen Wegen die Lipiddoppelschicht durchdringen. Um das Permeationsverhalten von kleinen Molekülen aufzuklären, wurden Messungen der diffusionskontrollierten Permeation vorgenommen. Desweiteren war von Interesse ob durch den Einbau von Detergensmoleküle in die Lipidmembran die Permeationseigenschaften der Moleküle verändert werden. Mit Hilfe der gewonnen Daten sind Rückschlüsse auf den Mechanismus der Permeation von kleinen Molekülen durch biologische Membranen möglich.
Die Prämature Chromosomenkondensation (PCC) - Untersuchungen zum Einsatz in der Mutagenitätstestung
(1999)
In dieser Arbeit wurde die Wirkung der a,b-ungesättigten Aldehyde Crotonaldehyd (CA), trans-2-Hexenal (HX), und des N-Nitrosodiethanolamin (NDELA) untersucht. Als Kontrollsubstanzen wurde das als Aneugen bekannte Diethylstilbestrol (DES) und die als Klastogene bekannten Mutagene Mitomycin C (MMC) und Bleomycin (BLM) eingesetzt. Es wurde die Technik der vorzeitigen Chromosomenkondensation (PCC) an unstimulierten Lymphozyten in der G0-Phase eingesetzt, die für 1 Stunde mit dem jeweiligen Mutagen inkubiert worden waren. Das Ausmaß der mutagenen Schädigung bei den PCCs wurde lichtmikroskopisch durch Auszählen von Chromatinelementen analysiert. Ze llen mit mehr als 46 Chromatinelementen wurden als geschädigt gewertet. Die Resultate der PCC-Studien wurden mit den Ergebnissen aus 48 Stunden-Metaphasenkulturen verglichen. Mit der Fluoreszenz plus Giemsa (FPG)-Technik wurden die Mitosen, die zum erstenmal nach Mutagenapplikation das Metaphasestadium erreicht hatten, identifiziert. Die Metaphasenanalyse aus 48 Stunden-Kulturen zeigte für CA bei 60microM und für HX bei 100microM eine schwach signifikante Erhöhung der Anzahl aberranter Metaphasen. Die für CA zusätzlich durchgeführten 73 Stunden-Kulturen, bei denen die Mutagenbehandlung erst 48 Stunden nach Kulturansatz durchgeführt wurden, ergab ab 240microM eine schwach signifikante Erhöhung aberranter Metaphasen im Vergleich zu unbehandelten Lymphozyten. Die Analyse der Metaphasen aus 48 Stunden-Kulturen nach NDELA-Behandlung ergab, daß sich die Zahl der aberranten Metaphasen nur bei einer Konzentration von 2000microM signifikant im Vergleich zu den Zellen aus den Kontrollkulturen erhöhte. Die anderen getesteten NDELA-Konzentrationen auch die in den 73 Stunden-Kulturen eingesetzten erhöhten die Aberrrationsrate in den Metaphasechromosomen, allerdings statistisch nicht signifikant. Nach MMC-Behandlung (6microM) zeigten 27,5%, nach DES-Behandlung (100microM) 7,6% und nach Bleomycin-Behandlung (10microg/ml) 8,8% der Metaphasen Aberrationen. Damit war die Anzahl geschädigter Metaphasen im Vergleich zu den Zellen unbehandelter Kontrollkulturen nach MMC-Inkubation (6microM) und nach Bleomycin-Applikation (10microg/ml) statistisch hoch signikant, nach DES-Inkubation (100microM) allerdings nicht signifikant erhöht. Die PCC-Technik erwies sich als die im Vergleich zur Metaphasenanalyse sensitivere Methode. Alle getesteten Substanzen erhöhten die Anzahl der Chromatinelemente/Zelle dosisabhängig. Unbehandelte Lymphozyten wiesen zwischen 1,0 und 1,8 Fragmente pro geschädigte Zelle auf. Dabei waren zwischen 6,1 und 15,8% der unbehandelten Zellen geschädigt. Nach CA-Inkubation (240microM) stieg die Zahl geschädigter PCCs auf 48,7% an, wobei 3,4 Fragmente pro geschädigte Zelle zu beobachten waren. Nach Behandlung der Zellen mit HX(150microM) waren 42,9% der Zellen geschädigt und wiesen 4,6 Fragmente pro geschädigte Zelle auf. Damit war die Zunahme der Schädigung im Vergleich zur Kontrolle hoch signifikant. Die Inkubation mit NDELA schädigte die Lymphozyten in der G0-Phase bereits ab einer Konzentration von 1000microM hoch signifikant. Dabei waren 56,6% der Lymphozyten geschädigt und es traten 4,1 Fragmente pro geschädigte Zelle auf. Nach Inkubation mit MMC (20microM) waren 46,3% der Zellen geschädigt und wiesen 3,3 Fragmente pro geschädigte Zelle auf. Die Behandlung der Lymphozyten mit DES (200microM) induzierte in 26,3% der Zellen mehr als 46 Chromatinelemente pro Zelle, wobei 2,8 Fragmente pro geschädigte Zelle auftraten. Nach Behandlung der Lymphozyten mit a,b-ungesättigten Aldehyden wurde in den PCCs zusätzlich ein interessantes Phänomen beobachtet: die vorzeitig kondensierten Chromosomen erschienen im Vergleich zu den PCCs unbehandelter Zellen weniger stark kondensiert. Um das Ausmaß der Entspiralisierung erfassen zu können, wurden die PCCs zunächst semiquantitativ gemäß ihrem Kondensationsgrad in 4 Kategorien eingeteilt, wobei der Kategorie 1 die am stärksten kondensierten PCCs, der Kategorie 4 die am wenigsten kondensierten PCCs zugeordnet wurden. Bei einer CA-Konzentration von 480microM waren 55,6% und einer HX-Konzentration von 300microM waren 57,4% der untersuchten Zellen Kategorie 4 zuzuordnen. Durch die Kombination der PCC-Technik mit der Fluoreszenz in situ-Hybridisierung und den Einsatz einer Painting Sonde (exemplarisch für Chromosom 4) wurde die Längenveränderung der PCCs genauer quantifiziert werden. Dazu wurde die Länge der Chromosom 4-PCC vor und nach Behandlung mit Crotonaldehyd (240microM und 480microM) mit einem computergestützten Programm ausgemessen. So ergab sich nach Crotonaldehyd-Behandlung (480microM) durchschnittlich eine Längenzunahme um das zwei- bis dreifache. Elongierte PCCs wurden nach Inkubation der Lymphozyten mit NDELA und Bleomycin nicht beobachtet; nach Inkubation mit den Mutagenen MMC (20microM) und DES (200microM) trat dieses Phänomen nur leicht auf. Reparaturkinetikstudien mit den Hemmstoffen Arabinofuranosylcytosin, Hydroxyharnstoff und Novobiocin lassen eine verstärkte Excisionsreparatur als Ursache für die beobachtete verminderte Kondensation der PCCs nach Inkubation mit a,b-ungesättigten Aldehyden unwahrscheinlich erscheinen. Die nach Inkubation mit a,b-ungesättigten Aldehyden beobachtete verminderte Kondensation der PCCs ist eher das Resultat von Veränderungen der mitotischen Faktoren und/oder Chromatinstrukturen. Möglicherweise interferieren a,b-ungesättigte Aldehyde mit den Phosphorylierungsprozessen der Histone H1 und/oder H3, die für die PCC-Induktion bedeutsam sind und die durch die Aktivität der mitotischen Faktoren vermittelt werden.
Im Rahmen des Sonderforschungsbereichs SFB314, Projekt X9 "Lernen und Analogie in technischen Expertensystemen", wurde die Verwendbarkeit von Techniken des fallbasierten Schliessens in wissens- basierten Systemen untersucht. Als prototypische Anwendungsdomäne wurde die Arbeitsplanerstellung rotationssymmetrischer Werkstücke gewählt. Im vorliegenden Beitrag wird ein Modell der Arbeits- planerstellung unter Berücksichtigung der verschiedenen, bisher als unabhängig behandelten Planungsmethoden beschrieben. Auf der Basis einer modelbasierte Wissensakquistion aus in Unternehmen verfügbaren Arbeitsplänen wird ein Ausschnitt der Arbeitsplanerstellung, die Aufspannplanung, detailliert. Die Anwendbarkeit wurde durch eine prototypische Realisierung nachgewiesen.
Die systematische Verbesserung von Techniken zur Entwicklung und Betreuung von Software setzt eine explizite Darstellung der in einem Projekt ablaufenden Vorgnge (Prozesse) voraus. Diese Darstellungen (Prozemodelle) werden durch Software- Prozemodellierung gewonnen. Eine Sprache zur Beschreibung solcher Modelle ist MVP-L. Verschiedene Standard-Prozemodelle existieren bereits. Bisher gibt es jedoch kaum dokumentierte Software-Entwicklungsprozesse, die speziell fr die Entwicklung reaktiver Systeme entworfen worden sind, d. h. auf die besonderen Anfordernisse bei der Entwicklung reaktiver Systeme zugeschnitten sind. Auch ist bisher nur wenig Erfahrung dokumentiert, fr welche Art von Projektkontexten diese Prozesse gltig sind. Eine Software- Entwicklungsmethode, die - mit Einschrnkungen - zur Entwicklung reaktiver Systeme geeignet ist, ist SOMT (SDL-oriented Object Modeling Technique). Dieser Bericht beschreibt die erfahrungsbasierte Modellierung der Software-Entwicklungsprozesse von SOMT mit MVP-L. Zunchst werden inhaltliche Grundlagen der Software-Entwicklungsmethode SOMT beschrieben. Insbesondere wird auf die eingesetzten Techniken und deren Kombination eingegangen. Anschlieend werden mgliche Projektkontexte charakterisiert, in denen das SOMT-Modell im Sinne eines Erfahrungselements Gltigkeit hat. Darauf werden der Modellierungsvorgang sowie hierbei gemachte Erfahrungen dokumentiert. Eine vollstndige Darstellung des Modells in grafischer MVP-L-Notation befindet sich im Anhang. Die Darstellung des Modells in textueller Notation kann der SFB-Erfahrungsdatenbank entnommen werden.
In diesem Aufsatz wird die Arbeitsweise eines Werkzeuges dargestellt, mit dessen Hilfedie Analyse von Feature-Interaktionen in Intelligenten (Telefon-)Netzwerken unterstütztwird. Dieses Werkzeug basiert auf einem von uns entwickelten formalen Lösungsansatz, deraus einem geeigneten Spezifikationsstil, aus einem formalen Kriterium zur Erkennung vonFeature-Interaktionen und aus einer Methode zur Auflösung der erkannten Feature- Interaktionen besteht. Das Werkzeug führt eine statische Analyse von Estelle-Spezifikationendurch und erkennt dabei potientielle Feature-Interaktionen sowie nichtausführbare Transitionen. Darüberhinaus kann es die erkannten nichtausführbaren Transitionen zur Optimierung aus der Spezifikation entfernen. Wir erläutern zunächst kurz den zugrundeliegendenAnsatz und beschreiben danach die Anwendung auf Estelle anhand der Funktionsweisedes Werkzeuges.
Die Entwicklung des Zusammenlebens der Menschen geht immer mehr den Weg zur Informations- und Mediengesellschaft. Nicht zuletzt aufgrund der weltweiten Vernetzung ist es uns in minutenschnelle möglich, fast alle erdenklichen Informationen zu Hause auf den Bildschirm geliefert zu bekommen. Es findet sich so jeder zwar in einer gewissen schützenden Anonymität, aber dennoch einer genauso gewollten, wie erschreckenden Transparenz wieder. Jeder klassifiziert in gewisser Weise Informationen, die er preisgibt etwa in öffentliche, persönliche und vertrauliche Nachrichten. Gerade hier müssen Techniken und Methoden bereitstehen, um in dieser anonymen Transparenz Informationen, die nur für spezielle Empfänger gedacht sind vor unbefugtem Zugriff zu schützen und nur denjenigen zugänglich zu machen, die dazu berechtigt sind. Diesen Wunsch hat nicht nur allgemein die Gesellschaft, sondern im speziellen wird die Entwicklung auf diesem Gebiet gerade von staatlichen und militärischen Einrichtungen gefordert und gefördert. So sind häufig eingesetzte Werkzeuge die Methoden der Kryptologie, aber solange es geheime Nachrichten gibt, wird es Angreifer geben, die versuchen, sich unberechtigten Zugang zu diesen Informationen zu verschaffen. Da die ständig wachsende Leistung von EDV-Anlagen das "Knacken" von Verschlüsselungsmethoden begünstigt, muß zu immer sichereren Chiffrierverfahren übergegangen werden. Dieser Umstand macht das Thema Kryptologie für den Moment hochaktuell und auf lange Sicht zu einem zeitlosen Forschungsgebiet der Mathematik und Informatik.
Das Skript vermittelt die für eine Beschlagwortung nach den Regeln für den Schlagwortkatalog (RSWK) notwendigen Grundkenntnisse. Darüber hinaus wird beschrieben, wie die Schlagwortdaten in der Verbunddatenbank des Südwestdeutschen Bibliotheksverbund (SWB) strukturiert sind, welche Prinzipien bei der kooperativen Beschlagwortung im SWB einzuhalten sind und wie die Daten erfasst werden müssen . Des weiteren werden die in der Datenbank des SWB realisierten Suchmöglichkeiten aufgezeigt und aufgelistet, wie die dazugehörigen Suchbefehle lauten. Für Fragen der Organisation des Geschäftsgang der Teilnehmerbibliotheken wird exemplarisch der Arbeitsablauf an der UB Kaiserslautern dargestellt.
In diesem Beitrag werden konnektionistische Lernverfahren für die wissensbasierte Diagnose technischer Systeme vorgestellt. Es werden zwei Problemstellungen untersucht: die Prognose von Signalverläufen technischer Zustandsgrössen sowie die diagnostische Klassifikation von Systemzuständen und die Ergebnisse der Untersuchungen dargestellt.
Entwurf einer formalen Semantik für Estelle unter Verwendung von TLA mit Prädikatentransformatoren
(1999)
Die formale Beschreibungstechnik Estelle wird in einem internationalen Standarddefiniert. Ein Hauptnutzen einer formalen Semantik für eine Beschreibungs-sprache besteht darin, daß sie die formale Verifikation von Systembeschreibungenermöglicht. Leider ist die im Standard enthaltene Semantikdefinition für Estellenicht formal (und verständlich) genug, um formale Verifikation zu ermöglichen.Daher wird in dieser Arbeit ein Ansatz entwickelt, um die Semantik von Estellevollständig formal und in einer für die Verifikation geeigneten Weise zu definieren. Für diesen Ansatz werden ausführliche Untersuchungen angestellt, insbesondere über die Methoden der Verifikation, die unterstützt werden müssen, und über eine geeignete Darstellung der sogenannten " Transitionen" von Estelle. Um die hieraus resultierenden Forderungen zu erfüllen, wird ein neuer Formalismus entworfen, in dem Lamports temporale Logik der Aktionen und Dijkstras Prädikaten-transformatoren vereinigt werden. Anschließend wird die Definition der gesamten Semantikvon Estelle skizziert und die Definition des " Kerns von Estelle", des sogenannten Ausführungsmodells, in diesem Formalismus vollständig ausgeführt. Es zeigtsich, daß der neue Ansatz die formale Verifikation von Estelle Spezifikationen beimechanischer Unterstützung nun möglich erscheinen läßt. Eine Ausarbeitung derDetails des zum Formalismus gehörigen Schlußsystems und der skizzierten Gesamt-Semantik verbleibt allerdings zukünftigen Arbeiten.
Die FoF1-ATP-Synthase katalysiert die Synthese von ATP aus ADP und Pi bei der oxidativen bzw. Photophosphorylierung. Der ATP-Synthase-Komplex läßt sich in zwei funktionelle Einheiten unterteilen: Fo ist ein integraler Membranproteinkomplex, der den Protonenkanal bildet. F1 hingegen ist ein wasserlöslicher Proteinkomplex, der die Nukleotidbindungsstellen trägt. Die ATP-Synthase aus Escherichia coli hat die Zusammensetzung alpha3beta3gamma delta epsilon für die F1 und ab2c9-12 für den Fo-Teil. "Native" (d.h. nicht nukleotidbefreite) F1 aus Escherichia coli (EF1) wurde mit verschiedenen spinmarkierten Adeninnukleotiden ESR-spektroskopisch vermessen. Es wurden Spektren mit zwei Signalen gemessen, ein Hinweis auf zwei verschiedene Konformationen der Bindungsstellen. Durch Titrationsexperimente wurden die Bindungsstöchiometrie und die Spektren für die verschiedenen verwendeten Nukleotide ermittelt. Die gleichen Experimente wurden mit einer Mutante, die in den nichtkatalytischen Bindungsstellen keine Nukleotide bindet, durchgeführt. Die vorliegenden Ergebnisse deuten darauf hin, daß zwei der drei katalytischen Bindungsstellen zum äußeren Signal beitragen, während die dritte das innere Signal hervorruft. Die Untereinheiten alpha; und beta der EF1, wurden isoliert und in gleicher Weise wie die F1 untersucht. Während alpha; 0,8 Moleküle SL-ATP binden konnte, zeigte beta keine Bindung. Mit 2',3'-SL-ATP in Komplex mit alpha; konnten ESR-Spektren mit zwei Signalen gemessen werden, die SL-ATP-Derivate, bei denen der Spin-Label entweder an der 2'- oder 3'-Position fixiert ist, zeigten lediglich ein Signal. Die beobachteten 2Azz-Werte unterscheiden sich stark in Abhängigkeit von der Position des Spin-Labels. Um die Bindung der F1 an den Fo-Teil und die Struktur des aus den b- und delta-Untereinheiten gebildeten zweiten Stiels zu untersuchen, wurden verschiedene Mutanten einer wasserlöslichen Form der b-Untereinheit (bsyn) mit dem Spin-Label IodacetamidTEMPO markiert. Das System F1/bsyn wurde mit den an unterschiedlichen Positionen markierten bsyn-Mutanten ESR-spektroskopisch untersucht. Dabei wurden Spektren von freiem bsyn sowie bsyn im Komplex mit F1 und F1-delta (alpha3beta3gamma epsilon) aufgenommen: Alle gelabelten b-Mutanten weisen ähnliche ESR-Spektren von stark mobilen Spin-Labeln auf. Die ähnlichen Werte lassen darauf schließen, daß der b-Dimer über weite Teile eine vergleichbare Struktur besitzt. Im Komplex mit F1 zeigen fast alle Mutanten eine stärkere Immobilisierung als die freien b-Mutanten. Tendenziell nimmt in Richtung des C-Terminus die Differenz der Hochfeld : Mittelfeld-Verhältnisse der Spektren von b und F1/b zu, was die Vermutung nahelegt, daß die Bindung von b an die F1 in Richtung des C-Terminus stärkeren Einfluß auf die Struktur hat. bsyn im Komplex mit F1-delta zeigt nur an einzelnen Positionen eine stärkere Immobilisierung des Spin-Labels. Es scheint somit wahrscheinlich, daß die b-Untereinheit außer über delta noch weitere Kontakte mit der EF1 hat.
Im Laufe der letzten Jahre ergaben wissenschaftliche Beobachtungen, daß verschiedene anthropogene Umweltkontaminanten, auch als endokrin wirksame Substanzen oder endocrine disruptors bezeichnet, einen negativen Effekt auf das Reproduktionsvermögen von wildlebenden Tierpopulationen haben können. Für eine Reihe von Umweltkontaminanten, zuerst hauptsächlich in aquatischen Systemen beschrieben, wird vor allem eine estrogene Wirkung auf den Organismus diskutiert. In einigen Wildtierspezies, wie Alligatoren (Guilette, 1994), Seevögeln (Fry, 1981), Fischen (Jobling, 1993) und Mollusken (Bryan, 1986) wurde das Auftreten von strukturellen Geburtsfehlern der primären Geschlechtsorgane, Verhaltensanomalien beispielsweise während der Brutpflege und eine Verschiebung des Geschlechtergleichgewichtes bereits beschrieben.
Das Enzym F0F1-ATP-Synthase katalysiert die Phosphorylierung von ADP zu ATP unter Ausnutzung des durch die Atmungskette entstehenden Protonengradienten an Membranen. Hierbei pumpt der membranintegrale F0-Teil des Proteins Protonen durch die Membran und induziert die ATP-Synthese, welche auf dem peripheren, wasserlöslichen F1-Teil des Proteins (F1-ATPase) stattfindet. F0 besteht aus drei Proteinuntereinheiten der Stöchiometrie a b_2 c_9-12, während F1 aus fünf Untereinheiten der Stöchiometrie alpha_3 beta_3 gamma delta epsilon zusammengesetzt ist. 'Native' und nucleotidbefreite F1-ATPase aus Escherichia coli (EF1, mit und ohne intrinsischen Nucleotiden) wurde mit 2',3'-O-(1-Oxy-2,2,6,6-tetramethyl-4-piperidyliden)-adenosin-5'-triphosphat (SL*-ATP) als Mg2+-Komplex mit ESR-Spektroskopie untersucht. Durch Titrationsexperimente wurden die Bindungsstöchiometrie und die ESR-Spektren in Abhängigkeit der Nucleotidkonzentration ermittelt. Die Ergebnisse dieser Untersuchungen deuten darauf hin, dass unabhängig von der Anwesenheit intrinsischer Nucleotide maximal 3 mol SL*-ATP pro mol Enzym ausschliesslich in den katalytischen Nucleotidbindungsstellen gebunden wurden. Molekülmodelle von SL*-ATP in den Bindungsstellen von mitochondrialer F1-ATPase unterstützten diese Resultate ebenso wie ATPase-Aktivitätstests von EF1 mit SL*-ATP als Substrat. Bei nucleotidbefreiter EF1 war die Substratsättigung bei substöchiometrischen Nucleotidkonzentrationen höher als beim nativen Enzym. Die ESR-Spektren von EF1 mit SL*-ATP.Mg2+ zeigten zwei au! f unterschiedliche Spinsonden-Mobilitäten hinweisende Komponenten beim nucleotidbefreiten Enzym und nur eine bei nativem Enzym. Ein verkürzter, wasserlöslicher Teil der b-Untereinheit von EF0 (b_sol) wurde mit Raum- und Tieftemperatur-ESR-Spektroskopie auf seine Struktur als Untereinheiten-Dimer alleine und an F1 gebunden untersucht. Bei Tieftemperatur-ESR-Spektren ist das Signalamplituden-Verhältnis von Tief- und Hochfeldsignal zu Zentralfeldsignal, auch als Kokorin-Zamaraev-Parameter bezeichnet, ein Indikator für dipolare Wechselwirkungen von Spinsystemen und somit für deren Abstand im Bereich von 8-25 Å. Es wurden einerseits verschiedene Cystein-Mutanten von b_sol (als b_syn bezeichnet) und andererseits eine Cysteinmutante von EF1 spezifisch kovalent mit Spinlabeln verknüpft. Die vermessenen b_sol-F1-Komplexe waren somit zum einen ausschliesslich an b, andererseits nur an EF1 und ferner sowohl an b als auch an EF1 spinmarkiert. Die Messungen ergaben, dass die Struktur des carboxyterminalen Bereichs von b_sol zwischen den Aminosäurenpositionen 124 und 139 alphahelikalen Charakter besitzt. Aufgrund vo! n Differenzen der Kokorin-Zamaraev-Parameter scheinen sich bei der Bindung von b_sol an EF1 die Helices der Untereinheiten des b_sol-Dimers gegeneinander zu verdrehen. Trotz Abwesenheit der delta-Untereinheit von EF1 schien b_sol an F1 zu binden. Die Strukturen von b_sol-Dimer alleine, im Komplex mit EF1 sowie EF1 ohne delta scheinen sich jeweils deutlich zu unterscheiden und weisen auf eine hohe Flexibilität der b-Untereinheit hin. Der Abstand der Nucleotidbindungsstellen auf den beta-Untereinheiten von EF1 zum Proteinrückgrat von b_sol ist mit mehr als 20-25 Å einzuschätzen, da mit der oberen Messtechnik keine dipolaren Wechselwirkungen ausgemacht werden konnten. Molekülmodelle eines b_syn-Dimerenfragments im Bereich der Aminosäurenpositionen 120-145 am carboxyterminalen Ende von b sowie verschiedener spinmarkierter Varianten des gleichen Dimerenfragments zeigten eine Verdrehung der beiden Helix-Längsachsen zueinander. Zwischen den Spinsystem-Abständen im Modell und den geme! ssenen Kokorin-Zamaraev-Parametern war eine Korrelation ersichtlich.
In den letzten Jahren wurden Methoden des fallbasierten Schliessens häufig in Bereichen verwendet, in denen traditionell symbolische Verfahren zum Einsatz kommen, beispielsweise in der Klassifikation. Damit stellt sich zwangsläufig die Frage nach den Unterschieden bzw. der Mächtigkeit dieser Lernverfahren. Jantke [Jantke, 1992] hat bereits Gemeinsamkeiten von Induktiver Inferenz und fallbasierter Klassifikation untersucht. In dieser Arbeit wollen wir einige Zusammenhänge zwischen der Fallbasis, dem Ähnlichkeitsmass und dem zu erlernenden Begriff verdeutlichen. Zu diesem Zweck wird ein einfacher symbolischer Lernalgorithmus (der Versionenraum nach [Mitchell, 1982]) in eine äquivalente, fallbasiert arbeitende Variante transformiert. Die vorgestellten Ergebnisse bestätigen die Äquivalenz von symbolischen und fallbasierten Ansätzen und zeigen die starke Abhängigkeit zwischen dem im System verwendeten Mass und dem zu lernenden Begriff.
Formalismen und Anschauung
(1999)
Im Mittelpunkt der vorliegenden Dissertation stehen Synthesen neuer fünfgliedriger, heterocyclischer Betaine und die Durchführung anschließender Reaktivitätsstudien. Der Zugang zu heterocyclischen Betainen kann auf zwei unterschiedlichen Reaktionswegen realisiert werden. Dabei müssen jeweils als direkte Vorläufer der neuen fünfgliedrigen Betaine I Heterocumulen-Derivate des Typs II diskutiert werden, die in g-Position zu ihrer Isocyanat-, Keten-, Ketenimin- bzw. Thioketen-Einheit eine Dialkylaminogruppe besitzen (s. Schema 83). Die direkte Cyclisierung zu den neuen Betainen erfolgt dann über einen nukleophilen Angriff des freien Elektronenpaars der Dialkylaminogruppe an das Heterocumulensystem. Der erste Teil meiner Arbeit beschreibt die Herstellung heterocumulenischer Systeme vom Typ II durch die Umsetzungen von Chlorcarbonyl-Heterocumulenen (Chlorcarbonylketenen bzw. Chlorcarbonylisocyanaten) mit monoprotischen 1,2-Binukleophilen (Hydroxylaminen, Hydrazinen und Pyrazolen). Im zweiten Teil werden die neuen Betaine I durch Umsetzungen des N-(Trimethylsilylethinyl)-N,N ,N -trimethylhydrazins mit Arylisothiocyanaten realisiert. Im dritten Teil der Arbeit beschäftige ich mich mit der Umwandlung der hergestellten Thioxo- Betaine in ihre Oxo-Analoga mit Hilfe von Entschwefelungsreagentien. Das vierte Arbeitsfeld befaßt sich schließlich mit Isomerisierungs- und Alkylierungsreaktionen an ausgewählten Pyrazolidinium-4-id-Betainen.
Typologie spielt in der Geschichte der Architekturtheorie seit jeher eine Schlüsselrolle innerhalb der Diskussion und Forschung über Architektur. In der Architektur existiert Typologie meist als Form der Klassifikation von Architektur bzw. im Versuch den "Archetyp", die abstrakte "Idee" der Architektur, vorzustellen. Die bisher angewendeten Ordnungssysteme zur Klassifikation beschränken sich auf wenige Strukturmerkmale (z.B. Nutzung, Konstruktion, Stil/Epoche). Dabei wird zwangsläufig ein Großteil von Informationen der Objekte ausgeblendet. Die Einteilungen der Gliederungsebenen werden subjektiv festgelegt. Diese subjektiv hierarchische Ordnung erzeugt das Problem, dass eine Wertung bereits im System immanent ist. Soll ein Ordnungssystem jedoch die Möglichkeit einer objektiven Wertung enthalten, so ist es eine unabdingbare Voraussetzung, dass keine subjektive Wertung bereits im Gliederungssystem vorliegt. Die vorliegende Arbeit zeigt, wie es möglich ist, ein System der Ordnung zu entwickeln, das Typologie, basierend auf der Trennung von Architektur und Bauen, unter Beachtung des Phänomens der ästhetischen Differenz, nur aus Beschreibungen von Gebäuden mit nachweislich objektimmanenten Kriterien, ohne Wertungen im System selbst, konstituiert. Diese Typologie kann für weiterreichende Entwurfs- und Bewertungssysteme die Grundlage bilden. Der bisher vorherrschende Typusbegriff wird dabei zugunsten eines temporären, fluktuierenden Typus aufgehoben. Mit diesem Typologieansatz werden Voraussetzungen geschaffen, die Objekte der Architektur grundsätzlich vergleichbar machen. Auch wenn ein empirischer Ansatz nicht zwingend nötig ist, da diese Grundlagen auch theoretisch nachgewiesen sind, werden die vorgestellten Thesen, da diese Vorgehensweise für Untersuchungen von Architektur und Gebäuden von den bekannten Verfahren wesentlich differiert, im Modellversuch dargestellt. Als Untersuchungsgegenstände sind exemplarisch "industriell gefertigte Waschbeton-Minimalbaukörper als Verwahrräume für Entsorgungsgüter in der Bundesrepublik Deutschland" als abgeschlossene Population ausgewählt.
Der ständig zunehmende Einsatz verteilter DV-Systeme führt zu einem stark steigendenBedarf an verteilten Anwendungen. Deren Entwicklung in den verschiedensten Anwen-dungsfeldern wie Fabrik- und Büroautomatisierung ist für die Anwender bislang kaum zuhandhaben. Neue Konzepte des Software Engineering sind daher notwendig, und zwar inden drei Bereichen 'Sprachen', 'Werkzeuge' und 'Umgebungen'. Objekt-orientierte Me-thoden und graphische Unterstützung haben sich bei unseren Arbeiten als besonders taug-lich herausgestellt, um in allen drei Bereichen deutliche Fortschritte zu erzielen. Entspre-chend wurde ein universeller objektorientierter graphischer Editor, ODE, als einesunserer zentralen Basis-Werkzeuge ('tool building tool') entwickelt. ODE basiert aufdem objekt-orientierten Paradigma sowie einer leicht handhabbaren funktionalen Sprachefür Erweiterungen; außerdem erlaubt ODE die einfache Integration mit anderen Werk-zeugen und imperativ programmierten Funktionen. ODE entstand als Teil von DOCASE,einer Software-Produktionsumgebung für verteilte Anwendungen. Grundzüge von DO-CASE werden vorgestellt, Anforderungen an ODE abgeleitet. Dann wird ODE detaillier-ter beschrieben. Es folgt eine exemplarische Beschreibung einer Erweiterung von ODE,nämlich der für die DOCASE-Entwurfssprache.
Die Mehrzahl aller CBR-Systeme in der Diagnostik verwendet für das Fallretrieval ein numerisches Ähnlichkeitsmass. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem durch die Einführung eines an den Komponenten des zu diagnostizierenden technischen Systems orientierten Ähnlichkeitsbegriffs nicht nur das Retrieval wesentlich verbessert werden kann, sondern sich auch die Möglichkeit zu einer echten Fall- und Lösungstransformation bietet. Dies führt wiederum zu einer erheblichen Verkleinerung der Fallbasis. Die Ver- wendung dieses Ähnlichkeitsbegriffes setzt die Integration von zusätzlichem Wissen voraus, das aus einem qualitativem Modell der Domäne (im Sinne der modellbasierten Diagnostik) gewonnen wird.
Komprimierungsverfahren
(1999)
Bedingt durch das Wachstum von Informationsnachfrage und -angebot werden effizientere Wege zur Repräsentation von Informationen aller Art benötigt. Dies kann sowohl durch Assimilation und Optimierung der gewählten Datenstruktur und ihrer Repräsentation als auch (additiv) durch Komprimierung derselbigen erreicht werden. Diese Ausarbeitung soll in pragmatischer Art und Weise in das Themengebiet der Komprimierung einführen. Vorgestellt werden insgesamt 3 Stellvertreter aus unterschiedlichen Bereichen : Komprimierung von Texten mittels Huffman-Code, Komprimierung von Bitlisten mittels Laufkomprimierung (RLE-Komprimierung), Komprimierung von - auf dem RGB-Farbmodell basierenden - Grafiken mittels eines eigenen Verfahrens. Während die ersten beiden Verfahren Vertreter verlustfreier Komprimierung sind, ist das Dritte ein Vertreter der verlustbehafteten Komprimierung. Die vorgestellten Verfahren werden zur Arrondierung an konkreten Beispielen eingeübt und schließlich sogar in der Programmiersprache Pascal implementiert. Die konkrete Realisation in einer gegebenen Programmiersprache birgt kanonischerweise die Gefahr, den Blick für das Wesentliche zu verlieren. Deshalb wurde bei der Erstellung dieser Ausarbeitung (im speziellen der Programmieraufgaben) akribisch auf Abstrahierung unnötiger Details geachtet.
Auf KLUEDO, dem Kaiserslauterer uniweiten elektronischen Dokumentenserver, können Angehörige der Universität Kaiserslautern wissenschaftliche Dokumente in elektronischer Form im Internet und damit weltweit veröffentlichen. Der Dokumentenserver entstand auf Initiative der Fachbereiche und der Universitätsbibliothek Kaiserslautern im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten GLOBAL INFO - Vorprojektes. Hierbei basiert der Dokumentenserver stellenweise auf dem (während des MathNet-Projektes des deutschen Forschungsnetzes (DFN) und des MathBibNet-Projektes der deutschen Forschungsgemeinschaft (DFG) aufgebauten) Mathematik-Preprintserver der Universität Kaiserslautern. Dieser Artikel umreißt die Aspekte, die hinter der Entwicklung des Dokumentenservers in der vorliegenden Form gestanden haben und gibt einen groben Überblick über die Systemarchitektur. Detailinformationen und eine Beschreibung des Systems findet man in meiner Arbeit Propadeutik metadatenbasierter Publikationsserver: Ontologie und konkordante Implementierung.
Zunehmende Kritik an den Wohngebieten der vergangenen Jahre, die als Schlafstädte bezeichnet werden, die Probleme der jüngeren Generation, die vom Medienkonsum, über Gewaltbereitschaft bis zur Politikverdrossenheit reichen, machen ein planerisch angemessenes Handeln sowohl bei der Gestaltung der Wohngebiete als auch bei der Beteiligung immer dringlicher. Dies kommt in den Arbeiten der Kinder und Jugendlichen zum Ausdruck. Im Rahmen der vorliegenden Arbeit wurde eine methodische Vorgehensweise zur Beteiligung von Kindern und Jugendlichen theoretisch entwickelt und praktisch angewendet, um so zur inhaltlichen Definition von Bedürfnissen beizutragen. Die aus forschungsökonomischen Gründen in Rheinland-Pfalz durchgeführten empirischen Beteiligungen bedürfen dabei sicherlich im Hinblick auf die Einbindung von Kindern und Jugendlichen aus Großstädten noch weiterer Untersuchungen. Ebenso besteht im Zusammenhang mit dem Programm der Sozialen Stadt, bei der Beteiligung von Kindern aus sozialen Brennpunkten und der Einbindung von ausländischen Jugendlichen Untersuchungsbedarf. Deutlich kamen die Probleme der Mädchen im öffentlichen Raum zum Ausdruck, so dass sowohl bei der Beteiligung als auch in der Bauleitplanung Handlungsbedarf besteht. Es hat sich gezeigt, dass Kinder und Jugendliche als Stellvertreter/-innen ihre Bedürfnisse ausdrücken können. Bei der Gestaltung der Wohngebiete müssen die ingenieurtechnischen Gesichtspunkte gegenüber den sozialen und kommunikativen Aspekten in den Hintergrund treten, damit sie den Bedürfnissen der Kinder und Jugendlichen entsprechen. Erforderlich ist, dass alle Planungsverantwortlichen von der Politik über die Verwaltung bis zu den Planerinnen und Planern für die Bedürfnisse sensibilisiert und über diese informiert werden und die Möglichkeiten des Baugesetzbuches ausgeschöpft bzw. weitere gesetzliche Grundlagen geschaffen werden. Es wird damit auch ein Beitrag zu einer stärkeren Demokratisierung der Planung geleistet und der Forderung einer nachhaltigen Stadtentwicklung, wie sie z.B. in der Agenda 21 gefordert wird, entsprochen.
Das Ziel dieses Projekts war es, anhand von empirischen Untersuchungen klassische statistische Verfahren und aktuelle Methoden des Maschinellen Lernens mit einem Ansatz zu vergleichen, der in der Arbeitsgruppe entworfen und theoretisch analysiert wurde. Implementiert wurden f"unf Verfahren, einige davon in verschiedenen Varianten: FeedForward Neuronale Netze, Entscheidungsbäume, Bayes Entscheidungen, die auf Chow-Expansionen beruhen, Harmonische Analyse und die Methode des N"achsten Nachbarn. Als Referenzmassstab wurden Vorhersagen herangezogen, die den Trend oder den Mittelwert der letzten letzten Beobachtungen vorhersagten. Als Daten standen 16 Zeitreihen von Aktien- und Devisenkursen zur Verf"ugung. Jede der Zeitreihen bestand aus 2000 Daten, von denen die ersten 1500 zum Training und die restlichen 500 für den Vergleich der Verfahren dienten. Dabei zeigte es sich, dass die naiven Referenzverfahren einen recht guten Pr"ufstein darstellten. Die Bayes-Entscheidungen und die Entscheidungsbäume erwiesen sich als besonders stark und übertrafen die Referenzmethoden fast immer. Neuronale Netze und die Methode des n"achsten Nachbarn waren etwa genausogut, während die Harmonische Analyse für kurzfristige Vorhersagen schlechter und für langfristige besser war. Bei Entscheidungsbäumen und Neuronalen Netzen fiel auf, dass kleine B"aume bzw. Netze bessere Ergebnisse lieferten als grosse.
Seinen Versuch, den Begriff der negativen Größen in die Weltweisheit einzuführen beginnt der neununddreißigjährige Immanuel Kant mit einer grundsätzlichen Erörterung über einen etwaigen Gebrauch, den man in der Weltweisheit von der Mathematik ma-chen kann. Dabei stellt er die These auf, daß Mathematik grundsätzlich nur auf zweierlei Art in die Philosophie eingreifen könne. Eine erste Möglichkeit sieht Kant in der Nachahmung mathematischer Methoden bei der Darstellung von Philosophie, die andere Möglichkeit besteht für ihn in der konkreten Anwendung mathematischer Theorien in der Naturlehre. Die zuerst genannte Möglichkeit beurteilt Kant ausgesprochen negativ; seine Kritik an dem von Comenius zunächst ganz allgemein formulierten und dann von Christian Wolff insbesondere für die Philosophie favorisierten Programm einer Präsentation der Philosophie nach mathematischem Vorbild einer Darstellung more geometrico demonstrata ist hinlänglich bekannt. Die Verwendung von Mathematik in der Naturlehre sieht Kant zwar durchaus positiv; in den Metaphysischen Anfangsgründen der Naturwissenschaft wird er gut zwei Jahrzehnte später sogar jene berühmte Behauptung hinzufügen, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist. Dennoch weist Kant mit aller Deutlichkeit auf die engen Grenzen des Wirkungsbereichs solcher Anwendungen von Mathematik hin, denn seiner Meinung nach würden aber auch nur die zur Naturlehre gehörigen Einsichten von derartigem mathematischem Zugriff profitieren.