Refine
Year of publication
- 1999 (100) (remove)
Document Type
- Preprint (46)
- Doctoral Thesis (28)
- Article (7)
- Course Material (6)
- Master's Thesis (6)
- Lecture (2)
- Study Thesis (2)
- Working Paper (2)
- Report (1)
Language
- German (100) (remove)
Has Fulltext
- yes (100)
Keywords
- Praktikum (6)
- Case-Based Reasoning (5)
- Fallbasiertes Schliessen (3)
- Maschinelles Lernen (3)
- Diagnose technischer Systeme (2)
- KLUEDO (2)
- Server (2)
- ATP-Synthase (1)
- Ablagestruktur (1)
- Access System (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (39)
- Kaiserslautern - Fachbereich Chemie (19)
- Kaiserslautern - Fachbereich Mathematik (10)
- Kaiserslautern - Fachbereich Physik (9)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (8)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (1)
- Universitätsbibliothek (1)
Die Verwendung von existierenden Planungsansätzen zur Lösung von realen Anwendungs- problemen führt meist schnell zur Erkenntnis, dass eine vorliegende Problemstellung im Prinzip zwar lösbar ist, der exponentiell anwachsende Suchraum jedoch nur die Behandlung relativ kleiner Aufgabenstellungen erlaubt. Beobachtet man jedoch menschliche Planungsexperten, so sind diese in der Lage bei komplexen Problemen den Suchraum durch Abstraktion und die Verwendung bekannter Fallbeispiele als Heuristiken, entscheident zu verkleinern und so auch für schwierige Aufgabenstellungen zu einer akzeptablen Lösung zu gelangen. In dieser Arbeit wollen wir am Beispiel der Arbeitsplanung ein System vorstellen, das Abstraktion und fallbasierte Techniken zur Steuerung des Inferenzprozesses eines nichtlinearen, hierarchischen Planungssystems einsetzt und so die Komplexität der zu lösenden Gesamtaufgabe reduziert.
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von bekannten Fallbeispielen ein derzeit sehr aktuelles Thema. Auch für Diagnoseaufgaben gewinnt der fallbasierte Ansatz immer mehr an Bedeutung. In diesem Papier soll der im Rahmen des Moltke -Projektes1 an der Universität Kaiserslautern entwickelte fallbasierte Problemlöser Patdex/22 vorgestellt werden. Ein erster Prototyp, Patdex/1, wurde bereits 1988 entwickelt.
Patdex is an expert system which carries out case-based reasoning for the fault diagnosis of complex machines. It is integrated in the Moltke workbench for technical diagnosis, which was developed at the university of Kaiserslautern over the past years, Moltke contains other parts as well, in particular a model-based approach; in Patdex where essentially the heuristic features are located. The use of cases also plays an important role for knowledge acquisition. In this paper we describe Patdex from a principal point of view and embed its main concepts into a theoretical framework.
Formalismen und Anschauung
(1999)
In der Philosophie ist es selbstverständlich, daß Autoren, die Erkenntnisse früherer Philosophen weitergeben oder kommentieren, die Originalliteratur kennen und sich in ihrer Argumentation explizit auf bestimmte Stellen in den Originaldarstellungen beziehen. In der Technik dagegen ist es allgemein akzeptierte Praxis, daß Autoren von Lehrbüchern, in denen Erkenntnisse früherer Forscher dargestellt oder kommentiert werden, nicht die Originaldarstellungen zugrunde legen, sondern sich mit den Darstellungen in der Sekundärliteratur begnügen. Man denke an die Erkenntnisse von Boole oder Maxwell, die in sehr vielen Lehrbüchern der Digitaltechnik bzw. der theoretischen Elektrotechnik vermittelt werden, ohne daß die Autoren dieser Lehrbücher auf die Originalschriften von Boole oder Maxwell Bezug nehmen. Dagegen wird man wohl kaum ein Buch über Erkenntnisse von Aristoteles oder Kant finden, dessen Autor sich nicht explizit auf bestimmte Stellen in den Schriften dieser Philosophen bezieht.
Die systemtheoretische Begründung für die Einführung des Zustandsbegriffs findet man im Mosaik-stein "Der Zustandsbegriff in der Systemtheorie". Während sich die dortige Betrachtung sowohl mitkontinuierlichen als auch mit diskreten Systemen befaßt, wird hier die Betrachtung auf diskrete Sy-steme beschränkt.
Umgangssprachlich wurde das Wort Daten schon gebraucht, lange bevor der Computer erfundenwurdeund die AbkürzungEDV für "Elektronische Datenverarbeitung" in die Alltagssprache gelangte.So sagte beispielsweise der Steuerberater zu seinem Klienten: "Bevor ich Ihre Steuererklärung fertigmachen kann, brauche ich von Ihnen noch ein paar Daten." Oder der Straßenbaureferent einer Stadtschrieb an den Oberbürgermeister: "Für die Entscheidung, welche der beiden in Frage stehenden Stra-ßen vorrangig ausgebaut werden soll, müssen wir noch eine Datenerhebung durchführen." Bei diesenDaten ging es zwar oft um Zahlen - Geldbeträge, Anzahl der Kinder, Anzahl der Beschäftigungsmo-nate, gezählte Autos - , aber eine Gleichsetzung von Daten mit Zahlen wäre falsch. Zum einen wärenZahlen ohne mitgelieferte Wörter wie Monatseinkommen, Kinderzahl u.ä. für den Steuerberater nutz-los, zum anderen will das Finanzamt u.a. auch den Arbeitgeber des Steuerpflichtigen wissen, und dazumuß eine Adresse angegeben werden, aber keine Zahl.
Für die Systemtheorie ist der Begriff Zustand ein sehr zentraler Begriff. Das Wort "Zustand" wird um-gangssprachlich recht häufig verwendet, aber wenn man die Leute fragen würde, was sie denn meinen,wenn sie das Wort Zustand benützen, dann würde man sicher nicht die präzise Definition bekommen,die man für die Systemtheorie braucht.
In diesem Aufsatz geht es um eine Klassifikation von Programmen nach zwei orthogonalen Kriterien.Programm und Software werden dabei nicht als Synonyme angesehen; Programm sein wird hiergleichgesetzt mit ausführbar sein, d.h. etwas ist dann und nur dann ein Programm, wenn man die Fragebeantworten kann, was es denn heißen solle, dieses Etwas werde ausgeführt. Es gibt durchaus Softwa-regebilde, bezüglich derer diese Frage keinen Sinn hat und die demzufolge auch keine Programme sind - beispielsweise eine Funktions - oder eine Klassenbibliothek.Klassifikation ist von Nutzen, wenn sie Vielfalt überschaubarer macht - die Vielfalt der Schüler einergroßen Schule wird überschaubarer, wenn die Schüler "klassifiziert" sind, d.h. wenn sie in ihren Klas-senzimmern sitzen. Die im folgenden vorgestellte Klassifikation soll die Vielfalt von Programmenüberschaubarer machen.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
Im Rahmen dieser Arbeit wurden mehr als 50 Verbindungen aus der Klasse der TADDOLe oder ihrer Analoga bzgl. ihrer HTP und ihrer UV- und CD-Spektroskopie untersucht. Dabei wurde für alle Verbindungen die HTP im Flüssigkristall ZLI-1695 temperaturabhängig bestimmt. Für 30 dieser Verbindungen wurde als Vergleich die HTP temperaturabhängig auch in K15 gemessen. Es ist erstmals möglich innerhalb einer Verbindungsklasse die HTP von neuen Verbindungen mit Hilfe von empirischen Regeln vorherzusagen. Somit konnte die bislang höchste bekannte HTP durch eine gezielte Synthese um mehr als 100% gesteigert werden (56 in K15). Es besteht nun die Möglichkeit, TADDOLe je nach gewünschter HTP maßzuschneidern. Aufgrund des hohen Verdrillungsvermögens von einigen TADDOLen wurde die Substanzklasse als Chirale Verbindungen gemeinsam mit Seebach und der BASF patentiert [7-1] sowie an weiteren Stellen veröffentlicht [7-2,3-8]. Das Vorzeichen der HTP der TADDOLe kann mit dem Vorzeichen bei der enantioselektiven Synthese korreliert werden und mit einer einfachen Regel vorhergesagt werden. Alle hier untersuchten TADDOLe mit einer R,R-Konfiguration induzieren eine Rechtshelix. Der Vergleich von HTP-Werten mit Ergebnissen aus der NMR-, anisotropen UV- und CD-Spektroskopie und Exziton-Theorie geben Ansätze, mit denen man verschiedene Einflüsse auf die HTP der TADDOLe diskutieren kann. Die Orientierungsachse bei den TADDOLen liegt senkrecht zur C2-Achse. Dies wurde mit Hilfe von 2 H-NMR für die Verbindungen 2, 3, 4 und mit Hilfe von 13 C-NMR für die Verbindungen 2, 13, 43, 45, 46 von I. Kiesewalter [7-9] gezeigt. Aus anisotropen UV-Messungen folgt diese Lage der Orientierungsachse für 3, 4, 5, 6, 8, 60, 61. Selbst bei den in C2-Richtung stark verlängerten Molekülen 60, 61 ändert sich der Anisotropiegrad und der ACD im Vergleich zu 3, 8 nur unwesentlich, was ein starkes Argument dafür ist, daß die Orientierungsachse bei den hier untersuchten TADDOLen immer senkrecht zur C2-Achse liegt. Die Mittlere Stellung der Arylgruppen zueinander hat einen Einfluß auf die Parameter der empirischen Regeln für die HTP. Verbindungen 58 und 63 unterscheiden sich nur durch den Austausch Wasserstoff-Methyl im Acetalbereich von den Verbindungen 3, 8. Die HTP ändert sich drastisch, ebenso der UV und der CD. Daraus folgt, daß die Arylgruppen im Mittel anders stehen. Anders ist der Fall beim Vergleich 3 mit 5 und 8 mit 6. Hier gibt es kaum Änderung im CD und kaum Änderung in der HTP. Ein Fall, der in der Mitte liegt sind 3 und 4. Eine Änderung im CD führt zu Änderung in der HTP bei gleichem Chromophor. Durch die Drehbarkeit um 4 C-Arylachsen besitzen die TADDOLe Konformere. Jedoch sind die Konformere sich sehr ähnlich. MM2-Rechnungen zeigen, daß sich die Konformere nur aufgrund von 180°-Drehungen der Arylgruppen um die C-Arylachse unterscheiden. Die MM2-Rechnungen wurden von Plattner [7-10] durchgeführt. Viele TADDOLe zeigen ein ähnliches konformatives Verhalten. Sie besitzen ca. 37% Temperaturabhängigkeit im CD zwischen 5°C und 75°C. Für diese Untersuchungen wurde im Rahmen dieser Arbeit eine neue Meßzelle konstruiert, die Langzeitmessungen bei Temperaturen erlaubt, die nur ca. 7°C unterhalb des Siedepunktes des Lösungsmittels liegen ohne, daß das Lösungsmittel während der Messung verdampft. Man kann es somit vermeiden, daß man eine zeitabhängige Konzentrationszunahme erhält. Weiterhin muß das verwendete Uvasol-Acetonitril gereinigt werden, um eine Zersetzung der TADDOLe während der Messung zu verhindern. Für die Bestimmung des Ordnungstensors werden bei der NMR-Methode Geometrien benötigt. Dazu wurden von den Verbindungen 4, 13, 46 Röntgenstrukturen angefertigt [7-11]. Die Verbindungen 4 und 46 bilden wegen der Überbrückung gleichzeit ig einen guten Vergleich zu den Metallkomplexen, wie sie bei der enantioselektiven Synthese eingesetzt werden. Mit der Geometrie aus der Röntgenstruktur von 4 wurde mit Hilfe der Exziton-Theorie das CD- und UV-Spektrum berechnet. Durch den Vergleich von gemessenen und nach der Exziton-Methode berechneten UV- und CD-Spektren ist man in der Lage mehr über eine mögliche Geometrie in Lösung zu sagen als nur mit der Röntgengeometrie und MM2-Rechnungen. Hierbei wurden Rechnungen an den Verbindungen 3, 4, 6 durchgeführt. Die Exziton-Methode wurde erstmals auf ein 4-Körperproblem eines organischen Nicht-Polymer-Moleküls angewendet. Das 3-Körperproblem [7-12] sowie die Beschreibung von Polymermolekülen sind in der Literatur bekannt[7-13]. Einige TADDOLe wurden, um große Effekte von kleinsten Verunreinigungen auszuschließen, ausgehend von einer Reinheit größer 99% (HPLC) so weit aufgereinigt, daß mit HPLC keine Verunreinigung mehr nachweisbar war. Verbindung 4 wurde im Rahmen dieser Arbeit synthetisiert. Die AHTP konnte erstmals für ein chirales Molekül außerhalb des experimentellen Fehlers nachgewiesen werden.
Sowohl die gesteigerte Komplexität der Signalverarbeitungsalgorithmen und das umfangreichere Diensteangebot als auch die zum Erzielen der hohen erforderlichen Rechenleistungen erforderliche Parallelverarbeitung führen künftig zu einer stark ansteigenden Komplexität der digitalen Signalverarbeitung in Mobilfunksystemen. Diese Komplexität ist nur mit einem hierarchischen Modellierungs- und Entwurfsprozeß beherrschbar. Während die niedrigeren Hierarchieebenen der Programmierung und des Hardwareentwurfs bereits heute gut beherrscht werden, besteht noch Unklarheit bei den Entwurfsverfahren auf der höheren Systemebene. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs auf höheren Hierarchieebenen. Hierzu wird der Entwurf eines Experimentalsystems für das JD-CDMA-Mobilfunkkonzept auf der Systemebene betrachtet. Es wird gezeigt, daß das Steuerkreismodell ein angemessenes Modell für die digitale Signalverarbeitung in einem Mobilfunksystem auf der Systemebene ist. Das Steuerkreismodell läßt sich einerseits direkt auf die in zukünftigen Mobilfunksystemen einzusetzenden Multiprozessorsysteme abbilden und entspricht andererseits auch der nachrichtentechnischen Sichtweise der Aufgabenstellung, in der das Mobilfunksystem durch die auszuführenden Algorithmen beschrieben wird. Das Steuerkreismodell ist somit ein geeignetes Bindeglied, um von der Aufgabenstellung zu einer Implementierung zu gelangen. Weiterhin wird gezeigt, daß das Steuerkreismodell sehr modellierungsmächtig ist, und sein Einsatz im Gegensatz zu vielen bereits bekannten Entwurfsverfahren nicht auf mittels Datenflußmodellen beschreibbare Systeme begrenzt ist. Die klassischen, aus der von Datenflußmodellen ausgehenden Systemsynthese bekannten Entwurfsschritte Allokierung, Ablaufplanung und Bindung können im Kontext der Steuerkreismodellierung als Verfahren zur Konstruktion der Steuerwerksaufgabe verstanden werden. Speziell für das Experimentalsystem werden zwei verschiedene Ablaufsteuerungsstrategien modelliert und untersucht. Die volldynamische Ablaufsteuerung wird zur Laufzeit durchgeführt und ist daher nicht darauf angewiesen, daß die auszuführenden Abläufe a priori bekannt sind. Bei der selbsttaktenden Ablaufsteuerung werden die hier a priori bekannten Abläufe zum Zeitpunkt der Systemkonstruktion fest geplant, und zur Laufzeit wird dieser Plan nur noch ausgeführt. Schließlich werden noch die Auswirkungen der paketvermittelten burstförmigen Nachrichtenübertragung auf die digitale Signalverarbeitung in zukünftigen Mobilfunksystemen untersucht. Es wird gezeigt, daß es durch Datenpufferung sehr gut möglich ist, die Rechenlast in einem Mobilfunksystem zu mitteln.
Struktur und Werkzeuge des experiment-spezifischen Datenbereichs der SFB501 Erfahrungsdatenbank
(1999)
Software-Entwicklungsartefakte müssen zielgerichtet während der Durchführung eines Software- Projekts erfasst werden, um für die Wiederverwendung aufbereitet werden zu können. Die methodische Basis hierzu bildet im Sonderforschungsbereich 501 das Konzept der Erfahrungsdatenbank. In ihrem experiment-spezifischen Datenbereich werden für jedes Entwicklungsprojekt alle Software-Entwicklungsartefakte abgelegt, die während des Lebenszyklus eines Projektes anfallen. In ihrem übergreifenden Datenbereich werden all die jenigen Artefakte aus dem experiment-spezifischen Datenbereich zusammengefasst, die für eine Wiederverwendung in nachfolgenden Projekten in Frage kommen. Es hat sich gezeigt, dass bereits zur Nutzung der Datenmengen im experiment- spezifischen Datenbereich der Erfahrungsdatenbank ein systematischer Zugriff notwendig ist. Ein systematischer Zugriff setzt jedoch eine normierte Struktur voraus. Im experiment-spezifischen Bereich werden zwei Arten von Experimenttypen unterschieden: "Kontrollierte Experimente" und "Fallstudien". Dieser Bericht beschreibt die Ablage- und Zugriffsstruktur für den Experimenttyp "Fallstudien". Die Struktur wurde aufgrund der Erfahrungen in ersten Fallstudien entwickelt und evaluiert.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
In diesem Aufsatz wird die Arbeitsweise eines Werkzeuges dargestellt, mit dessen Hilfedie Analyse von Feature-Interaktionen in Intelligenten (Telefon-)Netzwerken unterstütztwird. Dieses Werkzeug basiert auf einem von uns entwickelten formalen Lösungsansatz, deraus einem geeigneten Spezifikationsstil, aus einem formalen Kriterium zur Erkennung vonFeature-Interaktionen und aus einer Methode zur Auflösung der erkannten Feature- Interaktionen besteht. Das Werkzeug führt eine statische Analyse von Estelle-Spezifikationendurch und erkennt dabei potientielle Feature-Interaktionen sowie nichtausführbare Transitionen. Darüberhinaus kann es die erkannten nichtausführbaren Transitionen zur Optimierung aus der Spezifikation entfernen. Wir erläutern zunächst kurz den zugrundeliegendenAnsatz und beschreiben danach die Anwendung auf Estelle anhand der Funktionsweisedes Werkzeuges.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
Metall-Ligand-Mehrfachbindungssysteme üben von jeher eine große Anziehungskraft auf den Chemiker aus. Selbst zwei Jahrhunderte nach der Entdeckung der ersten Eisen-Sauerstoff-Mehrfachbindung im Na2FeO4 ist die Faszination an dieser sich dynamisch entwickelnden Richtung der metallorganischen Chemie ungebrochen [1] . So vielfältig wie die verwendeten Metalle und Liganden - bis zum heutigen Tage kennt man Mehrfachbindungen zwischen Übergangsmetallen und den meisten Elementen der 4., 5. und 6. Hauptgruppe - so beeindruckend ist auch die Fülle von Übersichtsartikeln und unterschiedlichsten Publikationen zu diesem Forschungsgebiet [2] . Einen wesentlichen Impuls für das stetig wachsende Interesse stellt die große Zahl von wichtigen industriellen Prozessen dar, in denen Komplexe mit Metall-Ligand-Mehrfachbindungen eine entscheidende Rolle spielen. Exemplarisch sind zu nennen die Haber-Ammoniak-Synthese, die Reduktion von Nitrilen und das SOHIO-Verfahren zur Umwandlung von Propylen in Acylonnitril [3-5] . Desweiteren werden jährlich ca. 14 Millionen Tonnen chemischer Stoffe durch Oxidationsprozesse hergestellt [6] . Wer würde ernsthaft behaupten, die Mechanismen metallkatalysierter Prozesse wirklich zu kennen? Allein diese wenigen Beispiele zeigen auf, wie wichtig das Verständnis für Struktur und Bindungsverhältnisse sowie das Reaktionsverhalten rein anorganischer und metallorganischer Verbindungen ist und welcher großen Herausforderung sich die Grundlagenforschung in den nächsten Jahren zu stellen hat, ungeachtet der Verdienste, die sie bis dato erzielte.