Refine
Year of publication
- 1999 (100) (remove)
Document Type
- Preprint (46)
- Doctoral Thesis (28)
- Article (7)
- Course Material (6)
- Master's Thesis (6)
- Lecture (2)
- Study Thesis (2)
- Working Paper (2)
- Report (1)
Language
- German (100) (remove)
Keywords
- Praktikum (6)
- Case-Based Reasoning (5)
- Fallbasiertes Schliessen (3)
- Maschinelles Lernen (3)
- Diagnose technischer Systeme (2)
- KLUEDO (2)
- Server (2)
- ATP-Synthase (1)
- Ablagestruktur (1)
- Access System (1)
Faculty / Organisational entity
- Fachbereich Informatik (39)
- Fachbereich Chemie (19)
- Fachbereich Mathematik (10)
- Fachbereich Physik (9)
- Fachbereich Elektrotechnik und Informationstechnik (8)
- Fachbereich ARUBI (6)
- Fachbereich Wirtschaftswissenschaften (5)
- Fachbereich Biologie (2)
- Fachbereich Maschinenbau und Verfahrenstechnik (1)
- Universitätsbibliothek (1)
Prozeßanalyse und Modellbildung bei der Herstellung gewebeverstarkter, thermoplastischer Halbzeuge
(1999)
Werkstoff- und verarbeitungsspezifische Vorteile gewebeverstärkter, thermoplastischer Faser-Kunststoff-
Verbunde bieten ein erhebliches Potential für die Umsetzung konsequenter Leichtbauweisen in den verschiedenen Anwendungsbereichen der Industrie. In der Regel erfolgt die
Herstellung von Bauteilen in einer Prozeßkette, die sich aus den beiden Kernprozesse Verbundbildung (Imprägnierung und Konsolidierung) und Formgebung zusammensetzt. Die Verbundbildung erfolgt mit Hilfe diskontinuierlicher (Autoklav, Etagenpresse) oder kontinuierliche (Kalander, Doppelbandpresse) Verfahren, die z.B. umformbare Halbzeuge wie ORGANOBLECHEN, zur weiteren Verarbeitung bereitstellen. Diese Entkopplung des Imprägnierungsprozesses der Verstärkungstextilien mit thermoplastischer Matrix von der Bauteilherstellung ermöglicht - analog der Blechumformung - eine großserientaugliche Prozeßtechnik mit kurzen Taktzeiten. Alle wesentlichen Eigenschaften des Verbundwerkstoffes werden so während der Halbzeugherstellung determiniert, während die Bauteilherstellung dann nur der Umformung dient. Auf dem Verbundwerkstoffmarkt ist ein Reihe von Halbzeugen mit verschiedenen Eigenschaftsprofilen verfügbar. Infolge des ständigen Wandels der werkstofflichen Anforderungsprofile
ist jedoch eine permanente Weiterentwicklung der Halbzeuge notwendig. Hieraus resultiert für die Werkstoffhersteller ein großes technisches und wirtschaftliches Risiko, da die
aufwendige Werkstoffentwicklung - aufgrund mangelnder wissenschaftlicher Grundlagen - mit erheblichen Unsicherheiten behaftet ist. Derzeit wird die Neuentwicklung von anforderungsspezifischen Halbzeugen mit Hilfe von Trial- and-Error Versuchen hinsichtlich der universellen Prozeßparameter (Temperatur, Zeit und Druck) betrieben. Derartige Versuchsreihen bedingen einen beträchtlichen finanziellen und zeitlichen Umfang und stellen somit ein wesentliches Entwicklungsrisiko dar. Darüber hinaus sind die Ergebnisse nur für Anlagen gleichen Typs und Bauart uneingeschränkt anwendbar. Eine Übertragbarkeit der Prozeßparameter auf andere Anlagenkonzepte ist nicht gegeben, so daß die Prozeßfenster jeweils immer individuell ermittelt werden müssen. Aufgrund
dieser aufwendigen Vorgehensweise werden deshalb intensive Anstrengungen unternommen, die während der Materialherstellung auftretenden Vorgänge mathematisch zu
modellieren, um dann durch rechnerische Simulation der Verarbeitungsprozesse eine Abschätzung des energetischen und zeitlichen Aufwandes zu ermöglichen. Daraus ergab sich die Aufgabe, das Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter, flächiger thermoplastischer Halbzeuge durch umfangreiche Untersuchungen an verschiedensten Materialkombinationen zu analysieren. Ziel war es, die bei der Halbzeugherstellung
auftretenden Effekte zu charakterisieren, Ansätze zu deren Modellierung zu entwickeln und Erkenntnisse zur Optimierung der Prozeß- und Materialparameter zu gewinnen. Wesentliche Ergebnisse der Prozeßanalyse sind das Auftreten von transversalen Makro- und Mikroströmen sowie das Entstehen von festigkeits- und steifigkeitsreduzierenden Bindenähten
und Lufteinschlüssen. Ferner laufen innerhalb der Faserbündel, temperatur- und druckabhängige Lösungs- und Diffusionsvorgänge bei der Eliminierung der Lufteinschlüsse sowie Wechselwirkungen zwischen elastischen Geweben und strömender Matrix ab. Zentrales Ergebnis der Untersuchung stellt ein abgeleitetes System von funktionalen Abhängigkeiten dar, welches einen ersten, grundlegenden Schritt zur Erstellung eines umfassenden Simulationsmodells des komplexen Prozesses bildet. Hiermit schließt die vorliegende Arbeit erstmals eine Lücke zwischen anlagenspezifischen Versuchsreihen und der allgemeinen numerischen Prozeßsimulation, die es ermöglicht, das
Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter thermoplastischer Halbzeuge auf experimenteller Basis anlagenunabhängig zu beschreiben. Dazu wurden die regelbaren Prozeßgrößen Verarbeitungstemperatur T (°K), Verarbeitungszeit t (s) und
Konsolidierungsdruck P (Pa) zu einer dimensionslosen, matrixspezifischen Prozeßkonstanten - B-Faktor (tP/n(T))- zusammengefaßt, die den Verarbeitungszyklus energetisch und zeitlich bilanziert. Diese Vorgehensweise erlaubt die Untersuchung des funktionalen Zusammenhangs zwischen Prozeßregelgrößen und Imprägnierungsqualität innerhalb bestimmter Grenzen sowie den Vergleich verschiedenartiger diskontinuierlicher und kontinuierlicher Anlagentypen und
die Ableitung von Substitutionsbeziehungen zwischen den Regelgrößen. Dabei konnte gezeigt werden, daß die imprägnierungsbedingte Abnahme der Halbzeugdicke in Abhängigkeit des B-Faktors unabhängig von der verwendeten Anlagentechnik einem exponentiellen Gesetz folgt, dessen halbzeugspezifische Regressionskoeflizienten die während der Imprägnierung und Konsolidierung auftretenden Effekte zusammenfassen und die Ableitung optimaler Prozeßeinstellungen erlauben. Damit ist es möglich, für bestimmte Materialpaarungen mit Hilfe des B-Faktors einen Verarbeitungsbereich zu identifizieren, der aufgrund der
anlagenunabhängigen Betrachtungsweise der Parameter Temperatur, Imprägnierzeit und Konsolidierungsdruck
unter Berücksichtigung verschiedener Randbedingungen prinzipiell auf jede beliebige Anlagenkonfiguration zur Imprägnierung und Konsolidierung übertragen werden kann. Dies schließt deshalb nicht nur diskontinuierliche und kontinuierliche Prozesse zur Herstellung flächiger Halbzeuge, sondern darüber hinaus auch Verfahren zur Weiterverarbeitung dieser Materialien ein. Für jede potentielle Materialpaarung kann, ähnlich wie bei rheologischen Kennwerten für Kunststoffe, mit standardisierten Methoden eine Datenbasis geschaffen werden, die die Abhängigkeit des Imprägnierungsgrades von den Verarbeitungsbedingungen beschreibt. Damit kann der Versuchsaufwand bei der Einführung eines neuen Werkstoffsystems auf einer Anlage reduziert, die Verarbeitung wirtschaftlich optimiert, die Beanspruchung der Werkstoffkomponenten bei der Verarbeitung minimiert und die Einsatzstoffe verarbeitungsgerecht modifiziert werden.
Im Bereich des Software Engineering werden komplexe Software-Entwicklungsprojekte betrachtet. Im Rahmen dieser Projekte werden große Mengen von Informationen bearbeitet. Diese Informationen werden in Software-Artefakten (z.B. in Projektplänen oder Entwicklungsdokumenten, wie Anforderungsbeschreibungen)
festgehalten. Die Artefakte werden während der Entwicklung und der Wartung eines Softwaresystems häufig geändert. Änderungen einer Information in einem Artefakt haben häufig Änderungen
im selben und in anderen Artefakten zur Folge, da Beziehungen innerhalb und zwischen den in den Artefakten festgehaltenen Informationen bestehen. Die Beziehungen liegen meist nicht explizit vor, so daß die Konsequenzen einer Änderung schwer zu überblicken sind. In dieser Arbeit wurde ein Verfolgbarkeitsansatz ausgewählt, der den Benutzer bei der Durchführung von Änderungen an Artefakten unterstützt. Unterstützung bedeutet hierbei, daß der Aufwand zur Durchführung einer Änderung reduziert wird und weniger Fehler bei der Durchführung gemacht werden.
In der Arbeit wurden Anforderungen an einen auszuwählenden Verfolgbarkeitsansatz gestellt. Eine Anforderung war, daß er auf verschiedene Bereiche des Software Engineering, wie z.B. Systementwurf oder Meßplanung, mit jeweils sehr unterschiedlichen Artefakten, anwendbar sein sollte. Die durchgeführte
Literaturrecherche und die anschließende Bewertung anhand der gestellten Anforderungen ergaben, daß das Prinzip der Metamodellierung in Verbindung mit Wissensbankverwaltungssystemen ein geeigneter Verfolgbarkeitsansatz ist. Eine Evaluation, die sich auf Fallstudien aus den Bereichen
"Objektorientierter Entwurf mit UML" und "Meßplanung mit GQM" bezog, ergab, daß das Wissensbankverwaltungssystem
ConceptBase, das auf der Wissensrepräsentationssprache 0-Telos basiert, ein geeignetes Werkzeug zur Unterstützung des Verfolgbarkeitsansatzes ist.
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Die Kenntnis der Transportmechanismen von polaren und unpolaren Molekülen durch biologische Membranen ist notwendig für das Verständnis von vielen biologischen Vorgängen. Die vorliegende Arbeit soll einen Beitrag zum Verständnis des Transportes von kleinen Molekülen durch Phospholipidmodellmembranen liefern. Hierzu wurden kinetische und kalorimetrische Messungen an Lipidvesikeln durchgeführt. Besonders großes Interesse bestand darin, zu klären, wie diese Moleküle die Membran durchqueren. Um das Permeationsverhalten von Wasser zu erforschen, wurden systematische Untersuchungen der osmotisch getriebenen und der diffusionskontrollierten Wasserpermeation an Lipiddoppelschichten, hergestellt aus Phospholipiden mit unterschiedlichen Kopfgruppen und unterschiedlichen Fettsäureketten durchgeführt. Dabei wurde auch die Permeationsgeschwindigkeit im Phasenumwandlungsbereich untersucht. Die diffusionskontrollierte Wasserpermeation wird mit Hilfe des H2O/D2O-Austauschverfahrens gemessen und bei osmotischen Messungen erzeugt man einen Konzentrationsgradienten zwischen intra- und extravesikulärem Raum. Es wurde für alle Lipide und Lipidgemische eine sprunghafte Zunahme der osmotischen und diffusiven Wasserpermeation an der Hauptphasenumwandlung gel -> flüssigkristallin gefunden. Die Permeabilitätskoeffizienten für die osmotische Wasserpermeation lagen bei allen Messungen um den Faktor 100 höher als die Werte für die diffusionskontrollierte Wasserpermeation. Im Phasenumwandlungsbereich durchlaufen die Permeabilitätskoeffizienten ein Maximum. Die experimentell gewonnenen Daten lassen einen Wassertransport durch transiente Poren, die sich durch Defektstellen und thermische Fluktuationen in der Doppelschicht bilden, vermuten und widersprechen einem Löslichkeitsdiffusionsmechanismus. Um den Einfluß des Konzentrationsgradienten auf die Permeation näher zu untersuchen, wurden osmotische Messungen mit unterschiedlichen Harnstoffkonzentrationen durchgeführt. Es zeigte sich, daß die Wasserpermeation abhängig vom angelegten Konzentrationsgradienten war, während die Harnstoffpermeation keine Abhängigkeit zeigte. Die stark unterschiedlichen Permeabilitätskoeffizienten der beiden Moleküle legen den Verdacht nahe, daß sie auf unterschiedlichen Wegen die Lipiddoppelschicht durchdringen. Um das Permeationsverhalten von kleinen Molekülen aufzuklären, wurden Messungen der diffusionskontrollierten Permeation vorgenommen. Desweiteren war von Interesse ob durch den Einbau von Detergensmoleküle in die Lipidmembran die Permeationseigenschaften der Moleküle verändert werden. Mit Hilfe der gewonnen Daten sind Rückschlüsse auf den Mechanismus der Permeation von kleinen Molekülen durch biologische Membranen möglich.
Spektralsequenzen
(1999)
Das Skript vermittelt die für eine Beschlagwortung nach den Regeln für den Schlagwortkatalog (RSWK) notwendigen Grundkenntnisse. Darüber hinaus wird beschrieben, wie die Schlagwortdaten in der Verbunddatenbank des Südwestdeutschen Bibliotheksverbund (SWB) strukturiert sind, welche Prinzipien bei der kooperativen Beschlagwortung im SWB einzuhalten sind und wie die Daten erfasst werden müssen . Des weiteren werden die in der Datenbank des SWB realisierten Suchmöglichkeiten aufgezeigt und aufgelistet, wie die dazugehörigen Suchbefehle lauten. Für Fragen der Organisation des Geschäftsgang der Teilnehmerbibliotheken wird exemplarisch der Arbeitsablauf an der UB Kaiserslautern dargestellt.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
Die Entwicklung des Zusammenlebens der Menschen geht immer mehr den Weg zur Informations- und Mediengesellschaft. Nicht zuletzt aufgrund der weltweiten Vernetzung ist es uns in minutenschnelle möglich, fast alle erdenklichen Informationen zu Hause auf den Bildschirm geliefert zu bekommen. Es findet sich so jeder zwar in einer gewissen schützenden Anonymität, aber dennoch einer genauso gewollten, wie erschreckenden Transparenz wieder. Jeder klassifiziert in gewisser Weise Informationen, die er preisgibt etwa in öffentliche, persönliche und vertrauliche Nachrichten. Gerade hier müssen Techniken und Methoden bereitstehen, um in dieser anonymen Transparenz Informationen, die nur für spezielle Empfänger gedacht sind vor unbefugtem Zugriff zu schützen und nur denjenigen zugänglich zu machen, die dazu berechtigt sind. Diesen Wunsch hat nicht nur allgemein die Gesellschaft, sondern im speziellen wird die Entwicklung auf diesem Gebiet gerade von staatlichen und militärischen Einrichtungen gefordert und gefördert. So sind häufig eingesetzte Werkzeuge die Methoden der Kryptologie, aber solange es geheime Nachrichten gibt, wird es Angreifer geben, die versuchen, sich unberechtigten Zugang zu diesen Informationen zu verschaffen. Da die ständig wachsende Leistung von EDV-Anlagen das "Knacken" von Verschlüsselungsmethoden begünstigt, muß zu immer sichereren Chiffrierverfahren übergegangen werden. Dieser Umstand macht das Thema Kryptologie für den Moment hochaktuell und auf lange Sicht zu einem zeitlosen Forschungsgebiet der Mathematik und Informatik.
Sowohl die gesteigerte Komplexität der Signalverarbeitungsalgorithmen und das umfangreichere Diensteangebot als auch die zum Erzielen der hohen erforderlichen Rechenleistungen erforderliche Parallelverarbeitung führen künftig zu einer stark ansteigenden Komplexität der digitalen Signalverarbeitung in Mobilfunksystemen. Diese Komplexität ist nur mit einem hierarchischen Modellierungs- und Entwurfsprozeß beherrschbar. Während die niedrigeren Hierarchieebenen der Programmierung und des Hardwareentwurfs bereits heute gut beherrscht werden, besteht noch Unklarheit bei den Entwurfsverfahren auf der höheren Systemebene. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs auf höheren Hierarchieebenen. Hierzu wird der Entwurf eines Experimentalsystems für das JD-CDMA-Mobilfunkkonzept auf der Systemebene betrachtet. Es wird gezeigt, daß das Steuerkreismodell ein angemessenes Modell für die digitale Signalverarbeitung in einem Mobilfunksystem auf der Systemebene ist. Das Steuerkreismodell läßt sich einerseits direkt auf die in zukünftigen Mobilfunksystemen einzusetzenden Multiprozessorsysteme abbilden und entspricht andererseits auch der nachrichtentechnischen Sichtweise der Aufgabenstellung, in der das Mobilfunksystem durch die auszuführenden Algorithmen beschrieben wird. Das Steuerkreismodell ist somit ein geeignetes Bindeglied, um von der Aufgabenstellung zu einer Implementierung zu gelangen. Weiterhin wird gezeigt, daß das Steuerkreismodell sehr modellierungsmächtig ist, und sein Einsatz im Gegensatz zu vielen bereits bekannten Entwurfsverfahren nicht auf mittels Datenflußmodellen beschreibbare Systeme begrenzt ist. Die klassischen, aus der von Datenflußmodellen ausgehenden Systemsynthese bekannten Entwurfsschritte Allokierung, Ablaufplanung und Bindung können im Kontext der Steuerkreismodellierung als Verfahren zur Konstruktion der Steuerwerksaufgabe verstanden werden. Speziell für das Experimentalsystem werden zwei verschiedene Ablaufsteuerungsstrategien modelliert und untersucht. Die volldynamische Ablaufsteuerung wird zur Laufzeit durchgeführt und ist daher nicht darauf angewiesen, daß die auszuführenden Abläufe a priori bekannt sind. Bei der selbsttaktenden Ablaufsteuerung werden die hier a priori bekannten Abläufe zum Zeitpunkt der Systemkonstruktion fest geplant, und zur Laufzeit wird dieser Plan nur noch ausgeführt. Schließlich werden noch die Auswirkungen der paketvermittelten burstförmigen Nachrichtenübertragung auf die digitale Signalverarbeitung in zukünftigen Mobilfunksystemen untersucht. Es wird gezeigt, daß es durch Datenpufferung sehr gut möglich ist, die Rechenlast in einem Mobilfunksystem zu mitteln.
Die Untersuchung von semiklassischen Näherungen des Zeitentwicklungsoperators in der Quantenmechanik ist sowohl von fundamentalem als auch von didaktischem Interesse. Das fundamentale Interesse ist in der Beschreibung des Zusammenhangs zwischen klassischer Mechanik und Quantenmechanik begründet, das didaktische erklärt sich aus dem anschaulichen Zugang, den die Beschreibung von quantenmechanischen Prozessen durch klassische Größen liefert. Besonders klar wird dieser Zusammenhang, wenn eine Phasenraumdarstellung der Quantenmechanik betrachtet wird. Eine erste semiklassische Näherung für den Propagator im Phasenraum, den sogenannten "coherent state"-Propagator, wurde von Klauder vorgestellt. Weissman motivierte diese Näherung durch die Erweiterung der semiklassischen Korrespondenzrelationen auf den Begriff der kohärenten Variablen. In späteren Veröffentlichungen wird auf eine rigorose Herleitung mittels Pfadintegralmethoden verwiesen, die aber bis zum heutigen Tage nicht verwirklicht wurde. Ein zentraler Punkt dieser Arbeit wird es sein, zum ersten Mal diese alternative Herleitung vollständig zu präsentieren. Die Eigenschaften der semiklassischen Näherung des Phasenraumpropagators wurden für eine Reihe fundamentaler Quantenprozesse untersucht. Ausgehend von der semiklassischen Näherung des Phasenraumpropagators ergibt sich durch eine Ortsraumdarstellung desselben der Herman-Kluk-Propagator. Dieser gehört zur Klasse der Anfangswertdarstellungen ("initial value representations", IVRs), die die sonst bei semiklassischen Näherungen auftretenden Schwierigkeiten wie Kaustiken, Singularitäten und beidseitige Randbedingungen für die zugrundeliegenden klassischen Bahnen umgehen. Dies erlaubt ihre Anwendung auch auf Quantensysteme, deren klassisches Äquivalent chaotische Phasenraumbereiche enthält. Erste Untersuchungen hierzu wurden in unserer Arbeitsgruppe Ende 1997 durchgeführt. Die Frage nach der Klärung grundsätzlicher Eigenschaften des verwendeten Propagators und der verwendeten Methode sowie die Beleuchtung des theoretischen Hintegrunds lieferten die Anregung für diese Arbeit. Zu dieser Arbeit: In dieser Arbeit wird die semiklassische Näherung für den Phasenraumpropagator und hierauf aufbauend der Herman-Kluk-Propagator hergeleitet und ihre Eigenschaften untersucht. Im einzelnen gliedert sich die Arbeit folgendermaßen: In einem ersten, einführenden Kapitel werden kurz die grundlegenden Begriffe aus den drei Gebieten der klassischen Mechanik, der Quantenmechanik und der Semiklassik erläutert. Das zweite Kapitel gibt einen Überblick über die semiklassische Theorie nach Miller und Weissman. Der zentrale Begriff ist hierbei der der Korrespondenzrelation, der einen direkten Zusammenhang zwischen klassischen Größen (erzeugenden Funtionen) und unitären Transformationen in der Quantenmechanik liefert. Ein Spezialfall dieser Korrespondenz ist der Zusammenhang zwischen der Zeitentwicklung eines quantenmechanischen kohärenten Zustands und der Evolution klassischer Bahnen. Im zentralen dritten Abschnitt wird erstmalig eine vollständige Herleitung des Phasenraumpropagators mittels Pfadintegralmethoden gegeben. Aus dieser Herleitung wird klar, daß eines der Probleme der Semiklassik in der Frage liegt, welche Hamiltonfunktion einem gegebenen Hamiltonoperator zuzuordnen ist. Auch der durch die semiklassischen Näherung eingeführte Fehler wird diskutiert. Anschließend wird aus dem "coherent state"-Propagator der Herman-Kluk-Propagator hergeleitet und dessen Eigenschaften besprochen. Das vierte Kapitel beschreibt in Vorgriff auf den letzten Abschnitt die numerische Implementierung des Herman-Kluk-Propagators und verschiedene Methoden zur Gewinnung von Energieeigenwerten eines Quantensystems. Hierzu wird eine phasenraumsensitive Integrationsroutine vorgestellt. Abschließend werden die Ergebnisse der numerischen Anwendung des Propagators auf verschiedene, charakteristische Quantensysteme vorgestellt und sowohl mit der exakten Quantenmechanik, als auch mit anderen semiklassischen Methoden verglichen. Dabei werden sowohl die Stärken, als auch die Schwächen dieser Methode deutlich werden.
Die zweikernigen Eisenkomplexe [{CpR(OC)2Fe}2] (1) reagieren mit weißem Phosphor unter milden Bedingungen selektiv und in sehr guten Ausbeuten zu den Tetraphosphabicyclobutanderivaten 3, deren P4-Butterflygerüst durch zwei 17VE-{CpR(OC)2Fe}-Fragmente in exo/exo-Konfiguration stabilisiert ist. Mit der Röntgenstrukturanalyse des Tri-tert-butylderivates 3a konnte erstmals ein Molekül mit einem solchen Strukturinkrement vollständig charakterisiert werden. Sowohl die thermische als auch die photochemische Decarbonylierung von 3 führt zu den Cyclopentaphosphaferrocenderivaten [CpRFe(h5-P5)] (4) und den pseudo-Tripeldeckerkomplexen [{CpRFe}2(m-h4:4-P4)] (5), die sich auch durch die Langzeit-Cothermolyse der Eisendimere [{CpR(OC)2Fe}2] (1) mit überschüssigem weißen Phosphor herstellen lassen. Die beiden Tri-tert-butylderivate 4a und 5a konnten röntgenstrukturanalytisch untersucht werden. Die thermische Umsetzung äquimolarer Mengen der P4-Butterflymoleküle 3 mit Bisphenyl-acetylen führt zu sehr interessanten neuartigen Produkten: So konnte bei der Reaktion von 3a mit Tolan ein ferrocenanaloges Sandwichmolekül 7a, dessen zentrales Eisenatom jeweils von einem Tri-tert-butylcyclopentadienyl- und von einem 1,2,3-Triphospholylliganden h5-artig koordiniert ist, isoliert und ein solcher heteroaromatischer Ligand erstmals kristallstrukturanalytisch charakterisiert werden. Darüber hinaus konnte bei dieser Reaktion ein weiteres Sandwichmolekül - (Tri-tert-butylcyclopentadienyl)(tetraphospholyl)eisen(II) (8a) - NMR-spektroskopisch und massenspektrometrisch nachgewiesen werden. Zusätzlich konnte bei der Umsetzung des Pentaisopropylderivates 3c mit Tolan ein zwar theoretisch vorhergesagter, aber bislang nicht experimentell bestätigter Undecaphosphor-Komplex isoliert und kristallstrukturanalytisch untersucht werden.
Die Verwendung von existierenden Planungsansätzen zur Lösung von realen Anwendungs- problemen führt meist schnell zur Erkenntnis, dass eine vorliegende Problemstellung im Prinzip zwar lösbar ist, der exponentiell anwachsende Suchraum jedoch nur die Behandlung relativ kleiner Aufgabenstellungen erlaubt. Beobachtet man jedoch menschliche Planungsexperten, so sind diese in der Lage bei komplexen Problemen den Suchraum durch Abstraktion und die Verwendung bekannter Fallbeispiele als Heuristiken, entscheident zu verkleinern und so auch für schwierige Aufgabenstellungen zu einer akzeptablen Lösung zu gelangen. In dieser Arbeit wollen wir am Beispiel der Arbeitsplanung ein System vorstellen, das Abstraktion und fallbasierte Techniken zur Steuerung des Inferenzprozesses eines nichtlinearen, hierarchischen Planungssystems einsetzt und so die Komplexität der zu lösenden Gesamtaufgabe reduziert.
In den letzten Jahren wurden Methoden des fallbasierten Schliessens häufig in Bereichen verwendet, in denen traditionell symbolische Verfahren zum Einsatz kommen, beispielsweise in der Klassifikation. Damit stellt sich zwangsläufig die Frage nach den Unterschieden bzw. der Mächtigkeit dieser Lernverfahren. Jantke [Jantke, 1992] hat bereits Gemeinsamkeiten von Induktiver Inferenz und fallbasierter Klassifikation untersucht. In dieser Arbeit wollen wir einige Zusammenhänge zwischen der Fallbasis, dem Ähnlichkeitsmass und dem zu erlernenden Begriff verdeutlichen. Zu diesem Zweck wird ein einfacher symbolischer Lernalgorithmus (der Versionenraum nach [Mitchell, 1982]) in eine äquivalente, fallbasiert arbeitende Variante transformiert. Die vorgestellten Ergebnisse bestätigen die Äquivalenz von symbolischen und fallbasierten Ansätzen und zeigen die starke Abhängigkeit zwischen dem im System verwendeten Mass und dem zu lernenden Begriff.
Die Mehrzahl aller CBR-Systeme in der Diagnostik verwendet für das Fallretrieval ein numerisches Ähnlichkeitsmass. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem durch die Einführung eines an den Komponenten des zu diagnostizierenden technischen Systems orientierten Ähnlichkeitsbegriffs nicht nur das Retrieval wesentlich verbessert werden kann, sondern sich auch die Möglichkeit zu einer echten Fall- und Lösungstransformation bietet. Dies führt wiederum zu einer erheblichen Verkleinerung der Fallbasis. Die Ver- wendung dieses Ähnlichkeitsbegriffes setzt die Integration von zusätzlichem Wissen voraus, das aus einem qualitativem Modell der Domäne (im Sinne der modellbasierten Diagnostik) gewonnen wird.
Patdex is an expert system which carries out case-based reasoning for the fault diagnosis of complex machines. It is integrated in the Moltke workbench for technical diagnosis, which was developed at the university of Kaiserslautern over the past years, Moltke contains other parts as well, in particular a model-based approach; in Patdex where essentially the heuristic features are located. The use of cases also plays an important role for knowledge acquisition. In this paper we describe Patdex from a principal point of view and embed its main concepts into a theoretical framework.
In nebenläufigen Systemen erleichtert das Konzept der Atomarität vonOperationen, konkurrierende Zugriffe in größere, leichter beherrschbareAbschnitte zu unterteilen. Wenn wir aber Spezifikationen in der forma-len Beschreibungstechnik Estelle betrachten, erweist es sich, daß es un-ter bestimmten Umständen schwierig ist, die Atomarität der sogenanntenTransitionen bei Implementationen exakt einzuhalten, obwohl diese Ato-marität eine konzeptuelle Grundlage der Semantik von Estelle ist. Es wirdaufgezeigt, wie trotzdem sowohl korrekte als auch effiziente nebenläufigeImplementationen erreicht werden können. Schließlich wird darauf hinge-wiesen, daß die das Problem auslösenden Aktionen oft vom Spezifiziererleicht von vorneherein vermieden werden können; und dies gilt auch überden Kontext von Estelle hinaus.
Bestimmung der Ähnlichkeit in der fallbasierten Diagnose mit simulationsfähigen Maschinenmodellen
(1999)
Eine Fallbasis mit bereits gelösten Diagnoseproblemen Wissen über die Struktur der Maschine Wissen über die Funktion der einzelnen Bauteile (konkret und abstrakt) Die hier vorgestellte Komponente setzt dabei auf die im Rahmen des Moltke-Projektes entwickelten Systeme Patdex[Wes91] (fallbasierte Diagnose) und iMake [Sch92] bzw. Make [Reh91] (modellbasierte Generierung von Moltke- Wissensbasen) auf.
Zur schnellen Kommunikation zwischen Rechnern werden laufzeiteffiziente Implementationen von Protokoll-Spezifikationen benötigt. Die herkömmliche Schichten-Aufteilung verursacht hohe Kosten. In dieser Projektarbeit wurde eine andere Spezifikationsform, die Methode des strukturierten Produktautomaten, am Beispiel der OSI-Schichten 5 und 6 untersucht. Der Aufwand zur Erstellung und Wartung der Spezifikation und die Laufzeiteffizienz der daraus entstandenen Inplementation wurden mit mehreren anderen Spezifikationsformen verglichen und bewertet. Die Methode des strukturierten Produktautomaten erwies sich dabei als ein geeigneter Spezifikationsstil.
Deduktionssysteme
(1999)
Planverfahren
(1999)
Entwurf einer formalen Semantik für Estelle unter Verwendung von TLA mit Prädikatentransformatoren
(1999)
Die formale Beschreibungstechnik Estelle wird in einem internationalen Standarddefiniert. Ein Hauptnutzen einer formalen Semantik für eine Beschreibungs-sprache besteht darin, daß sie die formale Verifikation von Systembeschreibungenermöglicht. Leider ist die im Standard enthaltene Semantikdefinition für Estellenicht formal (und verständlich) genug, um formale Verifikation zu ermöglichen.Daher wird in dieser Arbeit ein Ansatz entwickelt, um die Semantik von Estellevollständig formal und in einer für die Verifikation geeigneten Weise zu definieren. Für diesen Ansatz werden ausführliche Untersuchungen angestellt, insbesondere über die Methoden der Verifikation, die unterstützt werden müssen, und über eine geeignete Darstellung der sogenannten " Transitionen" von Estelle. Um die hieraus resultierenden Forderungen zu erfüllen, wird ein neuer Formalismus entworfen, in dem Lamports temporale Logik der Aktionen und Dijkstras Prädikaten-transformatoren vereinigt werden. Anschließend wird die Definition der gesamten Semantikvon Estelle skizziert und die Definition des " Kerns von Estelle", des sogenannten Ausführungsmodells, in diesem Formalismus vollständig ausgeführt. Es zeigtsich, daß der neue Ansatz die formale Verifikation von Estelle Spezifikationen beimechanischer Unterstützung nun möglich erscheinen läßt. Eine Ausarbeitung derDetails des zum Formalismus gehörigen Schlußsystems und der skizzierten Gesamt-Semantik verbleibt allerdings zukünftigen Arbeiten.
Die Realisierung zunehmend komplexer Softwareprojekte erfordert das direkte und indirekteZusammenwirken einer immer größer werdenden Zahl von Personen. Die dafür benötigte Infrastrukturist mit der zunehmenden globalen Rechner-Vernetzung bereits vorhanden, doch wird ihr Potential vonherkömmlichen Werkzeugen in der Regel bei weitem nicht ausgeschöpft. Das in diesem Artikelvorgestellte Rahmenmodell für Softwareentwicklung wurde explizit im Hinblick auf die globaleKooperation von Entwicklern entworfen. WebMake, eine auf diesem Modell basierende Software-entwicklungsumgebung, adressiert das Ziel seiner Einsetzbarkeit im globalen Maßstab durch dieVerwendung des World-Wide Web als Datenspeicherungs- und Kommunikationsinfrastruktur.
Der ständig zunehmende Einsatz verteilter DV-Systeme führt zu einem stark steigendenBedarf an verteilten Anwendungen. Deren Entwicklung in den verschiedensten Anwen-dungsfeldern wie Fabrik- und Büroautomatisierung ist für die Anwender bislang kaum zuhandhaben. Neue Konzepte des Software Engineering sind daher notwendig, und zwar inden drei Bereichen 'Sprachen', 'Werkzeuge' und 'Umgebungen'. Objekt-orientierte Me-thoden und graphische Unterstützung haben sich bei unseren Arbeiten als besonders taug-lich herausgestellt, um in allen drei Bereichen deutliche Fortschritte zu erzielen. Entspre-chend wurde ein universeller objektorientierter graphischer Editor, ODE, als einesunserer zentralen Basis-Werkzeuge ('tool building tool') entwickelt. ODE basiert aufdem objekt-orientierten Paradigma sowie einer leicht handhabbaren funktionalen Sprachefür Erweiterungen; außerdem erlaubt ODE die einfache Integration mit anderen Werk-zeugen und imperativ programmierten Funktionen. ODE entstand als Teil von DOCASE,einer Software-Produktionsumgebung für verteilte Anwendungen. Grundzüge von DO-CASE werden vorgestellt, Anforderungen an ODE abgeleitet. Dann wird ODE detaillier-ter beschrieben. Es folgt eine exemplarische Beschreibung einer Erweiterung von ODE,nämlich der für die DOCASE-Entwurfssprache.
In dieser Arbeit wurde die Induktion von Apoptose durch vier a,b-ungesättigte Aldehyde und ein zyklisches Keton untersucht. Die Apoptoseinduktion wurde mittels 2-Parameter-Durchflußzytometrie (DNA-/Proteinmessung), Fluoreszenzmikroskopie und DNA-Isolation bestimmt. Es wurden dazu Konzentrationskinetiken (0 bis 150microM) und Zeitkinetiken (1h-Inkubation mit anschließender Postinkubation bis 24h bzw.72h bei Molt4; 0h bis 24h bei 2-Cyclohexen-1-on) an den humanen Zellinien U937, HL-60, K562 und Molt4 aufgestellt. Bei den Zellinien U937 und HL-60 konnte die induzierte Apoptose sowohl quantitativ (durchflußzytometrisch und morphologisch) als auch qualitativ (DNA-Leiter) eindeutig bestimmt werden. Für alle Verbindungen wurde eine dosis- und zeitabhängige Induktion von Apoptose detektiert. Darüberhinaus lieferte die morphologische Analyse Informationen über die Verteilung der einzelnen Apoptosestadien. Die Zellinien K562 und Molt4 zeigten keine so deutliche Übereinstimmung zwischen den 3 Detektionsmethoden. Für die Zellinie K562 ergab sich in den eingesetzten Konzentrationsbereichen nur bei 2-Cyclohexen-1-on durchflußzytometrisch eine dosis- und zeitabhängige Apoptoseinduktion, die sich zwar mit der Analyse der DNA-Leiter, nicht aber mit der morphologischen Auswertung bestätigen ließ. Für trans-2-Hexenal und trans-2-Octenal konnte nur zeitabhängig ein Anstieg mittels FCM detektiert werden, der nur für trans-2-Octenal signifikant war. Bei beiden ergab sich keine DNA-Leiter. Die morphologische Analyse für trans-2-Hexenal ließ einen ebenfalls nicht signifikanten Anstieg erkennen. Für trans-2-Octenal wurde keine morphologische Analyse durchgeführt. Die Zellinie Molt4 zeigte nur zeitabhängig für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al und 2-trans,6-cis-Nonadienal eine Apoptoseinduktion, die ausschließlich für 2-trans,4-trans-Hexadien-1-al signifikant war. Die Analyse der DNA-Leiter war auch hier in allen Fällen negativ. Die morphologische Analyse konnte für 2-Cyclohexen-1-on zusätzliche, im FCM nicht detektierte Apoptose zeigen. Der Vergleich der 1-Parameter-Messung des DNA-Gehaltes mit der 2-Parameter-Messung des DNA- und Proteingehaltes der Zellinie U937 bei trans-2-Hexenal- und 2-Cyclohexen-1-on-Behandlung ergab zusätzliche, bei der 1-Parameter-Messung ?versteckte" apoptotische Zellen. Diese waren eindeutig bestimmten Zellzyklusphasen zuzuordnen. Ein weiterer Vergleich der DNA-/Proteinmessung mit der als spezifischste Methode geltenden Markierung der Strangbrüche mit fluoreszenzmarkierten Nukleotiden wurde durchgeführt. Dazu wurden Beispiele aus der Literatur eingesetzt. Dieser Vergleich zeigte, daß bei einem geeigneten Zellsystem die zellzyklusspezifische Apoptosebestimmung vergleichbar war. Von Vorteil für die DNA-/Proteinmessung war dabei die einfache und kostengünstige Durchführung.Der zur Überprüfung der Diskrepanzen zwischen den Detektionsmethoden bei den Zellinien K562 und Molt4 eingesetzte Annexin V-Assay bot in beiden Fällen keine weitere Information. Die eingesetzten Methoden konnten also bei den Zellinien U937 und HL-60 in guter Übereinstimmung Apoptose detektieren, die Zellinien K562 und Molt4 zeigten sich aufgrund fehlender Fragmentierung der DNA in 180bp-Fragmente und der relativen Apoptoseresistenz von K562 für dieses Screening als ungeeignet. Für diese Zellinien müßten weitere Methoden, die nicht auf der Fragmentierung der DNA beruhen, eingesetzt werden.Aufgrund der Tatsache, daß die Apoptoseinduktion bei den Zellinien K562 und Molt4 erst nach längerer Inkubationsdauer auftrat, wurde diese als verzögerte Apoptose interpretiert. Im Vergleich dazu handelte es sich bei den Zellinien U937 und HL-60 um frühe Apoptose. Setzt man die Apoptoseinduktion mit der Phasenspezifität der Verbindungen in Beziehung, so kann man für die Zellinien U937 und HL-60 nach Inkubation mit den untersuchten Aldehyden von Homo-Zyklus-Apoptose, mit 2-Cyclohexen-1-on von Homo-Phase-Apoptose sprechen, obwohl letztere durchflußzytometrisch erst nach 12h in Erscheinung trat. Für die Zellinien K562 und Molt4 handelte es sich bei allen Verbindungen um post-mitotische-Apoptose. Die Aldehyde zeigten bezüglich ihrer Apoptoseinduktion bei U937 und HL-60 keine Phasenspezifität, es waren alle Zellzyklusphasen betroffen. Bei K562 zeigten sie G1-Phasenspezifität, bei Molt4 G1- und teilweise G2-Phasenspezifität. 2-Cyclohexen-1-on ergab S-Phasenspezifität bei U937 und HL-60 sowie G1-Phasenspezifität bei K562. Außerden trat im Zeitverlauf für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al, trans-2-Octenal und 2-Cyclohexen-1-on ein G2/M-Arrest auf, 2-trans,6-cis-Nonadienal erzeugte einen G1-Arrest.Der Einfluß der Kettenlänge und Anzahl der Doppelbindungen auf das apoptoseinduzierende Potential wurde an den Zellinien U937 und HL-60 für trans-2-Hexenal, 2-trans,4-trans-Hexadien-1-al, trans-2-Octenal und 2-trans,6-cis-Nonadienal untersucht. Dabei ergab sich ein substanzabhängiger Anstieg der Apoptoseinduktion mit steigender Kettenlänge, der aber nicht in allen Fällen signifikant war. Der Einfluß der Doppelbindungen konnte nur im direkten Vergleich von trans-2-Hexenal und 2-trans,4-trans-Hexadien-1-al betrachtet werden. Hier trat kein signifikanter Unterschied zwischen den beiden Verbindungen auf, was wahrscheinlich auf die Konjugation der Doppelbindungen und die damit verbundene erhöhte Polarität und gleichzeitig erniedrigte Lipophilie zurückzuführen war.
In diesem Aufsatz geht es um eine Klassifikation von Programmen nach zwei orthogonalen Kriterien.Programm und Software werden dabei nicht als Synonyme angesehen; Programm sein wird hiergleichgesetzt mit ausführbar sein, d.h. etwas ist dann und nur dann ein Programm, wenn man die Fragebeantworten kann, was es denn heißen solle, dieses Etwas werde ausgeführt. Es gibt durchaus Softwa-regebilde, bezüglich derer diese Frage keinen Sinn hat und die demzufolge auch keine Programme sind - beispielsweise eine Funktions - oder eine Klassenbibliothek.Klassifikation ist von Nutzen, wenn sie Vielfalt überschaubarer macht - die Vielfalt der Schüler einergroßen Schule wird überschaubarer, wenn die Schüler "klassifiziert" sind, d.h. wenn sie in ihren Klas-senzimmern sitzen. Die im folgenden vorgestellte Klassifikation soll die Vielfalt von Programmenüberschaubarer machen.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
Formalismen und Anschauung
(1999)
In der Philosophie ist es selbstverständlich, daß Autoren, die Erkenntnisse früherer Philosophen weitergeben oder kommentieren, die Originalliteratur kennen und sich in ihrer Argumentation explizit auf bestimmte Stellen in den Originaldarstellungen beziehen. In der Technik dagegen ist es allgemein akzeptierte Praxis, daß Autoren von Lehrbüchern, in denen Erkenntnisse früherer Forscher dargestellt oder kommentiert werden, nicht die Originaldarstellungen zugrunde legen, sondern sich mit den Darstellungen in der Sekundärliteratur begnügen. Man denke an die Erkenntnisse von Boole oder Maxwell, die in sehr vielen Lehrbüchern der Digitaltechnik bzw. der theoretischen Elektrotechnik vermittelt werden, ohne daß die Autoren dieser Lehrbücher auf die Originalschriften von Boole oder Maxwell Bezug nehmen. Dagegen wird man wohl kaum ein Buch über Erkenntnisse von Aristoteles oder Kant finden, dessen Autor sich nicht explizit auf bestimmte Stellen in den Schriften dieser Philosophen bezieht.
Die systemtheoretische Begründung für die Einführung des Zustandsbegriffs findet man im Mosaik-stein "Der Zustandsbegriff in der Systemtheorie". Während sich die dortige Betrachtung sowohl mitkontinuierlichen als auch mit diskreten Systemen befaßt, wird hier die Betrachtung auf diskrete Sy-steme beschränkt.
Umgangssprachlich wurde das Wort Daten schon gebraucht, lange bevor der Computer erfundenwurdeund die AbkürzungEDV für "Elektronische Datenverarbeitung" in die Alltagssprache gelangte.So sagte beispielsweise der Steuerberater zu seinem Klienten: "Bevor ich Ihre Steuererklärung fertigmachen kann, brauche ich von Ihnen noch ein paar Daten." Oder der Straßenbaureferent einer Stadtschrieb an den Oberbürgermeister: "Für die Entscheidung, welche der beiden in Frage stehenden Stra-ßen vorrangig ausgebaut werden soll, müssen wir noch eine Datenerhebung durchführen." Bei diesenDaten ging es zwar oft um Zahlen - Geldbeträge, Anzahl der Kinder, Anzahl der Beschäftigungsmo-nate, gezählte Autos - , aber eine Gleichsetzung von Daten mit Zahlen wäre falsch. Zum einen wärenZahlen ohne mitgelieferte Wörter wie Monatseinkommen, Kinderzahl u.ä. für den Steuerberater nutz-los, zum anderen will das Finanzamt u.a. auch den Arbeitgeber des Steuerpflichtigen wissen, und dazumuß eine Adresse angegeben werden, aber keine Zahl.
Für die Systemtheorie ist der Begriff Zustand ein sehr zentraler Begriff. Das Wort "Zustand" wird um-gangssprachlich recht häufig verwendet, aber wenn man die Leute fragen würde, was sie denn meinen,wenn sie das Wort Zustand benützen, dann würde man sicher nicht die präzise Definition bekommen,die man für die Systemtheorie braucht.
Die Beweisentwicklungsumgebung Omega-Mkrp soll Mathematiker bei einer ihrer Haupttätigkeiten, nämlich dem Beweisen mathematischer Theoreme unterstützen. Diese Unterstützung muß so komfortabel sein, daß die Beweise mit vertretbarem Aufwand formal durchgeführt werden können und daß die Korrektheit der so erzeugten Beweise durch das System sichergestellt wird. Ein solches System wird sich nur dann wirklich durchsetzen, wenn die rechnergestützte Suche nach formalen Beweisen weniger aufwendig und leichter ist, als ohne das System. Um dies zu erreichen, ergeben sich verschiedene Anforderungen an eine solche Entwicklungsumgebung, die wir im einzelnen beschreiben. Diese betreffen insbesondere die Ausdruckskraft der verwendeten Objektsprache, die Möglichkeit, abstrakt über Beweispläne zu reden, die am Menschen orientierte Präsentation der gefundenen Beweise, aber auch die effiziente Unterstützung beim Füllen von Beweislücken. Das im folgenden vorgestellte Omega-Mkrp-System ist eine Synthese der Ansätze des vollautomatischen, des interaktiven und des planbasierten Beweisens und versucht erstmalig die Ergebnisse dieser drei Forschungsrichtungen in einem System zu vereinigen. Dieser Artikel soll eine Übersicht über unsere Arbeit an diesem System geben.
In diesem Aufsatz wird die Arbeitsweise eines Werkzeuges dargestellt, mit dessen Hilfedie Analyse von Feature-Interaktionen in Intelligenten (Telefon-)Netzwerken unterstütztwird. Dieses Werkzeug basiert auf einem von uns entwickelten formalen Lösungsansatz, deraus einem geeigneten Spezifikationsstil, aus einem formalen Kriterium zur Erkennung vonFeature-Interaktionen und aus einer Methode zur Auflösung der erkannten Feature- Interaktionen besteht. Das Werkzeug führt eine statische Analyse von Estelle-Spezifikationendurch und erkennt dabei potientielle Feature-Interaktionen sowie nichtausführbare Transitionen. Darüberhinaus kann es die erkannten nichtausführbaren Transitionen zur Optimierung aus der Spezifikation entfernen. Wir erläutern zunächst kurz den zugrundeliegendenAnsatz und beschreiben danach die Anwendung auf Estelle anhand der Funktionsweisedes Werkzeuges.