Kaiserslautern - Fachbereich Informatik
Refine
Year of publication
Document Type
- Preprint (56)
- Master's Thesis (38)
- Report (28)
- Article (27)
- Doctoral Thesis (17)
- Study Thesis (8)
- Part of a Book (1)
Language
- German (175) (remove)
Has Fulltext
- yes (175)
Keywords
- AG-RESY (17)
- CoMo-Kit (10)
- Case-Based Reasoning (9)
- Fallbasiertes Schliessen (9)
- META-AKAD (8)
- PARO (6)
- Robotik (6)
- Case-Based Planning (5)
- Java 2 Enterprise Edition (4)
- Visualisierung (4)
- Wissensverarbeitung (4)
- Expertensysteme (3)
- Implementierung (3)
- Maschinelles Lernen (3)
- Mensch-Roboter-Kooperation (3)
- RONAF (3)
- SIMERO (3)
- AKLEON (2)
- Automation (2)
- Bahnplanung (2)
- CAP (2)
- CODET (2)
- Decision Trees (2)
- Diagnose technischer Systeme (2)
- Entscheidungsbäume (2)
- Fallbasierte Planning (2)
- Fallbasierte Planung (2)
- Fallbasiertes Schließen (2)
- HANDFLEX (2)
- KLUEDO (2)
- Kommunikation (2)
- Kooperation (2)
- Mensch-Roboter-Koexistenz (2)
- Navigation (2)
- Prozesssteuerung (2)
- Server (2)
- Software Engineering (2)
- Suchraum (2)
- computer aided planning (2)
- regelbasiertes Problemlösen (2)
- safe human robot cooperation (2)
- Ablagestruktur (1)
- Access System (1)
- Accounting (1)
- Akquisition (1)
- Anfrageverarbeitung (1)
- Aspektorientierte Programmierung (1)
- Assembly (1)
- Ausdrucksfähig (1)
- Ausdrucksfähigkeit (1)
- Automatische Indexierung (1)
- Automotive (1)
- Autonomer Agent (1)
- Bebauungsplanung (1)
- Bewegungsplanung (1)
- Bildverarbeitung (1)
- Bitlisten (1)
- CAN-Bus (1)
- CAR <Roboter> (1)
- CAS (1)
- COMOKIT (1)
- Case Study Erfahrungsdatenbank (1)
- Case-Based Diagnosis (1)
- Case-Based Learning (1)
- Castor (1)
- Clustering (1)
- Cochlea Implant (1)
- Cochlea Implantat (1)
- Computer assistierte Chirurgie (1)
- Computer assistierte Chirurgie (CAS) (1)
- Containertypen (1)
- Containertypes (1)
- Content Management (1)
- Controller Synthesis (1)
- DES (1)
- Datenbanken (1)
- Datenreduktion (1)
- Design Rationales (1)
- Didaktik (1)
- Dienstgüte (1)
- Dienstschnittstellen (1)
- Domänenspezifische Sprachen (1)
- Doppler-Radar (1)
- Dreidimensionale Bildverarbeitung (1)
- Dublin Core (1)
- Dynamischer Test (1)
- ESTELLE (1)
- Effizienter Algorithmus (1)
- Effizienz (1)
- Effizienzsteigerung (1)
- Eingebettetes System (1)
- Energie (1)
- Erstellung von Expertensystemen (1)
- Experience Base (1)
- Experiment (1)
- Expressiveness (1)
- FERAL (1)
- Fachdidaktik (1)
- Fahrassistenzsysteme (1)
- Fallbasierte Diagnose (1)
- Fallbasiertes Planen (1)
- Fallstu (1)
- Farbmodell (1)
- Fast Mode-Signaling (1)
- Force Feedback (1)
- Force-Torque (1)
- Formale Beschreibungstechnik (1)
- Fräsen (1)
- Gebäude (1)
- Gebäudeautomation (1)
- Hals-Nasen-Ohren-Chirurgie (1)
- Hals-Nasen-Ohren-Heilkunde (1)
- Harvest (1)
- Huffman (1)
- Huffman-Code (1)
- Human-Robot-Coexistence (1)
- Human-Robot-Cooperation (1)
- IDEA (1)
- Imote2 (1)
- Implan (1)
- Implementation (1)
- Indexierung <Inhaltserschließung> (1)
- Induktive Logische Programmierung (1)
- Induktivem Schliessen (1)
- Induktiven Logischen Programmierung (1)
- JSR 170 JCR (1)
- Java (1)
- Komponentenmodell (1)
- Komprimierung (1)
- Kontextbezogenes System (1)
- Kraftrückkopplung (1)
- Kryptographie (1)
- Kryptologie (1)
- LOADBAL (1)
- Laufkomprimierung (1)
- Lernalgorithmen (1)
- Linux (1)
- Logische Programmierung (1)
- MDA <Vorgehensmodell> (1)
- MVP-L (1)
- Manipulation skills (1)
- Mapping (1)
- Mehragentensystem (1)
- Mensch-Maschine-Kommunikation (1)
- Metadaten (1)
- Mikrocontroller AVR (1)
- MoCAS/2 (1)
- Mobile Computing (1)
- Mode-Based Scheduling with Fast Mode-Signaling (1)
- Modellgetriebene Entwicklung (1)
- Modellierung (1)
- Modelling (1)
- Modusbasierte Signalisierung (1)
- Mund-Kiefer-Gesichts-Chirurgie (1)
- Netz-Architekturen (1)
- Netzwerk (1)
- Netzwerkmanagement (1)
- NoSQL (1)
- Object-orientation (1)
- Objektorientierung (1)
- Open Estelle (1)
- Operationsroboter (1)
- Optimierung (1)
- P2P (1)
- PABS-Methode (1)
- PATDEX (1)
- PATDEX 2 (1)
- PVM (1)
- Parallel Virtual Machines (1)
- Parser (1)
- Problemlösung (1)
- Prozessmodellen (1)
- Quality (1)
- Qualität (1)
- RDF (1)
- RGB (1)
- RLE (1)
- RODEO (1)
- RSA (1)
- Radar (1)
- Raumordnung (1)
- Rechnernetze (1)
- Regelung (1)
- Rekonstruktion (1)
- Relationales Datenbanksystem (1)
- Repository <Informatik> (1)
- Resource Description Framework (1)
- Roboter (1)
- Roboterarm (1)
- Robotics (1)
- SAX2 (1)
- SCM (1)
- SDL (1)
- SDL-oriented Object Modeling Technique (1)
- SKALP (1)
- SOMT (1)
- SQL (1)
- SWEEPING (1)
- Scheduling (1)
- Schädelbasis (1)
- Service Access Points (1)
- Sicherheit (1)
- Simulation (1)
- Simulationen (1)
- Software (1)
- Software Configuration Management (1)
- Software-Entwicklung (1)
- Softwareentwicklung (1)
- Softwarespezifikation (1)
- Sprache (1)
- Sprachen (1)
- Structure (1)
- Suchve (1)
- Support-Vektor-Maschine (1)
- Symbolic Methods (1)
- Systemarchitektur (1)
- TCP/IP (1)
- Temporal Logic (1)
- Time-motion-Ultraschallkardiographie (1)
- UML (1)
- UML 2 (1)
- Ultraschallkardiographie (1)
- Umweltinformatik (1)
- Unterricht (1)
- VIACOBI (1)
- Versionierungssysteme (1)
- Verteiltes System (1)
- Virtual Prototyping (1)
- Voronoi-Diagramm (1)
- Workflowmanagement (1)
- Workstation-Cluster (1)
- XEC (1)
- XML (1)
- Zeitplanung (1)
- Zugriffstruktur (1)
- Zugriffsystem (1)
- aspect-oriented programming (1)
- automotive (1)
- behaviourbased (1)
- deformable objects (1)
- dependability (1)
- distributed computing (1)
- domain-specific language (1)
- epidemic algorithms (1)
- epidemische Algorithmen (1)
- fallbasiertes Schliessen (1)
- generative Programmierung (1)
- generative programming (1)
- human robot cooperation (1)
- intentional programming (1)
- inverses Pendel (1)
- knowledge-based planning (1)
- konzeptuelle Modelierung (1)
- learning algorithms (1)
- peer-to-peer (1)
- rekursiv aufzählbare Sprachfamilien (1)
- robotergestützt (1)
- safe human robot coexistence (1)
- verhaltensbasiert (1)
- verlustfrei (1)
- verlässlichkeit (1)
- verteilte Berechnung (1)
- wissensbasierte Systeme (1)
- wissensbasierter Systeme der Arbeitsplanerstellung (1)
Faculty / Organisational entity
Die Sichten von Projektmitgliedern auf Prozesse von Software-Entwicklungen sollen in der Prozeßmodellierungssprache MVP-L formuliert und anschließend in ein Umfassendes Prozeßmodell integriert werden. Dabei ist die Identifikation ähnlicher Informationen in verschiedenen Sichten von Bedeutung. In dieser Arbeit berichten
wir über die Adaption und Synthese verschiedener Ansätze zum Thema Ähnlichkeit aus unterschiedlichen Domänen (Schema-Integration beim Datenbank-Entwurf, Analoges und Fallbasiertes Schließen, Wiederverwendung und System-Spezifikation). Das Ergebnis, die Ähnlichkeitsfunktion vsim, wird anhand eines Referenzbeispiels illustriert. Dabei gehen wir insbesondere auf die Eigenschaft der Funktion vsim ein und berichten über Erfahrungen im Umgang mit dieser Funktion zur Berechnung der Ähnlichkeit zwischen Prozeßmodellen.
In der aktuellen technologischen Entwicklung spielen verteilte eingebettete Echtzeitsysteme eine immer zentralere Rolle und werden zunehmend zum Träger von Innovationen. Durch den hiermit verbundenen steigenden Funktionsumfang der verteilten Echtzeitsysteme und deren zunehmenden Einsatz in sicherheitsrelevanten Anwendungsgebieten stellt die Entwicklung solcher Systeme eine immer größere Herausforderung dar. Hierbei handelt es sich einerseits um Herausforderungen bezogen auf die Kommunikation hinsichtlich Echtzeitfähigkeit und effizienter Bandbreitennutzung, andererseits werden geeignete Methoden benötigt, um den Entwicklungsprozess solcher komplexen Systeme durch Tests und Evaluationen zu unterstützen und zu begleiten. Die hier vorgestellte Arbeit adressiert diese beiden Aspekte und ist entsprechend in zwei Teile untergliedert.
Der erste Teil der Arbeit beschäftigt sich mit der Entwicklung neuer Kommunikationslösungen, um den gestiegenen Kommunikationsanforderungen begegnen zu können. So erfordert die Nutzung verteilter Echtzeitsysteme im Kontext sicherheitsrelevanter Aufgaben den Einsatz zeitgetriggerter Kommunikationssysteme, die in der Lage sind, deterministische Garantien bezüglich der Echtzeitfähigkeit zu gewähren. Diese klassischen auf exklusiven Reservierungen basierenden Ansätze sind jedoch gerade bei (seltenen) sporadischen Nachrichten sehr ineffizient in Bezug auf die Nutzung der Bandbreite.
Das in dieser Arbeit verwendete Mode-Based Scheduling with Fast Mode-Signaling (modusbasierte Kommunikation) ist ein Verfahren zur Verbesserung der Bandbreitennutzung zeitgetriggerter Kommunikation, bei gleichzeitiger Gewährleistung der Echtzeitfähigkeit. Um dies zu ermöglichen, erlaubt Mode-Based Scheduling einen kontrollierten, slotbasierten Wettbewerb, welcher durch eine schnelle Modussignalisierung (Fast Mode-Signaling) aufgelöst wird. Im Zuge dieser Arbeit werden verschiedene robuste, zuverlässige und vor allem deterministische Realisierungen von Mode-Based Scheduling with Fast Mode-Signaling auf Basis existierender drahtgebundener Kommunikationsprotokolle (TTCAN und FlexRay) vorgestellt sowie Konzepte präsentiert, welche eine einfache Integration in weitere Kommunikationstechnologien (wie drahtlose Ad-Hoc-Netze) ermöglichen.
Der zweite Teil der Arbeit konzentriert sich nicht nur auf Kommunikationsaspekte, sondern stellt einen Ansatz vor, den Entwicklungsprozess verteilter eingebetteter Echtzeitsysteme durch kontinuierliche Tests und Evaluationen in allen Entwicklungsphasen zu unterstützen und zu begleiten. Das im Kontext des Innovationszentrums für Applied Systems Modeling mitentwickelte und erweiterte FERAL (ein Framework für die Kopplung spezialisierter Simulatoren) bietet eine ideale Ausgangsbasis für das Virtual Prototyping komplexer verteilter eingebetteter Echtzeitsysteme und ermöglicht Tests und Evaluationen der Systeme in einer realistisch simulierten Umgebung. Die entwickelten Simulatoren für aktuelle Kommunikationstechnologien ermöglichen hierbei realistische Simulationen der Interaktionen innerhalb des verteilten Systems. Durch die Unterstützung von Simulationssystemen mit Komponenten auf unterschiedlichen Abstraktionsstufen kann FERAL in allen Entwicklungsphasen eingesetzt werden. Anhand einer Fallstudie wird gezeigt, wie FERAL verwendet werden kann, um ein Simulationssystem zusammen mit den zu realisierenden Komponenten schrittweise zu verfeinern. Auf diese Weise steht während jeder Entwicklungsphase ein ausführbares Simulationssystem für Tests zur Verfügung. Die entwickelten Konzepte und Simulatoren für FERAL ermöglichen es, Designalternativen zu evaluieren und die Wahl einer Kommunikationstechnologie durch die Ergebnisse von Simulationen zu stützen.
Das Thema dieser Arbeit ist die Erweiterung von CoMo-Kit um eine Zeitplanungskomponente. Man möchte Informationen über die Dauer der einzelnen Teilaufgaben gewinnen und diese zu Dauern der übergeordneten abstrakten Aufgaben abschätzen. Auf diese Weise kann sich ein Manager über die voraussichtliche Gesamtdauer des Projektes und dessen Fortgang informieren. Dazu werden frühestmögliche und spätestmögliche Anfangs- und Endzeitpunkte der Vorgänge berechnet. Die Differenz zwischen frühesten und spätesten Zeitpunkten gibt dem Projektmanager eine Aussage über den Dispositionsspielraum der einzelnen Vorgänge. Ist kein Spielraum vorhanden, kann man erkennen, daß dieser Vorgang die Projektdauer determiniert und eventuell für Verzögerungen verantwortlich sein kann. Im Rahmen dieser Diplomarbeit ist das Verfahren der Allgemeine Hierarchischen Netzplantechnik entwickelt und als Zeitplanungskomponente in das System CoMo-Kit integriert worden.
W-Lisp Sprachbeschreibung
(1993)
W-Lisp [Wippennann 91] ist eine Sprache, die im Bereich der Implementierung höherer
Programmiersprachen verwendet wird. Ihre Anwendung ist nicht auf diesen Bereich beschränkt. Gute Lesbarkeit der W-Lisp-Notation wird durch zahlreiche Anleihen aus dem Bereich der bekannten imperativen Sprachen erzielt. W-Lisp-Programme können im Rahmen eines Common Lisp-Systems ausgeführt werden. In der WLisp Notation können alle Lisp-Funktionen (inkl. MCS) verwendet werden, so daß die Mächtigkeit von Common-Lisp [Steele 90] in dieser Hinsicht auch in W-Lisp verfügbar ist.
In diesem Papier beschreiben wir eine Methode zur Spezifikation und Operationalisierung von konzeptuellen Modellen kooperativer wissensbasierter Arbeitsabläufe. Diese erweitert bekannte Ansätze um den Begriff des Agenten und um alternative Aufgabenzerlegungen. Das Papier beschreibt schwerpunktmäßig Techniken, die unserem verteilten Interpreter zugrunde liegen. Dabei gehen wir insbesondere auf Methoden ein, die Abhängigkeiten zwischen Aufgaben behandeln und ein zielgerichtetes Backtracking effizient unterstützen.
In Laufe der letzten Jahrzehnte ist der Prozeß der Softwareentwicklung methodisiert und zum Teil auch formalisiert worden. I.a. unterteilt man den Vorgang in grobe Stufen, Entwicklungsphasen genannt. Jede dieser Phasen betrachtet den entstehenden Entwurf des Projekts aus verschiedenen Sichtweisen. Aus dieser Sichtweise resultieren etliche Modelle und Darstellungsformen und mit ihnen auch verschiedene rechnergestützte Entwicklungswerkzeuge. In frühen Phasen sind beispielsweise Datenflußdiagramme eine nützliche Darstellungsform, in späteren konkrete Algorithmenbeschreibungen. Entwurfsänderungen im Laufe der Entwicklungszeit müssen in allen betroffenen Ebenen neu formuliert werden, eine automatisierte phasenübergreifende Behandlung ist
daher i.a. nicht oder nur teilweise möglich. Um effizienter und weniger fehleranfällig arbeiten zu können, wurden aus diesem Grund in letzter Zeit Ansätze gemacht, den gesamten Softwareentwicklungsprozeß von der ·Anforderungsanalyse bis hin zur Wartungsphase einem einheitlichen Konzept und einer einheitlichen Darstellungsform zu unterwerfen, die sich darüberhinaus zur Realisation auf Rechnersystemen eignen. Der vorliegende Bericht entstand im Rahmen eines solchen Projekts. Es wurden eine allumfassende Systementwurfssprache und die dazugehörigen Konzepte entwickelt, die sämtliche Entwurfsphasen und die wichtigsten -prinzipien zu unterstützen vermögen. Es liegen bereits zwei Arbeiten zu diesem Projekt vor. Sie stellen im wesentlichen neben der eigentlichen Definition der Systementwurfssprache zwei Entwicklungswerkzeuge vor, die auf einer einheitlichen Datenbasis operieren [GK-91, Kel-90]. Ein Bereich innerhalb der Forschungen ist die Wiederverwendung von Softwareentwürfen. Schon existierende Lösungen sollen bei der Entwicklung eines neuen Entwurfs durch Vergleich und Bewertung des Grades der Ähnlichkeit ausgewählt und dem Entwickler nutzbar gemacht werden. Dieser Bericht beschäftigt sich mit einem Kernpunkt der Wiederverwendung, dem Vergleich zweier Softwareentwürfe. Es werden zunächst grundsätzliche Konzepte ausgearbeitet, die den Ähnlichkeitsaspekt unter verschiedenen Gesichtspunkten charakterisieren. Daraufhin werden Algorithmen konstruiert, die verschiedenartige Vergleichsfunktionen realisieren und zu einer Gesamtfunktion kombinieren. Um zu einem späteren Zeitpunkt die Leistungsfähigkeit dieser
Funktionen in der Praxis untersuchen zu können, liegt darüberhinaus ein lauffähiges
Programm vor.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
In diesem Papier stellen wir einen Interpreter vor, der die Validierung von konzeptuellen Modellen bereits in fruehen Entwicklungsphasen unterstuetzt. Wir vergleichen Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung und erlaeutern, wie ein integrierter Ansatz die Erstellung von Expertensystemen vereinfacht. Das von uns entwickelte Knowledge Engineering Werkzeug ermoeglicht einen "sanften" Uebergang von initialen Protokollen ueber eine semi-formale Spezifikation in Form eines getypten Hypertextes hin zu einem operationalen Expertensystem. Ein Interpreter nutzt die in diesem Prozess erzeugte Zwischenrepraesentation direkt zur interaktiven Loesung von Problemen, wobei einzelne Aufgaben ueber ein lokales Rechnernetz auf die Bearbeiter verteilt werden. Das heisst, die Spezifikation des Expertensystems wird direkt fuer die Loesung realer Probleme eingesetzt. Existieren zu einzelnen Teilaufgaben Operationalisierungen (d.h. Programme), dann werden diese vom Computer bearbeitet.
Im Rahmen dieser Diplomarbeit werden die Konzepte zur Unterstützung von datenbankorientierten Software-Produktlinien durch domänenspezifische Sprachen am Beispiel von Versionierungssystemen untersucht. Ziel dieser Arbeit ist es, die zeitlichen Kosten, die durch die Nutzung einer domänenspezifischen Sprache entstehen, zu bestimmen. Dabei werden unterschiedliche Datenbankschemata verwendet, um zu untersuchen, welcher Zusammenhang zwischen der Komplexität des Datenbankschemas und der Übersetzung einer domänenspezifischen Anweisung in eine Reihe von herkömmlichen SQL-Anweisungen besteht. Um die zeitlichen Kosten für die Reduktion zu bestimmen, werden Leistungsuntersuchungen durchgeführt. Grundlage für diese Leistungsuntersuchungen sind domänenspezifische Anweisungen, die von einem speziell für diesen Zweck entwickelten Generator erzeugt wurden. Diese generierten domänenspezifischen Anweisungen werden mit den unterschiedlichen Datenbanktreibern auf dem passenden Datenbankschema ausgeführt.
Neuronale Netze sind ein derzeit (wieder) aktuelles Thema. Trotz der oft eher schlagwortartigen
Verwendung dieses Begriffs beinhaltet er eine Vielfalt von Ideen, unterschiedlichste methodische
Ansätze und konkrete Anwendungsmöglichkeiten. Die grundlegenden Vorstellungen sind dabei nicht neu, sondern haben eine mitunter recht lange Tradition in angrenzenden Disziplinen wie Biologie, Kybernetik , Mathematik und Physik . Vielversprechende Forschungsergebnisse der letzten Zeit haben dieses Thema wieder in den Mittelpunkt des Interesses gerückt und eine Vielzahl neuer Querbezüge zur Informatik und Neurobiologie sowie zu anderen, auf den ersten Blick weit entfernten Gebieten offenbart. Gegenstand des Forschungsgebiets Neuronale Netze ist dabei die Untersuchung und Konstruktion informationsverarbeitender Systeme, die sich aus vielen mitunter nur sehr primitiven, uniformen Einheiten zusammensetzen und deren wesentliches Verarbeitungsprinzip die Kommunikation zwischen diesen Einheiten ist, d.h. die Übertragung von Nachrichten oder Signalen. Ein weiteres
Charakteristikum dieser Systeme ist die hochgradig parallele Verarbeitung von Information innerhalb
des Systems. Neben der Modellierung kognitiver Prozesse und dem Interesse, wie das menschliche Gehirn komplexe kognitive Leistungen vollbringt, ist über das rein wissenschaftliche Interesse hinaus in zunehmendem Maße auch der konkrete Einsatz neuronaler Netze in verschiedenen technischen Anwendungsgebieten zu sehen. Der vorliegende Report beinhaltet die schriftlichen Ausarbeitungen der Teilnehmerinnen des Seminars Theorie und Praxis neuronaler Netze , das von der Arbeitsgruppe Richter im Sommersemester 1993 an der Universität Kaiserslautern veranstaltet wurde. Besonderer Wert wurde darauf gelegt, nicht nur die theoretischen Grundlagen neuronaler Netze zu behandeln, sondern auch deren Einsatz in der Praxis zu diskutieren. Die Themenauswahl spiegelt einen Teil des weiten Spektrums der Arbeiten auf diesem Gebiet wider. Ein Anspruch auf Vollständigkeit kann daher nicht erhoben werden. Insbesondere sei darauf verwiesen, daß für eine intensive, vertiefende Beschäftigung mit einem Thema auf die jeweiligen Originalarbeiten zurückgegriffen werden sollte. Ohne die Mitarbeit der Teilnehmerinnen und Teilnehmer des Seminars wäre dieser Report nicht möglich gewesen. Wir bedanken uns daher bei Frank Hauptmann, Peter Conrad, Christoph Keller, Martin Buch, Philip Ziegler, Frank Leidermann, Martin Kronenburg, Michael Dieterich, Ulrike Becker, Christoph Krome, Susanne Meyfarth , Markus Schmitz, Kenan Çarki, Oliver Schweikart, Michael Schick und Ralf Comes.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
Verfahren des Maschinellen Lernens haben heute eine Reife erreicht, die zu ersten erfolgreichen industriellen Anwendungen geführt hat. In der Prozessdiagnose und -steuerung ermöglichen Lernverfahren die Klassifikation und Bewertung von Betriebszuständen, d.h. eine Grobmodellierung eines Prozesses, wenn dieser nicht oder nur teilweise mathematisch beschreibbar ist. Ausserdem gestatten Lernverfahren die automatische Generierung von Klassifizierungsprozeduren, die deterministisch abgearbeitet werden und daher für die Belange der Echtzeitdiagnose und -steuerung u.U. zeiteffektiver als Inferenzmechanismen auf logischer bzw. Produktionsregelbasis sind, da letztere immer mit zeitaufwendigen Suchprozessen verbunden sind.
Struktur und Werkzeuge des experiment-spezifischen Datenbereichs der SFB501 Erfahrungsdatenbank
(1999)
Software-Entwicklungsartefakte müssen zielgerichtet während der Durchführung eines Software- Projekts erfasst werden, um für die Wiederverwendung aufbereitet werden zu können. Die methodische Basis hierzu bildet im Sonderforschungsbereich 501 das Konzept der Erfahrungsdatenbank. In ihrem experiment-spezifischen Datenbereich werden für jedes Entwicklungsprojekt alle Software-Entwicklungsartefakte abgelegt, die während des Lebenszyklus eines Projektes anfallen. In ihrem übergreifenden Datenbereich werden all die jenigen Artefakte aus dem experiment-spezifischen Datenbereich zusammengefasst, die für eine Wiederverwendung in nachfolgenden Projekten in Frage kommen. Es hat sich gezeigt, dass bereits zur Nutzung der Datenmengen im experiment- spezifischen Datenbereich der Erfahrungsdatenbank ein systematischer Zugriff notwendig ist. Ein systematischer Zugriff setzt jedoch eine normierte Struktur voraus. Im experiment-spezifischen Bereich werden zwei Arten von Experimenttypen unterschieden: "Kontrollierte Experimente" und "Fallstudien". Dieser Bericht beschreibt die Ablage- und Zugriffsstruktur für den Experimenttyp "Fallstudien". Die Struktur wurde aufgrund der Erfahrungen in ersten Fallstudien entwickelt und evaluiert.
Das Modell des Intelligenten ist eine Abstraktion von Telefonvermittlungs-systemen und beschreibt auch deren Erweiterungen. Zunächst wird ein einfachesBasissystem spezifiziert, das dann um weitere Leistungsmerkmale, sog. Features, erweitert wird. Im Rahmen dieser Arbeit haben wir ein bereits bestehendes, in Estellespezifiziertes Basissystem um sechs Features erweitert. Dabei konnten wir verschiedene Stile für die Featurespezifikation in Estelle überprüfen. Wir entwerfen Prinzipien füreine verhaltenerhaltende Transformation, die geeignete Ansatzpunkte für neueFeatures schaffen kann. Für das Ergänzen von neuen Rufnummern haben wir eine einfache Methode entwickelt. Wir zeigen zwei Schwächen von Estelle beim Erweitern vonSystemen auf. Schließlich berichten wir über unsere Erfahrungen mit dem im IN-Modellverwendeten Prinzip der Detection Points.