Refine
Year of publication
Document Type
- Preprint (56)
- Master's Thesis (38)
- Report (28)
- Article (23)
- Doctoral Thesis (16)
- Study Thesis (8)
- Part of a Book (1)
Language
- German (170) (remove)
Keywords
- AG-RESY (17)
- CoMo-Kit (10)
- Case-Based Reasoning (9)
- Fallbasiertes Schliessen (9)
- META-AKAD (8)
- PARO (6)
- Robotik (6)
- Case-Based Planning (5)
- Java 2 Enterprise Edition (4)
- Visualisierung (4)
- Wissensverarbeitung (4)
- Expertensysteme (3)
- Implementierung (3)
- Maschinelles Lernen (3)
- Mensch-Roboter-Kooperation (3)
- RONAF (3)
- SIMERO (3)
- AKLEON (2)
- Automation (2)
- Bahnplanung (2)
- CAP (2)
- CODET (2)
- Decision Trees (2)
- Diagnose technischer Systeme (2)
- Entscheidungsbäume (2)
- Fallbasierte Planning (2)
- Fallbasierte Planung (2)
- Fallbasiertes Schließen (2)
- HANDFLEX (2)
- KLUEDO (2)
- Kommunikation (2)
- Kooperation (2)
- Mensch-Roboter-Koexistenz (2)
- Navigation (2)
- Prozesssteuerung (2)
- Server (2)
- Software Engineering (2)
- Suchraum (2)
- computer aided planning (2)
- regelbasiertes Problemlösen (2)
- safe human robot cooperation (2)
- Ablagestruktur (1)
- Access System (1)
- Accounting (1)
- Akquisition (1)
- Anfrageverarbeitung (1)
- Aspektorientierte Programmierung (1)
- Assembly (1)
- Ausdrucksfähig (1)
- Ausdrucksfähigkeit (1)
- Automatische Indexierung (1)
- Automotive (1)
- Autonomer Agent (1)
- Bebauungsplanung (1)
- Bewegungsplanung (1)
- Bildverarbeitung (1)
- Bitlisten (1)
- CAN-Bus (1)
- CAR <Roboter> (1)
- CAS (1)
- COMOKIT (1)
- Case Study Erfahrungsdatenbank (1)
- Case-Based Diagnosis (1)
- Case-Based Learning (1)
- Castor (1)
- Clustering (1)
- Cochlea Implant (1)
- Cochlea Implantat (1)
- Computer assistierte Chirurgie (1)
- Computer assistierte Chirurgie (CAS) (1)
- Containertypen (1)
- Containertypes (1)
- Content Management (1)
- Controller Synthesis (1)
- DES (1)
- Datenbanken (1)
- Datenreduktion (1)
- Design Rationales (1)
- Didaktik (1)
- Dienstgüte (1)
- Dienstschnittstellen (1)
- Domänenspezifische Sprachen (1)
- Doppler-Radar (1)
- Dreidimensionale Bildverarbeitung (1)
- Dublin Core (1)
- Dynamischer Test (1)
- ESTELLE (1)
- Effizienter Algorithmus (1)
- Effizienz (1)
- Effizienzsteigerung (1)
- Eingebettetes System (1)
- Energie (1)
- Erstellung von Expertensystemen (1)
- Experience Base (1)
- Experiment (1)
- Expressiveness (1)
- FERAL (1)
- Fachdidaktik (1)
- Fahrassistenzsysteme (1)
- Fallbasierte Diagnose (1)
- Fallbasiertes Planen (1)
- Fallstu (1)
- Farbmodell (1)
- Fast Mode-Signaling (1)
- Force Feedback (1)
- Force-Torque (1)
- Formale Beschreibungstechnik (1)
- Fräsen (1)
- Gebäude (1)
- Gebäudeautomation (1)
- Hals-Nasen-Ohren-Chirurgie (1)
- Hals-Nasen-Ohren-Heilkunde (1)
- Harvest (1)
- Huffman (1)
- Huffman-Code (1)
- Human-Robot-Coexistence (1)
- Human-Robot-Cooperation (1)
- IDEA (1)
- Imote2 (1)
- Implan (1)
- Implementation (1)
- Indexierung <Inhaltserschließung> (1)
- Induktive Logische Programmierung (1)
- Induktivem Schliessen (1)
- Induktiven Logischen Programmierung (1)
- JSR 170 JCR (1)
- Java (1)
- Komponentenmodell (1)
- Komprimierung (1)
- Kontextbezogenes System (1)
- Kraftrückkopplung (1)
- Kryptographie (1)
- Kryptologie (1)
- LOADBAL (1)
- Laufkomprimierung (1)
- Lernalgorithmen (1)
- Linux (1)
- Logische Programmierung (1)
- MDA <Vorgehensmodell> (1)
- MVP-L (1)
- Manipulation skills (1)
- Mapping (1)
- Mehragentensystem (1)
- Mensch-Maschine-Kommunikation (1)
- Metadaten (1)
- Mikrocontroller AVR (1)
- MoCAS/2 (1)
- Mobile Computing (1)
- Mode-Based Scheduling with Fast Mode-Signaling (1)
- Modellgetriebene Entwicklung (1)
- Modellierung (1)
- Modelling (1)
- Modusbasierte Signalisierung (1)
- Mund-Kiefer-Gesichts-Chirurgie (1)
- Netz-Architekturen (1)
- Netzwerk (1)
- Netzwerkmanagement (1)
- NoSQL (1)
- Object-orientation (1)
- Objektorientierung (1)
- Open Estelle (1)
- Operationsroboter (1)
- Optimierung (1)
- P2P (1)
- PABS-Methode (1)
- PATDEX (1)
- PATDEX 2 (1)
- PVM (1)
- Parallel Virtual Machines (1)
- Parser (1)
- Problemlösung (1)
- Prozessmodellen (1)
- Quality (1)
- Qualität (1)
- RDF (1)
- RGB (1)
- RLE (1)
- RODEO (1)
- RSA (1)
- Radar (1)
- Raumordnung (1)
- Rechnernetze (1)
- Regelung (1)
- Rekonstruktion (1)
- Relationales Datenbanksystem (1)
- Repository <Informatik> (1)
- Resource Description Framework (1)
- Roboter (1)
- Roboterarm (1)
- Robotics (1)
- SAX2 (1)
- SCM (1)
- SDL (1)
- SDL-oriented Object Modeling Technique (1)
- SKALP (1)
- SOMT (1)
- SQL (1)
- SWEEPING (1)
- Scheduling (1)
- Schädelbasis (1)
- Service Access Points (1)
- Sicherheit (1)
- Simulation (1)
- Simulationen (1)
- Software (1)
- Software Configuration Management (1)
- Software-Entwicklung (1)
- Softwareentwicklung (1)
- Softwarespezifikation (1)
- Sprache (1)
- Sprachen (1)
- Structure (1)
- Suchve (1)
- Support-Vektor-Maschine (1)
- Symbolic Methods (1)
- Systemarchitektur (1)
- TCP/IP (1)
- Temporal Logic (1)
- Time-motion-Ultraschallkardiographie (1)
- UML (1)
- UML 2 (1)
- Ultraschallkardiographie (1)
- Umweltinformatik (1)
- Unterricht (1)
- VIACOBI (1)
- Versionierungssysteme (1)
- Verteiltes System (1)
- Virtual Prototyping (1)
- Voronoi-Diagramm (1)
- Workflowmanagement (1)
- Workstation-Cluster (1)
- XEC (1)
- XML (1)
- Zeitplanung (1)
- Zugriffstruktur (1)
- Zugriffsystem (1)
- aspect-oriented programming (1)
- automotive (1)
- behaviourbased (1)
- deformable objects (1)
- dependability (1)
- distributed computing (1)
- domain-specific language (1)
- epidemic algorithms (1)
- epidemische Algorithmen (1)
- fallbasiertes Schliessen (1)
- generative Programmierung (1)
- generative programming (1)
- human robot cooperation (1)
- intentional programming (1)
- inverses Pendel (1)
- knowledge-based planning (1)
- konzeptuelle Modelierung (1)
- learning algorithms (1)
- peer-to-peer (1)
- rekursiv aufzählbare Sprachfamilien (1)
- robotergestützt (1)
- safe human robot coexistence (1)
- verhaltensbasiert (1)
- verlustfrei (1)
- verlässlichkeit (1)
- verteilte Berechnung (1)
- wissensbasierte Systeme (1)
- wissensbasierter Systeme der Arbeitsplanerstellung (1)
Faculty / Organisational entity
- Fachbereich Informatik (170) (remove)
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von Fallbeispielen ein derzeit sehr aktuelles Thema. Da sich sehr unterschiedliche Fachgebiete und Disziplinen hiermit auseinandersetzen, existiert allerdings eine entsprechende Vielfalt an Begriffen und Sichten auf fallbasiertes Problemlösen. In diesem Beitrag werden wir einige für das fallbasierte Problemlösen wichtige Begriffe präzisieren bzw. begriffliche Zusammenhänge aufdecken. Die dabei verfolgte Leitlinie ist weniger die, ein vollständiges Begriffsgebäude zu entwickeln, sondern einen ersten Schritt in Richtung eines einfachen Beschreibungsrahmens zu gehen, um damit den Vergleich verschiedener Ansätze und Systeme zu ermöglichen. Auf dieser Basis wird dann der derzeitige Stand der Forschung am Beispiel konkreter Systeme zur fallbasierten Diagnose dargelegt. Den Abschluss bildet eine Darstellung bislang offener Fragen und interessanter Forschungsziele.
On-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem
(1991)
Dieses Kapitel gliedert sich in drei Teile. Zuerst wird die Vorgehensweise in dieser Diplomarbeit zusammengefaßt. Dann folgen die gewonnenen Schlußfolgerungen mit einer Bewertung der verglichenen Ansätze. Der letzte Teil ist ein Ausblick auf die möglichen Anwendungen der Ergebnisse dieser Arbeit. Methodik Bei der Aufgabe, eine on-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem zu untersuchen, wurden folgende Schritte vorgenommen: " Klassifizierung der bisherigen Ansätze zur Beschleunigung der Kollisionserkennung mit einem Arm. Dabei wurde unterschieden zwischen dem Einsatz-Zeitpunkt und der Methode der Ansätze. " Modifikation des Weltmodells der Kollisionserkennung für den Einsatz von mehreren Roboterarmen. Kollisionsklassen wurden in einer formalen Darstellung eingeführt und ihre Eigenschaften betrachtet. " Untersuchung der Approximation von Objekten (z. B. Armsegmente und Hindernisse) durch Primitive. Dabei wurden Algorithmen zur Berechnung der Approximationen entworfen und implementiert. Unterschiedliche Strategien zur Abstandsberechnung mit Primitiven-Approximationen wurden entwickelt. " Untersuchung und Erweiterung der hierarchischen Modellierung für den Einsatz bei bewegten Objekten (wie z. B. Roboterarmen). Dazu wurden eine on-line Aktualisierung der Geometrie und eine Auswahl der optimalen Baumstruktur eingesetzt. " Implementierung der bisherigen und eigenen Beschleunigungs-Ansätze. Für die Durchführung von Experimenten wurden die Ansätze in ein Simulationssystem eingebunden und das Simulationssystem erweitert. " Vergleich und Bewertung der Beschleunigungs-Ansätze durch Messung von Laufzeiten und Qualität der resultierenden Abstandsvektoren. Untersuchung anderer einflußnehmender Parameter, wie z. B. der Sicherheitsabstand oder die Frequenz (Schrittweite) der Kollisionserkennung. Schlußfolgerungen Die Untersuchung der implementierten Ansätze zur on-line Kollisionserkennung erlaubt folgende Bewertung und Folgerungen: " Die on-line Kollisionserkennung mit Abstandsvektoren für mehrere Arme ist bei der Verwendung der entsprechenden Beschleunigungs-Ansätze möglich. Die Berechnungszeit pro Bewegungsschritt liegt im Bereich von wenigen Millisekunden. " Die eingeführte Unterteilung der Umwelt in Kollisionsklassen schafft einen einfachen Mechanismus zur Kollisionserkennung in Szenen mit mehreren bewegten Objekten. Die Kollisionsklassen ermöglichen eine systematische Kollisionserkennung für ein Mehrarm-Robotersystem. " Der Vergleich der Primitiven-Approximationen zeigt, daß der ausschließliche Einsatz der Bounding-Box als Primitiv zu besseren Ergebnissen führt als der Einsatz von mehreren Primitiven wie z. B. in [Adolphs]. Die Verbesserungen betreffen den Aufwand der Abstandsberechnung und die Qualität des Abstandsvektors. " Schon bei wenigen Objekten empfiehlt sich eine hierarchische Darstellung zur Beschleunigung der Kollisionserkennung, da sie zu sehr schnellen Abstandsberechnungen führt. Vor allem bei Szenen mit vielen Objekten ist eine hierarchische Darstellung unverzichtbar. " Durch das neue Konzept der dynamischen Hierarchien ist eine hierarchische Modellierung auch für bewegte Objekte möglich. Die dynamischen Hierarchien garantieren eine optimale Darstellung und ermöglichen eine relativ genaue Modellierung des Roboterarms. Bei der Kollisionserkennung für mehrere Roboterarme ist durch den Einsatz von dynamischen Hierarchien ein Beschleunigungsfaktor von 100 gegenüber dem einfachen Verfahren erreicht worden. Damit ist eine on-line Anwendung möglich. Ausblick Aufbauend auf den hier erzielten Ergebnissen sind folgende Anwendungen denkbar: " Eine on-line Bahnplanung basierend auf den berechneten Abstandsvektoren ist möglich. Von Punkt zu Punkt geplante Bahnen können mit Hilfe der Abstandsvektoren modifiziert und Ausweichtrajektorien generiert werden. " Die Potential-Feld-Methode zur lokalen Bahnplanung kann aufgrund den on-line berechneten Abstandsvektoren angewendet werden. " Auch exakte Abstände können schnell berechnet werden. Diese Abstandsberechnung wird effizient durch die Kombination der dynamischen Hierarchien mit einer A*-Suche. " Die schnelle Abstandsberechnung kann auch für andere Gebiete eingesetzt werden. Beispiele dafür sind der Aufbau von Konfigurations-Räumen oder die Layout-Planung. " Bei zu handhabenden Objekten, wie z. B. Werkstücke, kann das Konzept der Kollisionsklassen einfach um einen dynamischen Wechsel erweitert werden. Dabei wechselt z. B. ein Werkstück, wenn es von dem Arm gegriffen wird, die Klasse.
In Laufe der letzten Jahrzehnte ist der Prozeß der Softwareentwicklung methodisiert und zum Teil auch formalisiert worden. I.a. unterteilt man den Vorgang in grobe Stufen, Entwicklungsphasen genannt. Jede dieser Phasen betrachtet den entstehenden Entwurf des Projekts aus verschiedenen Sichtweisen. Aus dieser Sichtweise resultieren etliche Modelle und Darstellungsformen und mit ihnen auch verschiedene rechnergestützte Entwicklungswerkzeuge. In frühen Phasen sind beispielsweise Datenflußdiagramme eine nützliche Darstellungsform, in späteren konkrete Algorithmenbeschreibungen. Entwurfsänderungen im Laufe der Entwicklungszeit müssen in allen betroffenen Ebenen neu formuliert werden, eine automatisierte phasenübergreifende Behandlung ist
daher i.a. nicht oder nur teilweise möglich. Um effizienter und weniger fehleranfällig arbeiten zu können, wurden aus diesem Grund in letzter Zeit Ansätze gemacht, den gesamten Softwareentwicklungsprozeß von der ·Anforderungsanalyse bis hin zur Wartungsphase einem einheitlichen Konzept und einer einheitlichen Darstellungsform zu unterwerfen, die sich darüberhinaus zur Realisation auf Rechnersystemen eignen. Der vorliegende Bericht entstand im Rahmen eines solchen Projekts. Es wurden eine allumfassende Systementwurfssprache und die dazugehörigen Konzepte entwickelt, die sämtliche Entwurfsphasen und die wichtigsten -prinzipien zu unterstützen vermögen. Es liegen bereits zwei Arbeiten zu diesem Projekt vor. Sie stellen im wesentlichen neben der eigentlichen Definition der Systementwurfssprache zwei Entwicklungswerkzeuge vor, die auf einer einheitlichen Datenbasis operieren [GK-91, Kel-90]. Ein Bereich innerhalb der Forschungen ist die Wiederverwendung von Softwareentwürfen. Schon existierende Lösungen sollen bei der Entwicklung eines neuen Entwurfs durch Vergleich und Bewertung des Grades der Ähnlichkeit ausgewählt und dem Entwickler nutzbar gemacht werden. Dieser Bericht beschäftigt sich mit einem Kernpunkt der Wiederverwendung, dem Vergleich zweier Softwareentwürfe. Es werden zunächst grundsätzliche Konzepte ausgearbeitet, die den Ähnlichkeitsaspekt unter verschiedenen Gesichtspunkten charakterisieren. Daraufhin werden Algorithmen konstruiert, die verschiedenartige Vergleichsfunktionen realisieren und zu einer Gesamtfunktion kombinieren. Um zu einem späteren Zeitpunkt die Leistungsfähigkeit dieser
Funktionen in der Praxis untersuchen zu können, liegt darüberhinaus ein lauffähiges
Programm vor.
Forschungsprojekte im Bereich des fallbasierten Schliessens in den USA, die Verfügbarkeit kommerzieller fallbasierter Shells, sowie erste Forschungsergebnisse initialer deutscher Projekte haben auch in Deutschland verstärkte Aktivitäten auf dem Gebiet des fallbasierten Schliessens ausgelöst. In diesem Artikel sollen daher Projekte, die sich als Schwerpunkt oder als Teilaspekt mit fallbasierten Aspekten beschäftigen, einer breiteren Öffentlichkeit kurz vorgestellt werden.
Fallbasiertes Schliessen ist ein derzeit viel diskutierter Problemlösesansatz. Dieser Beitrag gibt einen Überblick über den aktuellen Stand der Forschung auf diesem Gebiet, insbesondere im Hinblick auf die Entwicklung von Expertensystemen (einen ersten Schritt in diese Richtung stellte bereits der Beitrag von Bartsch-Spörl, [BS87] dar). Dazu stellen wir die dem fallbasierten Schliessen zugrundeliegenden Mechanismen vor. Ergänzt wird dies durch den Vergleich mit alternativen Verfahren wie z.B. regelbasiertes, analoges und induktives Schliessen sowie eine ausführliche Literaturübersicht.
Grob skizziert soll das System in der Lage sein, aus einer vorgegebenen Konstruktionszeichnung eines Drehteils einen Plan f"ur die maschinelle Fertigung dieses Teils zu erstellen. Ausgehend vom Ansatz des fallbasierten Schliessens besteht die Aufgabe des Systems darin, aus einer Menge bekannter Drehteile, für die bereits ein Fertigungsplan erstellt worden ist, das Teil zu finden, dessen Darstellung zu der des eingegebenen Teils am ähnlichsten ist. Der Plan dieses ähnlichsten Teils ist dann so zu modifizieren und anzupassen, dass damit das vorgegebene Teil gefertigt werden kann. Ein zentrales Problem ist hierbei die Definition des Ähnlichkeitsbegriffes, der auf jeden Fall den fertigungstechnischen Aspekt berücksichtigen muss.
Vorliegender Bericht ist eine Studie für einen möglichen Immissionsdatenverbund in Österreich. Die Grundlage dieser ersten Version der Studie sind Gespräche, welche Anfang Januar 1992 im Forschungszentrum Seibersdorf und im Umweltbundesamt in Wien stattfanden. Seit einigen Jahren beschäftigt sich die von mir geleitete Gruppe Umweltinformatik an der Universität Kaiserslautern mit den besonderen Schwierigkeiten bei der Vernetzung und Integration heterogener Systeme, welche darüberhinaus unter unterschiedlichen Vollzugshoheiten stehen können. Wir haben diese Problemstellung bei der Führung verfahrenstechnischer Anlagen weitestgehend gelöst und beschäftigen uns, zum Teil in Zusammenarbeit mit Kollegen aus anderen Institutionen, nun hauptsächlich mit der Umsetzung dieser Lösungen in verteilten Systemen im Umweltschutz. Unsere derzeitigen Arbeiten haben zum Ziel, möglichst allgemeine Ansätze für die Integration in verteilten, offenen Umweltinformationssystemen (UIS) zu entwickeln. Dabei sind wir uns darüber bewußt, daß diese allgemeinen Ansätze nur aus den konkreten Gegebenheiten, Zielen und Vorstellungen abgeleitet werden können. Diese Studie soll zwei Dinge bezwecken: einerseits will ich versuchen, den Blick dafür zu öffnen, wie ein Immissionsdatenverbund aussehen könnte, welcher allen Betreibern eine hohe Funktionalität und großen Komfort bietet. Es soll auch diskutiert werden, welcher technischer und organisatorischer Aufwand unter Verwendung welcher Konzepte entsteht. Auch wenn man sich in naher Zukunft nicht dazu entschließen sollte, die von mir vorgeschlagenen oder ähnliche Wege zu gehen, so könnte man doch bei der Realisierung auf
niedrigerem funktionalen Niveau zukünftige Möglichkeiten schon heute berücksichtigen und damit zukünftige Entwicklungen begünstigen. Ich hoffe, daß die Leser dieser Studie in dieser Hinsicht von meinen Erfahrungen profitieren. Zum zweiten ist diese Studie für meine Arbeitsgruppe ein Einstieg in die konkreten Problemstellungen großer verteilter UIS. Meßnetze sind inhärente Komponenten solcher UIS und weisen aufgrund ihrer technischen Orientierung interessante Merkmale auf. Daher erhoffen wir uns, hier wichtige Erkenntnisse auch für unsere Arbeiten zu gewinnen. Im Prinzip weiß heute noch niemand, wie man einen großen Umweltdatenverbund organisieren könnte. Ein Teil eines solchen Verbundes sind die Meßnetze. Die damit verbundenen Probleme alleine technischer Art sind riesig und es gibt bisher nur wenige Personen, die in der Umweltinformatik sich überhaupt mit diesen Themen beschäftigen. Diese Studie versteht sich daher hochgradig als Diskussionpapier. Jegliche geäußerten Ideen und Konzepte sollen von Lesern kritisch bewertet, notfalls angegriffen und vernichtend geschlagen werden - sofern sie dies verdienen. Diese Diskussion ist notwendig, damit wir überhaupt einmal eine Ahnung davon bekommen, wohin die Umweltinformatik der verteilten Systeme gehen kann.
In der CAGD Literatur werden häufig Ableitungen und Graderhöhungen von Bezierkurven und -flächen wiederum in Bezierform angegeben [1][2][3][6]. Meistens werden diese Darstellungen nur für theoretische Betrachtungen verwendet, z.B. geometrischer Deutung von Stetigkeiten zwischen angrenzenden Flächenstücken. Für praktische Anwendungen reicht die Menge der Operationen jedoch nicht aus. Farouki und Rajan [4] zeigten, daß die Resultate arithmetischer Operationen, wie Addition und Multiplikation auf Bezierkurven auch als Bezierkurven darstellbar sind. Hier werden wir die Operationen auf polynomiale und rationale Tensorprodukt Bezierflächen und Flächen über Dreiecken ausdehnen. Eine Erweiterung auf rationale Flächen ermöglicht insbesondere die Ausführung einer Division, wie sie für viele Anwendungen benötigt wird. Das Rechnen mit Flächen hat im Gegensatz zu punktweisen Auswertungen den Vorteil gleichzeitig mit Hilfe von notwendigen Bedingungen an das entstandene Beziernetz sichere Ergebnisabschätungen angeben zu können. Diese lassen sich für adaptive Verfahren nutzen und sind insbesondere dort wichtig, wo es auf exakte Aussagen über das Verhalten von Flächen ankommt, wie z.B. bei der Qualitätsanalyse von Freiformflächen [5]. Mit Hilfe der hier vorgestellten Operationen läßt sich u.a. an Vorzeichenwechseln erkennen, ob eine zu untersuchende Bezierfläche konvex ist oder nicht (siehe Kapitel 4). Außerdem können Fehler, die bei punktweisen Auswertungen auf Gittern mit großer Maschenweite entstehen, vermieden werden. Nachdem in Kapitel 2 die zum Verständnis nötigen Definitionen und Schreibweisen erläutert wurden, werden in Kapitel 3 die grundlegenden Operationen für eine Arithmetik
auf Bezierflächen beschrieben. Dabei werden Formeln angegeben, die die Bezierpunkte und Gewichte der Ergebnisfläche aus denen der Operandenflächen bestimmen. Durch Aneinanderreihung und Verkettung einzelner Operationen lassen sich dann komplexe Berechnungen mit der gesamten Fläche ausführen. Zum Schluß werden in Kapitel 4 einige Beispiele aus dem Bereich der Qualitätsanalyse von Freiformflächen angegeben.
Der ProLan-X - Sprachreport
(1992)
Bei der Realisierung großer Software-Projekte treten immer wieder Probleme auf, was die
Koordination der Mitarbeiter, die Ausnutzung der vorhandenen Ressourcen und nicht zuletzt die
Qualität der erzeugten Produkte angeht. Um die Vorgänge bei der Produktion von Software
durchschaubarer und verständlicher zu machen, versucht man, diese aus der Sicht von Meta-Modellen zu beschreiben. Dabei fließen die individuellen Rahmenbedingungen einer jeden
Entwicklungsumgebung ein; die vorhandenen Ressourcen werden ebenso modellien wie die
durchzuführenden Tätigkeiten und ihre Abhängigkeiten. Die Beschreibungssprache für den Software-Prozeß ProLan-X dient der (konkreten) Beschreibung der Bestandteile des Meta-Modells MoMo, das ebenfalls in dieser Arbeitsgruppe entwickelt wurde [Schramm]. Die am Projekt beteiligten Personen, Hardware- und Software-Ressourcen und ihre Aufgaben werden in möglichst natürlicher Weise verhaltensorientien beschrieben. Aus dieser Beschreibung kann eine Ablaufumgebung generien werden, die die Durchführung des Projekts unterstützt und protokolliert. Der vorliegende Bericht faßt die Eigenschaften der Sprache ProLan-X zusammen und erläuten ihre Verwendung. Er setzt das MoMo-Modell als bekannt voraus.
In diesem Papier vergleichen wir Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung. Wir zeigen, wie ein integrierter Ansatz die Erstellung von Expertensystemen erleichtert. Das von uns entwickelte und implementierte System ermoeglicht einen "sanften" Entwicklungsprozess ausgehend von initialen Protokollen zu einer semi-formale Strukturierung in Form eines getypten Hypertextes. Dem Hypertext ist eine aufgabenorientierte Struktur aufgepraegt, so dass eine anschliessende Operationalisierung in Form eines Expertensystems vereinfacht wird. Die in diesem Prozess erzeugte Zwischenrepraesentation (der Hypertext) wird von einem Interpreter direkt zur interaktiven Loesung von Problemen benutzt, wobei die einzelnen Aufgaben auf die verschiedenen Sachbearbeiter verteilt werden. Abschliessend erlaeutern wir, dass Hypertext und Expertensysteme nur die Raender eines Kontinuums einer allgemeinen Wissensverarbeitung sind.
In diesem Papier stellen wir einen Interpreter vor, der die Validierung von konzeptuellen Modellen bereits in fruehen Entwicklungsphasen unterstuetzt. Wir vergleichen Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung und erlaeutern, wie ein integrierter Ansatz die Erstellung von Expertensystemen vereinfacht. Das von uns entwickelte Knowledge Engineering Werkzeug ermoeglicht einen "sanften" Uebergang von initialen Protokollen ueber eine semi-formale Spezifikation in Form eines getypten Hypertextes hin zu einem operationalen Expertensystem. Ein Interpreter nutzt die in diesem Prozess erzeugte Zwischenrepraesentation direkt zur interaktiven Loesung von Problemen, wobei einzelne Aufgaben ueber ein lokales Rechnernetz auf die Bearbeiter verteilt werden. Das heisst, die Spezifikation des Expertensystems wird direkt fuer die Loesung realer Probleme eingesetzt. Existieren zu einzelnen Teilaufgaben Operationalisierungen (d.h. Programme), dann werden diese vom Computer bearbeitet.
In fallbasierten Systemen ist es notwendig, ein über die normalen Datenbank-Suchaufgaben hinausgehendes Retrieval bereitzustellen. Hier müssen die n zu einem Anfragefall ähnlichsten Fälle aus einer Fallbasis gesucht werden.In dieser Diplomarbeit wird ein solches System zum ähnlichkeitsbasierten Retrieval von Fällen entwickelt. Dieses System übernimmt die Verwaltung der Fälle unter Verwendung der Datenstruktur des k-d-Baumes, hierbei werden die k-d-Bäume so aufgebaut, dass sie in optimaler Weise die sogenannte Best-Match- bzw. Nearest-Neighbour-Suche ermöglichen. Hierbei stand bereits ein existierendes System zur Verfügung, welches diese Suche zwar schon unterstützt, aber noch eine unbefriedigende Performance aufwies.
Die vorliegende Arbeit konzentriert sich auf Analysen unterschiedlicher Lernstrategien für CBL-Systeme anhand einer universellen Testumgebung mit variablen Fallbasen. Keine der untersuchten dynamischen Lernregeln und keine feste Belegung der globalen Konstanten im Ähnlichkeitsmass besitzt im statistischen Mittel signifikante Vorzüge. Dagegen zeigen sich Abhängigkeiten des Lernerfolgs von bestimmten Merkmalen der Fallbasis. Deswegen wird als Synthese ein auto-adaptives Lernschema vorgeschlagen, das die Eigenheiten verschiedener Fallbasen berücksichtigt und durch die Wahl spezifischer Lernstrategien ein deutlich verbessertes Ergebnis zu erzielen vermag.
Die Lösung einer Konfigurationsaufgabe in technischen Domänen besteht aus einer Menge von Bauteilen, die miteinander verträglich sind und in ihrem Zusammenspiel die gegebenen Anforderung erfüllen. Eine gängige Vorgehensweise bei der Suche nach einer Lösung ist die schrittweise Spezialisierung einer abstrakten Aufgabenstellung oder ihre Zerlegung in Teilaufgaben. Ein Konfigurationssystem, das diese Vorgehensweise unterstützt, muss Wissen enthalten, wie eine Aufgabe spezialisiert oder in Teilaufgaben zerlegt werden kann, welche konkreten Bauteile zur Erfüllung einer ausreichend detaillierten Teilaufgabe verwendet werden können und ob alle Teile einer Lösung miteinander verträglich sind. Aufgrund dieses Wissens kann eine konsistente Lösung durch Tiefensuche hergeleitet werden.
In den Modellierungssystemen des CAD/CAM werden oft unterschiedliche Methoden zur mathematischen Beschreibung von Freiformkurven und -flächen eingesetzt. Als Basisfunktionen können sowohl Monome, Bernstein-Polynome, B-Spline-Basisfunktionen als auch nicht lineare Funktionen auftreten. In den einzelnen CAD-Systemen kann der maximal zulässige Grad dieser Basisfunktionen variieren. Müssen nun Daten zwischen verschiedenen CAD-Systemen ausgetauscht werden, so muß u. U. eine Basistransformation
und/oder eine Gradanpassung durchgeführt werden. Diese Transformationen sind i.a. nicht exakt möglich. Hier sind geeignete, möglichst optimale Approximationen nötig. Bisher wurden verschiedene Verfahren entwickelt. Das älteste geht zurück auf Forrest [Forr72]. Farin [FAR90] invertiert den Prozeß der Graderhöhung. Watkins und Worsey [Wat88] sowie Lachance [Lach88] reduzieren den Polynomgrad in der Tschebyscheff-Basis. Hoschek et al. [Hos89] sowie Plass und Stone [Plas83] approximieren die Kurve bzw. Fläche punktweise. Dadurch lassen sich alle Kurven- und Flächenrepräsentationen durch eine Bézier-Darstellung approximieren. Ein Approximationsfehler kann jedoch auch nur punktweise garantiert werden. Durch einen anschließenden Parameteriterationsprozeß läßt sich eine weitere Approximationsverbesserung erzielen. Eine solche Parameterkorrektur ist jedoch nur dann sinnvoll, wenn die Parametrisierung der Approximationskurve bzw. -fläche frei gewählt werden kann. In Fällen, in denen die Funktionswerte dei; zu approximierenden Flächen bzgl. ihrer Parameterwerte mit anderen Flächen korrespondieren, darf keine Parameteränderung durchgeführt werden, wie z.B. bei der Approximation sogenannter Eigenschaftsflächen, die eine bestimmte Eigenschaft einer anderen Fläche, wie etwa die Gausskrümmung oder die Normalenrichtung darstellen. In dieser Arbeit wird ein Verfahren zur optimalen Gradreduktion von Bézierkurven und -flächen vorgestellt. Damit eine \(C^0\)-stetige Approximation innerhalb einer vom Benutzer vorgegebenen Fehlertoleranz durchgeführt werden kann, muß die Approximation mindestens eine Berührordnung ersten Grades mit der Originalkurve bzw. -fläche aufweisen. Mit Hilfe arithmetischer Operationen auf Bézierdarstellungen [Faro88], [Schr92] werden lineare Gleichungssysteme für eine optimale Belegung der freien Parameter aufgestellt, sowie eine Fehlerkurve bzw. -fläche in Bézierform berechnet, um die Einhaltung einer Fehlertoleranz zu gewährleisten.
Neuronale Netze sind ein derzeit (wieder) aktuelles Thema. Trotz der oft eher schlagwortartigen
Verwendung dieses Begriffs beinhaltet er eine Vielfalt von Ideen, unterschiedlichste methodische
Ansätze und konkrete Anwendungsmöglichkeiten. Die grundlegenden Vorstellungen sind dabei nicht neu, sondern haben eine mitunter recht lange Tradition in angrenzenden Disziplinen wie Biologie, Kybernetik , Mathematik und Physik . Vielversprechende Forschungsergebnisse der letzten Zeit haben dieses Thema wieder in den Mittelpunkt des Interesses gerückt und eine Vielzahl neuer Querbezüge zur Informatik und Neurobiologie sowie zu anderen, auf den ersten Blick weit entfernten Gebieten offenbart. Gegenstand des Forschungsgebiets Neuronale Netze ist dabei die Untersuchung und Konstruktion informationsverarbeitender Systeme, die sich aus vielen mitunter nur sehr primitiven, uniformen Einheiten zusammensetzen und deren wesentliches Verarbeitungsprinzip die Kommunikation zwischen diesen Einheiten ist, d.h. die Übertragung von Nachrichten oder Signalen. Ein weiteres
Charakteristikum dieser Systeme ist die hochgradig parallele Verarbeitung von Information innerhalb
des Systems. Neben der Modellierung kognitiver Prozesse und dem Interesse, wie das menschliche Gehirn komplexe kognitive Leistungen vollbringt, ist über das rein wissenschaftliche Interesse hinaus in zunehmendem Maße auch der konkrete Einsatz neuronaler Netze in verschiedenen technischen Anwendungsgebieten zu sehen. Der vorliegende Report beinhaltet die schriftlichen Ausarbeitungen der Teilnehmerinnen des Seminars Theorie und Praxis neuronaler Netze , das von der Arbeitsgruppe Richter im Sommersemester 1993 an der Universität Kaiserslautern veranstaltet wurde. Besonderer Wert wurde darauf gelegt, nicht nur die theoretischen Grundlagen neuronaler Netze zu behandeln, sondern auch deren Einsatz in der Praxis zu diskutieren. Die Themenauswahl spiegelt einen Teil des weiten Spektrums der Arbeiten auf diesem Gebiet wider. Ein Anspruch auf Vollständigkeit kann daher nicht erhoben werden. Insbesondere sei darauf verwiesen, daß für eine intensive, vertiefende Beschäftigung mit einem Thema auf die jeweiligen Originalarbeiten zurückgegriffen werden sollte. Ohne die Mitarbeit der Teilnehmerinnen und Teilnehmer des Seminars wäre dieser Report nicht möglich gewesen. Wir bedanken uns daher bei Frank Hauptmann, Peter Conrad, Christoph Keller, Martin Buch, Philip Ziegler, Frank Leidermann, Martin Kronenburg, Michael Dieterich, Ulrike Becker, Christoph Krome, Susanne Meyfarth , Markus Schmitz, Kenan Çarki, Oliver Schweikart, Michael Schick und Ralf Comes.