Refine
Year of publication
Document Type
- Doctoral Thesis (931)
- Periodical Part (275)
- Master's Thesis (224)
- Preprint (148)
- Article (103)
- Working Paper (100)
- Report (84)
- Conference Proceeding (19)
- Book (16)
- Lecture (14)
Language
- German (1992) (remove)
Keywords
- Stadtplanung (29)
- Organisationsentwicklung (28)
- Erwachsenenbildung (27)
- Schule (25)
- Mathematische Modellierung (19)
- wissenschaftliche Weiterbildung (19)
- Digitalisierung (18)
- AG-RESY (17)
- Hochschulforschung (17)
- Nachhaltigkeit (17)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (309)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (279)
- Kaiserslautern - Fachbereich Sozialwissenschaften (272)
- Kaiserslautern - Fachbereich Informatik (175)
- Distance and Independent Studies Center (DISC) (153)
- Kaiserslautern - Fachbereich Mathematik (127)
- Universität (111)
- Kaiserslautern - Fachbereich Bauingenieurwesen (99)
- Kaiserslautern - Fachbereich Biologie (85)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (79)
Mathematische Weiterbildung
(1984)
Ziel des Modellversuchs war es, zu untersuchen, welche Ergebnisse der mathematischen Forschung an Universitäten für den Praktiker besser zugänglich gemacht werden sollten und wie dies geschehen kann. Als Zielgruppen einer solchen Bildungsaufgabe waren insbesondere Ingenieure in den Forschungs- und Entwicklungsabteilungen der Industrie und Studenten der Mathematik und Technik (im Sinne einer mehr praxisbezogenen Ausbildung) vorgesehen; in organisatorischer Hinsicht war an ein Fernstudium gedacht.
Bei den bisherigen Untersuchungen auf dem Gebiet der passiven Solarnutzung mit speicherfähigen gemauerten Ziegelwänden stellte sich heraus, daß direkt im Strahlengang der Sonnenstrahlung liegende Wandbauteile keine ausreichende Speicherwirkung haben. Ausreichend heißt: Schnelle Wärmeabführung in eine Wärmesenke, ausreichende Speicherkapazität als Tagesspeicher. Abhilfe schaffen hier Latentspeicher oder großvolumige Wasserspeicher. In unserem konkreten Fall stand ein Texxor-Latentspeicher mit 2 l Inhalt und 100 Wh Kapazität bei 27oC in einem Poroton-Formstein zur Verfügung.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da kompliziertere zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind, besonders, wenn, wie an der Universität Kaiserslautern, nur eine relativ langsame Anlage (Siemens 7551/7561) zur Verfügung steht. Die numerischen Rechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
Die Aufgabe dieses Projektes ist die Untersuchung des Schallfeldes, das sich in einem geschlossenen Quader bei Erregung durch eine punktförmige Schallquelle einstellt. Eine zentrale Rolle spielt hierbei die Wechselwirkung zwischen dem Schallfeld und den Quaderplatten, die zu Schwingungen angeregt werden und so dem Schallfeld Energie entziehen. Der Zweck dieser Untersuchung ist, Erkenntnisse für die Berechnung des Innendrucks zu Fahrzeugkarosserien zu gewinnen. Dies muß bei der Dimensionierung des Quaders und bei der Wahl des Plattenmaterials berücksichtigt werden. Numerische Berechnungen des Schalldrucks in einem Quader wurden beispielsweise in [1] durchgeführt. Das Ergebnis zeigt, daß zwei Arten von Resonanzen auftreten: Zum einen Strukturresonanzen, die durch Eigenschwingungen der Wände hervorgerufen werden und die von den Wandabmessungen und dem Plattenmaterial abhängen, zum anderen Hohlraumresonanzen, die auftreten, wenn die Luftwellenlänge in einem geeigneten Verhältnis zu den Abmessungen des Hohlraums steht. Es ist sehr zweifelhaft, welche Rückschlüsse gezogen werden können von den numerischen Resultaten in [1] auf kompliziertere Geometrien, wie sie bei Fahrzeugkarosserien vorliegen. Eine tiefere Einsicht in die Kopplung zwischen Schallfeld und Plattenschwingungen vor allem in den Resonanzbereichen ist nur zu erwarten, wenn die Berechnung dieser Wechselwirkung weitgehend analytisch durchgeführt wird. Eine solche analytische Berechnung ist das Ziel dieses Projektes.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da komplizierte zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind. Die numerischen Berechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
Zur Datenreduktion gemessener stochastischer Beanspruchungszeitfunktionen werden Zählverfahren eingesetzt. Mit den dabei entstehenden Beanspruchungskollektiven werden rechnerische Lebensdauerabschätzungen gemacht. Da diese mit großen Unsicherheiten behaftet sind, besteht der Wunsch, aus den Beanspruchungskollektiven on-line stochastische Beanspruchungszeitfunktionen zu rekonstruieren, damit ein experimenteller Lebensdauernachweis im Labor mit servohydraulischen Zylindern durchgeführt werden kann. In bezug auf die Lebensdauer der Bauteile unter stochastischer Beanspruchung wird heute dem zweiparametrigen Rainflow-Zählverfahren die größte Bedeutung beigemessen. Es werden ein gegenüber /1/ verbessertes Markov-Inversionsverfahren und ein Rekonstruktionsverfahren aus der symmetrischen und der unsymmetrischen Rainflow-Matrix vorgestellt. Anhand von Beispielen werden diese Inversionsverfahren, die jeweils unter allen Zeitfunktionen, die zu der betreffenden Matrix führen, mit gleicher Wahrscheinlichkeit eine auswählen, verglichen. Es zeigt sich dabei, daß im Hinblick auf die Lebensdauer von Bauteilen unter stochastischer Beanspruchung die Rainflow-Inversionen zu wesentlich besseren Ergebnissen führt als die Markov-Inversionen.
Bei einem von VDO entwickelten Navigationsgerät stehen unterschiedliche Verfahren zur Durchführung der Navigation zur Verfügung. Das Problem besteht darin, daß die von dem jeweiligen Verfahren erzielten Navigationsendpunkte von dem gewünschten Ziel mehr oder weniger stark abweichen. Diese Abweichungen hängen nicht nur von Anfangs- und Endpunkt der Testfahrt und vom Navigationsverfahren ab, sondern ändern sich auch bei der Wiederholung solcher Testfahrten. Ordnet man nun jedem Navigationsverfahren einen Parameter (vektor) zu und bezeichnet man die Menge aller betrachteten Parameter (werte) mit M (M kann zunächst endlich oder unendlich sein), so besteht das Ziel darin, den Parameter p*EM aufzufinden, für den das zugehörige Verfahren im Mittel am besten abschneidet. Hierzu ist es notwendig, zunächst ein Gütekriterium festzulegen.
Berechnung und Optimierung des Energiegewinnes bei Anlagen zur Lufterwärmung mittels Erdkanal
(1986)
Hallen wie Turnhallen oder Fabrikationshallen werden häufig mit Warmluft beheizt. Dazu steht ein Heizkessel mit Heißwasser bereit, das über einen Wärmetauscher (WT1) Luft erwärmt. Diese Warmluft wird über ein Gebläse in die Halle eingebracht. An anderer Stelle der Halle wird die Luft, die sich abgekühlt hat, wieder angesaugt. Diese wird im Wärmetauscher wieder auf Solltemperatur erwärmt und erneut eingeblasen. Aus hygienischen Gründen muß allerdings ein Teil der angesaugten Umluft ins Freie fortgeführt werden und stattdessen frische Außenluft zugeführt werden. Dies geschieht in einer Mischkammer. Diese Außenluft hat während der Heizperiode eine recht niedrige Temperatur, so daß ein beachtlicher Anteil der Heizenergie für ihre Erwärmung aufgebracht werden muß. Um Energie zu sparen, wird die Außenluft über einen Wärmetauscher WT2 durch die Fortluft vorgewärmt. Eine weitere Einsparung wäre möglich, wenn es gelänge, diese Außenluft auf irgendeine natürliche Art und Weise zusätzlich vorzuerwärmen.
Das Designproblem eines Kanals mit parallel eingeblasener Luft war der Ausgangspunkt für diese Untersuchung. Um ein Gefühl für das Verhalten von Strömungen in einem Kanal gemäß Abb. 1 zu bekommen, sollte von uns ein Verfahren entwickelt werden, welches für folgende Geometrie die relevanten strömungsdynamischen Daten liefert.; Durch die Schlitzdüsen wird Luft mit hoher Geschwindigkeit eingeblasen. Für die sich dann einstellende quasistationäre Strömung im Kanal K soll die Entwicklung der Geschwindigkeitsprofile in Abhängigkeit vom Abstand zum Schlitz berechnet und die strömungsdynamischen Größen abgeleitet werden. Von besonderem Interesse sind hier der Druckverlauf, der Impulsverlust und die Wandschubspannung sowie die sich daraus ergebende mittlere Ansauggeschwindigkeit. Dabei sollen Geometrie, Einblasgeschwindigkeit sowie die Wandrauhigkeit variabel gehalten werden. Auf Grund von Experimenten erwartet man qualitativ etwa folgende Profile: Abb. 2
Diese Arbeit entstand aus der Zusammenarbeit der Arbeitsgruppe Technomathematik der Universität Kaiserslautern mit der Firma AUDI AG in Ingolstadt. Die Hauptaufgabe bestand in der Modell-Entwicklung für das Zeitverhalten von Beanspruchungszeitfunktionen (BAZF). Daher werden auch die ursprünglichen Modellansätze, die sich aufgrund von Beobachtungen realer BAZFen als Irrwege herausstellten, und die Stufen der Anpassung an die Realität hier dargestellt. Die Überprüfung der Modelle habe ich vier Wochen lang vor Ort durchgeführt und anschließend die endgültigen entwickelt. Die bei AUDI erstellten Plots werden zur Rechtfertigung der Modelle beitragen. Das Ziel der Modell-Entwicklung war immer die praktische Anwendung, weshalb auch dieser Gesichtspunkt oft hereinspielt, besonders wenn es um die Realisierung auf dem Rechner geht. Über die Implementierung und die praktischen Ergebnisse wird in einer späteren Arbeit berichtet werden.
Diese Arbeit beschäftigt sich mit dem Algorithmus von Kalman zur Schätzung von gegenwärtigen und zukünftigen Zuständen in zeitdiskreten dynamischen Systemen. In der Literatur ist dieser Algorithmus allgemein als Kalman-Filter bekannt. Im Vordergrund der Betrachtungen stehen dabei die Schätzfehler des Kalman-Filters, insbesondere für den Fall, daß das benutzte Modell nicht mit dem realen System übereinstimmt. Es wird der Frage nachgegangen, welche Einflüsse die Modellfehler auf die Schätzfehler des Kalman-Filters haben. Dies ist ein wichtiger Gesichtspunkt, den man bei der Anwendung des Kalman-Filters beachten sollte, da man i.a. nicht davon ausgehen kann, daß Modell und reales System übereinstimmen.; Um diese Fragestellung stärker zu motivieren, werden im nächsten Abschnitt ein paar allgemeine Überlegungen zur Modellbildung angestellt. Danach werden einige Modelle zur Behandlung von Zeitreihen angesprochen. Zur Hinführung auf den Kalman-Filter wird dann in Kapital 2 das Problem des Schätzens etwas allgemeiner behandelt. In Kapitel 3 erfolgt dann eine Herleitung des Kalman-Filters und die Untersuchung der Fehlerprozesse für den Fall, daß Modell und reales System übereinstimmen. Da für die zeitliche Entwicklung der Fehlerprozesse die Stabilität des Kalman-Filters von Bedeutung ist, wird auch diese besprochen. In Kapitel 4 werden schließlich die Fehlerprozesse für den Fall behandelt, daß Modell und reales System nicht übereinstimmen.
Identifikation von Amplituden und Phasensprüngen im Intensitätsverlauf eines Nd-Yag Festkörperlasers
(1987)
Zeitreihen und Modalanalyse
(1987)
Die Arbeit ist zu verstehen als ein Teil im großen Projekt der Universität Kaiserslautern, das sich unter dem Namen Technomathematik um die dringend erforderliche Verständigung zwischen Technik und Mathematik bemüht.; Der große Leitfaden war das Buch von Natke: Einführung in Theorie und Praxis der Zeitreihen- und Modalanalyse, Schilderung der wesentlichen dort verwendeten Ideen der indirekten Systemidentifikation sowie des wahrscheinlichkeitstheoretischen und physikalisch-technischen Hintergrundes.
Die vorliegende Arbeit beschäftigt sich mit der numerischen Behandlung Differential-Algebraischer Gleichungen (DAE" s). DAE" s treten beispielsweise bei der Modellierung der Dynamik mechanischer System, der Schaltkreissimulation sowie der chemischen Reaktionskinetik auf. Es werden Rosenbrock-Wanner ähnliche Verfahren zu deren Lösung hergeleitet und an technischen Modellen (Fahrzeugachse und Verstärker) getestet.
Nähen als dynamisches System
(1989)
Das Nähen und die Nähmaschine sind seit über hundert Jahren nahezu unverändert geblieben. Die Nähgeschwindigkeiten wurden gesteigert, der Nähvorgang automatisiert, aber das Prinzip ist gleichgeblieben.; Das entscheidende Problem beim Nähen ist die Erzeugung eines gut sitzenden Knotens. Um diesen Knoten zu bilden, wird der Oberfaden vom Greifer erfaßt und um den Unterfaden herumgeführt. Die Fadenführung mit beweglichen und festen Umlenkungen muß jetzt dafür sorgen, daß immer genügend Faden vorhanden ist, daß der Faden im Moment der Knotenbildung fest angezogen wird, aber muß verhindern, daß der Faden reißt.
Das Programmsystem PROMO wird in der Industrie zur Berechnung von instationären Gasströmungen in Mehrzylinder-Verbrennungsmotoren eingesetzt. PROMO wurde in den Jahren von 1970 bis 1977 an der Ruhr-Universität Bochum entwickelt. Nach den ersten Erfahrungen von Anwendern wurde das Programmsystem 1979/80 überarbeitet, und es entstand die neue Version PROMO 2.; Instationäre, kompressible und eindimensionale Rohrströmungen können berechnet werden. Außerdem sind die verschiedensten Rand- und Übergangsbedingungen zwischen den einzelnen Rohrstücken realisiert.; Einerseits hat sich PROMO in der Praxis bewährt, andererseits wurden auch deutliche Abweichungen der Rechenergebnisse von Messungen beobachtet. Aus dem Anwenderbereich hat die Firma Gillet (Hersteller von Auspuffanlagen) folgende Fragen aufgeworfen: Wie muß die Orts- bzw. Zeitschrittweite gewählt werden, um eine bestimmte Genauigkeit der numerischen Lösung zu sichern? Wie können die erzielten Ergebnisse theoretisch beurteilt werden (Fehlerschätzung)?; Deshalb erscheint eine Betrachtung des Programmsystems aus mathematischer Sicht sinnvoll.
On-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem
(1991)
Dieses Kapitel gliedert sich in drei Teile. Zuerst wird die Vorgehensweise in dieser Diplomarbeit zusammengefaßt. Dann folgen die gewonnenen Schlußfolgerungen mit einer Bewertung der verglichenen Ansätze. Der letzte Teil ist ein Ausblick auf die möglichen Anwendungen der Ergebnisse dieser Arbeit. Methodik Bei der Aufgabe, eine on-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem zu untersuchen, wurden folgende Schritte vorgenommen: " Klassifizierung der bisherigen Ansätze zur Beschleunigung der Kollisionserkennung mit einem Arm. Dabei wurde unterschieden zwischen dem Einsatz-Zeitpunkt und der Methode der Ansätze. " Modifikation des Weltmodells der Kollisionserkennung für den Einsatz von mehreren Roboterarmen. Kollisionsklassen wurden in einer formalen Darstellung eingeführt und ihre Eigenschaften betrachtet. " Untersuchung der Approximation von Objekten (z. B. Armsegmente und Hindernisse) durch Primitive. Dabei wurden Algorithmen zur Berechnung der Approximationen entworfen und implementiert. Unterschiedliche Strategien zur Abstandsberechnung mit Primitiven-Approximationen wurden entwickelt. " Untersuchung und Erweiterung der hierarchischen Modellierung für den Einsatz bei bewegten Objekten (wie z. B. Roboterarmen). Dazu wurden eine on-line Aktualisierung der Geometrie und eine Auswahl der optimalen Baumstruktur eingesetzt. " Implementierung der bisherigen und eigenen Beschleunigungs-Ansätze. Für die Durchführung von Experimenten wurden die Ansätze in ein Simulationssystem eingebunden und das Simulationssystem erweitert. " Vergleich und Bewertung der Beschleunigungs-Ansätze durch Messung von Laufzeiten und Qualität der resultierenden Abstandsvektoren. Untersuchung anderer einflußnehmender Parameter, wie z. B. der Sicherheitsabstand oder die Frequenz (Schrittweite) der Kollisionserkennung. Schlußfolgerungen Die Untersuchung der implementierten Ansätze zur on-line Kollisionserkennung erlaubt folgende Bewertung und Folgerungen: " Die on-line Kollisionserkennung mit Abstandsvektoren für mehrere Arme ist bei der Verwendung der entsprechenden Beschleunigungs-Ansätze möglich. Die Berechnungszeit pro Bewegungsschritt liegt im Bereich von wenigen Millisekunden. " Die eingeführte Unterteilung der Umwelt in Kollisionsklassen schafft einen einfachen Mechanismus zur Kollisionserkennung in Szenen mit mehreren bewegten Objekten. Die Kollisionsklassen ermöglichen eine systematische Kollisionserkennung für ein Mehrarm-Robotersystem. " Der Vergleich der Primitiven-Approximationen zeigt, daß der ausschließliche Einsatz der Bounding-Box als Primitiv zu besseren Ergebnissen führt als der Einsatz von mehreren Primitiven wie z. B. in [Adolphs]. Die Verbesserungen betreffen den Aufwand der Abstandsberechnung und die Qualität des Abstandsvektors. " Schon bei wenigen Objekten empfiehlt sich eine hierarchische Darstellung zur Beschleunigung der Kollisionserkennung, da sie zu sehr schnellen Abstandsberechnungen führt. Vor allem bei Szenen mit vielen Objekten ist eine hierarchische Darstellung unverzichtbar. " Durch das neue Konzept der dynamischen Hierarchien ist eine hierarchische Modellierung auch für bewegte Objekte möglich. Die dynamischen Hierarchien garantieren eine optimale Darstellung und ermöglichen eine relativ genaue Modellierung des Roboterarms. Bei der Kollisionserkennung für mehrere Roboterarme ist durch den Einsatz von dynamischen Hierarchien ein Beschleunigungsfaktor von 100 gegenüber dem einfachen Verfahren erreicht worden. Damit ist eine on-line Anwendung möglich. Ausblick Aufbauend auf den hier erzielten Ergebnissen sind folgende Anwendungen denkbar: " Eine on-line Bahnplanung basierend auf den berechneten Abstandsvektoren ist möglich. Von Punkt zu Punkt geplante Bahnen können mit Hilfe der Abstandsvektoren modifiziert und Ausweichtrajektorien generiert werden. " Die Potential-Feld-Methode zur lokalen Bahnplanung kann aufgrund den on-line berechneten Abstandsvektoren angewendet werden. " Auch exakte Abstände können schnell berechnet werden. Diese Abstandsberechnung wird effizient durch die Kombination der dynamischen Hierarchien mit einer A*-Suche. " Die schnelle Abstandsberechnung kann auch für andere Gebiete eingesetzt werden. Beispiele dafür sind der Aufbau von Konfigurations-Räumen oder die Layout-Planung. " Bei zu handhabenden Objekten, wie z. B. Werkstücke, kann das Konzept der Kollisionsklassen einfach um einen dynamischen Wechsel erweitert werden. Dabei wechselt z. B. ein Werkstück, wenn es von dem Arm gegriffen wird, die Klasse.
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von Fallbeispielen ein derzeit sehr aktuelles Thema. Da sich sehr unterschiedliche Fachgebiete und Disziplinen hiermit auseinandersetzen, existiert allerdings eine entsprechende Vielfalt an Begriffen und Sichten auf fallbasiertes Problemlösen. In diesem Beitrag werden wir einige für das fallbasierte Problemlösen wichtige Begriffe präzisieren bzw. begriffliche Zusammenhänge aufdecken. Die dabei verfolgte Leitlinie ist weniger die, ein vollständiges Begriffsgebäude zu entwickeln, sondern einen ersten Schritt in Richtung eines einfachen Beschreibungsrahmens zu gehen, um damit den Vergleich verschiedener Ansätze und Systeme zu ermöglichen. Auf dieser Basis wird dann der derzeitige Stand der Forschung am Beispiel konkreter Systeme zur fallbasierten Diagnose dargelegt. Den Abschluss bildet eine Darstellung bislang offener Fragen und interessanter Forschungsziele.
Das sind die Texte der Vorlesungen, die ich im Dezember 1988 - März 1989 an der Universität Kaiserslautern hielt. Die Sektionen 1-4 enthalten Materialien, die in Russisch im Buch [33] und in früheren Arbeiten [27,28] [30-33] publiziert sind.
Sektion 5 enthält neue Ergebnisse, die wir während meines Aufenthaltes in Kaiserslautern in Zusammenarbeit mit Herrn Robert Plato
(TU Berlin) ausarbeiteten (siehe [21,22]). Sektion 6 ist eine Erweiterung der Arbeit [31].
In Laufe der letzten Jahrzehnte ist der Prozeß der Softwareentwicklung methodisiert und zum Teil auch formalisiert worden. I.a. unterteilt man den Vorgang in grobe Stufen, Entwicklungsphasen genannt. Jede dieser Phasen betrachtet den entstehenden Entwurf des Projekts aus verschiedenen Sichtweisen. Aus dieser Sichtweise resultieren etliche Modelle und Darstellungsformen und mit ihnen auch verschiedene rechnergestützte Entwicklungswerkzeuge. In frühen Phasen sind beispielsweise Datenflußdiagramme eine nützliche Darstellungsform, in späteren konkrete Algorithmenbeschreibungen. Entwurfsänderungen im Laufe der Entwicklungszeit müssen in allen betroffenen Ebenen neu formuliert werden, eine automatisierte phasenübergreifende Behandlung ist
daher i.a. nicht oder nur teilweise möglich. Um effizienter und weniger fehleranfällig arbeiten zu können, wurden aus diesem Grund in letzter Zeit Ansätze gemacht, den gesamten Softwareentwicklungsprozeß von der ·Anforderungsanalyse bis hin zur Wartungsphase einem einheitlichen Konzept und einer einheitlichen Darstellungsform zu unterwerfen, die sich darüberhinaus zur Realisation auf Rechnersystemen eignen. Der vorliegende Bericht entstand im Rahmen eines solchen Projekts. Es wurden eine allumfassende Systementwurfssprache und die dazugehörigen Konzepte entwickelt, die sämtliche Entwurfsphasen und die wichtigsten -prinzipien zu unterstützen vermögen. Es liegen bereits zwei Arbeiten zu diesem Projekt vor. Sie stellen im wesentlichen neben der eigentlichen Definition der Systementwurfssprache zwei Entwicklungswerkzeuge vor, die auf einer einheitlichen Datenbasis operieren [GK-91, Kel-90]. Ein Bereich innerhalb der Forschungen ist die Wiederverwendung von Softwareentwürfen. Schon existierende Lösungen sollen bei der Entwicklung eines neuen Entwurfs durch Vergleich und Bewertung des Grades der Ähnlichkeit ausgewählt und dem Entwickler nutzbar gemacht werden. Dieser Bericht beschäftigt sich mit einem Kernpunkt der Wiederverwendung, dem Vergleich zweier Softwareentwürfe. Es werden zunächst grundsätzliche Konzepte ausgearbeitet, die den Ähnlichkeitsaspekt unter verschiedenen Gesichtspunkten charakterisieren. Daraufhin werden Algorithmen konstruiert, die verschiedenartige Vergleichsfunktionen realisieren und zu einer Gesamtfunktion kombinieren. Um zu einem späteren Zeitpunkt die Leistungsfähigkeit dieser
Funktionen in der Praxis untersuchen zu können, liegt darüberhinaus ein lauffähiges
Programm vor.
A Remark on Primes of the Form \(2^{3n}a + 2^{2n}b+2^nc+1\). Necessary and sufficient conditions for the numbers in the title to be prime are given. The tests are well suited for practical purposes.
In der CAGD Literatur werden häufig Ableitungen und Graderhöhungen von Bezierkurven und -flächen wiederum in Bezierform angegeben [1][2][3][6]. Meistens werden diese Darstellungen nur für theoretische Betrachtungen verwendet, z.B. geometrischer Deutung von Stetigkeiten zwischen angrenzenden Flächenstücken. Für praktische Anwendungen reicht die Menge der Operationen jedoch nicht aus. Farouki und Rajan [4] zeigten, daß die Resultate arithmetischer Operationen, wie Addition und Multiplikation auf Bezierkurven auch als Bezierkurven darstellbar sind. Hier werden wir die Operationen auf polynomiale und rationale Tensorprodukt Bezierflächen und Flächen über Dreiecken ausdehnen. Eine Erweiterung auf rationale Flächen ermöglicht insbesondere die Ausführung einer Division, wie sie für viele Anwendungen benötigt wird. Das Rechnen mit Flächen hat im Gegensatz zu punktweisen Auswertungen den Vorteil gleichzeitig mit Hilfe von notwendigen Bedingungen an das entstandene Beziernetz sichere Ergebnisabschätungen angeben zu können. Diese lassen sich für adaptive Verfahren nutzen und sind insbesondere dort wichtig, wo es auf exakte Aussagen über das Verhalten von Flächen ankommt, wie z.B. bei der Qualitätsanalyse von Freiformflächen [5]. Mit Hilfe der hier vorgestellten Operationen läßt sich u.a. an Vorzeichenwechseln erkennen, ob eine zu untersuchende Bezierfläche konvex ist oder nicht (siehe Kapitel 4). Außerdem können Fehler, die bei punktweisen Auswertungen auf Gittern mit großer Maschenweite entstehen, vermieden werden. Nachdem in Kapitel 2 die zum Verständnis nötigen Definitionen und Schreibweisen erläutert wurden, werden in Kapitel 3 die grundlegenden Operationen für eine Arithmetik
auf Bezierflächen beschrieben. Dabei werden Formeln angegeben, die die Bezierpunkte und Gewichte der Ergebnisfläche aus denen der Operandenflächen bestimmen. Durch Aneinanderreihung und Verkettung einzelner Operationen lassen sich dann komplexe Berechnungen mit der gesamten Fläche ausführen. Zum Schluß werden in Kapitel 4 einige Beispiele aus dem Bereich der Qualitätsanalyse von Freiformflächen angegeben.
Aus der Körpertheorie ist der Satz von der Normalbasis bekannt , der besagt, dass es zu jeder endlichen Galoiserweiterung L/K ein Element in L gibt, dessen Konjugierte unter der Galoisgruppe von L/K eine K-Basis von L bilden. Ein solches Element wird als regulär in L/K bezeichnet, die zugehörige K-Basis von L heisst Normalbasis. Für einen Zwischenkörper M einer Galoiserweiterung L/K ist nach dem Hauptsatz der Galoistheorie auch L/M galoissch und besitzt infolgedessen eine Normalbasis. Ist ein reguläres Element von L/K auch regulär in L/M für alle Zwischenkörper M von L/K, so wird es vollständig regulär in L/K genannt. Dies wirft die Frage auf, ob es in jeder Galoiserweiterung ein vollständig reguläres Element gibt. Wie sich zeigt, kann diese Frage für alle endlichen Galoiserweiterungen bejaht werden. Ein reguläres Element x einer Galoiserweiterung L/K ist durch zwei Eigenschaften gekennzeichnet: zum einen wird L von x über K erzeugt und zum anderen sind die Konjugierten von x unter der Galoisgruppe von L/K linear unabh"angig über K. Letzteres besagt gerade, dass die Nullstellen des Minimalpolynoms von x über K linear unabhängig über K sind. Hat x diese zweite Eigenschaft, so heisst x frei über K. Ist x ein Element aus einer algebraische Hülle A von K, so wird x vollst"andig frei über K genannt, wenn für jeden Zwischenkörper M von A/K die Nullstellen des Minimalpolynoms von x über M linear unabhängig über M sind. Es lässt sich zeigen, dass ein x aus A genau dann vollständig frei über K ist, wenn x frei über allen Zwischenkörpern M von N/K ist, wobei N den Zerfällungskörper des Minimalpolynoms von x über K bezeichnet. Dass es in jeder endlichen Galoiserweiterung L/K ein vollständig reguläres Element gibt, ist daher ein Spezialfall der Aussage, dass es in jeder endlichen, separablen Körpererweiterung L/K ein über K vollständig freies Element gibt, welches L erzeugt. Das erste Ziel dieser Arbeit ist deshalb der Beweis, dass jede endliche, separable Körpererweiterung L/K von einem über K vollständig freien Element erzeugt wird. Ist K ein Körper mit unendlich vielen Elementen, so ist der Beweis eine Verallgemeinerung des Beweises von E. Artin zur Existenz von Normalbasen in Galoiserweiterungen. Weitaus schwieriger ist der Fall, wenn K ein endlicher Körper ist. Dann ist L/K stets eine Galoiserweiterung und die über K vollständig freien Elemente, die L über K erzeugen, sind genau diejenigen, die in L/K vollständig regulär sind. Ist G die Galoisgruppe von L/K, so lässt sich L zu einem KG-Modul machen, der als solcher wegen des Satzes von der Normalbasis sogar isomorph zu KG ist. Ein Element aus L ist genau dann regulär in L/K, wenn es in keinem echten KG-Teilmodul von L liegt. Entsprechendes gilt natürlich auch für alle Zwischenkörper M von L/K. Das heisst, ein Element aus L ist genau dann vollständig regulär in L/K, falls es für keinen Zwischenkörper M von L/K in einem echten M U -Teilmodul von L liegt; hierbei bezeichnet U die Galoisgruppe von L/M . In Abschnitt 2 wird gezeigt, dass der Beweis auf den Fall, dass G eine zyklische Gruppe von Primzahlpotenzordnung ist, reduziert werden kann. Durch nähere Betrachtung der M U -Teilmoduln von L für diese Situation, wobei bereits allgemeiner K und L nicht als endlich vorausgesetzt werden, lässt sich dann zeigen, dass es stets ein Element in L gibt, das vollständig regulär in L/K ist. Die Tatsache, dass es in jeder Galoiserweiterung L/K ein vollständig reguläres Element gibt, lässt natürlich nicht darauf schliessen, dass jedes reguläre Element in L/K auch schon vollst"andig regulär in L/K ist. Dies leitet über zu der von C. C. Faith gestellten Frage, wann in einer endlichen, abelschen Galoiserweiterung jedes reguläre Element schon vollständig regulär ist; eine solche Galoiserweiterung heisst dann vollst"andig regulär. Im letzten Abschnitt wird diese Frage für Galoiserweiterungen L/K mit zyklischer Galoisgruppe G von Primzahlpotenzordnung beantwortet. Ist G = qn mit einer Primzahl q, so gibt es zwei Möglichkeiten: entweder q ist gleich oder q ist ungleich der Charakteristik von K. Im ersten Fall lässt sich relativ einfach zeigen, dass L/K stets vollständig regulär ist, selbst wenn G nur als abelsche q-Gruppe vorausgesetzt wird. Ist hingegen q ungleich der Charakteristik von K, so ist weit mehr Aufwand erforderlich. Die Untersuchung der Strukturen von L als M U -Modul für die verschiedenen Zwischenkörper M von L/K, - hierbei ist U wieder die Galoisgruppe von L/M -, die schon beim Existenzbeweis von vollständig regulären Elementen durchgeführt wird, ist dabei das entscheidende Hilfsmittel. Unter den gemachten Voraussetzungen ergibt sich dann folgende Charakterisierung einer vollständig regulären Erweiterung: L/K ist genau dann vollständig regulär, wenn L / K[iq] = K gilt, wobei i eine primitive qnte Einheitswurzel ist. Wird K zusätzlich als endlich angenommen, so l"asst sich dieses notwendige und hinreichende Kriterium sogar recht einfach überprüfen.
In der nichtrelativistischen Schrödinger-Theorie hat sich die nach, H. A. Kramers und L. Brillouin benannte WKB - Näherung eine weitreichende Akzeptanz verschafft. Obwohl diese Methode meist nur als WKB-Methode bezeichnet wird, war von H. Jeffreys zuerst eine solche Näherungsmethode vorgestellt worden. Es liegt nahe, in einer relativistischen Theorie eine entsprechende Näherungsmethode zu diskutieren. Ich habe verschiedene semiklassische Näherungen für die radiale Dirac-Gleichung untersucht. Analytische und numerische Diskussionen der verschiedenen Methoden haben gezeigt, daß die Güte der Näherung wesentlich von der Entkopplung der Radialgleichung abhängt. Speziell für das Coulomb-Potential habe ich eine näherungsfreie Entkopplung entwickelt, welche zu einer WKB-Quantenbedingung führt, die mit der Feinstrukturformel von Sommerfeld übereinstimmt. Für viele physikalisch relevante Potentiale, welche das Coulomb-Potential nur leicht abändern, wird somit eine weitaus größere Genauigkeit als bei herkömmlichen WKB-Näherungen erster Ordnung erreicht. Außerdem habe ich höhere Korrekturen zur WKB-Näherung untersucht.
Grob skizziert soll das System in der Lage sein, aus einer vorgegebenen Konstruktionszeichnung eines Drehteils einen Plan f"ur die maschinelle Fertigung dieses Teils zu erstellen. Ausgehend vom Ansatz des fallbasierten Schliessens besteht die Aufgabe des Systems darin, aus einer Menge bekannter Drehteile, für die bereits ein Fertigungsplan erstellt worden ist, das Teil zu finden, dessen Darstellung zu der des eingegebenen Teils am ähnlichsten ist. Der Plan dieses ähnlichsten Teils ist dann so zu modifizieren und anzupassen, dass damit das vorgegebene Teil gefertigt werden kann. Ein zentrales Problem ist hierbei die Definition des Ähnlichkeitsbegriffes, der auf jeden Fall den fertigungstechnischen Aspekt berücksichtigen muss.
Fallbasiertes Schliessen ist ein derzeit viel diskutierter Problemlösesansatz. Dieser Beitrag gibt einen Überblick über den aktuellen Stand der Forschung auf diesem Gebiet, insbesondere im Hinblick auf die Entwicklung von Expertensystemen (einen ersten Schritt in diese Richtung stellte bereits der Beitrag von Bartsch-Spörl, [BS87] dar). Dazu stellen wir die dem fallbasierten Schliessen zugrundeliegenden Mechanismen vor. Ergänzt wird dies durch den Vergleich mit alternativen Verfahren wie z.B. regelbasiertes, analoges und induktives Schliessen sowie eine ausführliche Literaturübersicht.
Forschungsprojekte im Bereich des fallbasierten Schliessens in den USA, die Verfügbarkeit kommerzieller fallbasierter Shells, sowie erste Forschungsergebnisse initialer deutscher Projekte haben auch in Deutschland verstärkte Aktivitäten auf dem Gebiet des fallbasierten Schliessens ausgelöst. In diesem Artikel sollen daher Projekte, die sich als Schwerpunkt oder als Teilaspekt mit fallbasierten Aspekten beschäftigen, einer breiteren Öffentlichkeit kurz vorgestellt werden.
Jede Wissenschaft entfaltet sich in einem Spannungsverhältnis zu ihren Nachbardisziplinen. In diesem Beitrag wird insbesondere das Disziplinenpaar Mathematik-Philosophie in den Blick genommen. Dies geschieht entlang der Leitfrage, ob und gegebenenfalls wie Philosophie auf die Entwicklung und Ausformung der Mathematik Einfluß genommen hat. Dazu wird nach philosophischen Spuren in der Mathematik gefragt, wobei jene historischen Konstellationen bevorzugt betrachtet werden, die eine grundlegende Änderung im Mathematikverständnis erbracht haben. Deshalb gilt das Hauptinteresse dieser Untersuchung dem Verhältnis von Philosophie und Mathematik in der klassischen Antike, bei Kant und in der Gegenwart.
Der ProLan-X - Sprachreport
(1992)
Bei der Realisierung großer Software-Projekte treten immer wieder Probleme auf, was die
Koordination der Mitarbeiter, die Ausnutzung der vorhandenen Ressourcen und nicht zuletzt die
Qualität der erzeugten Produkte angeht. Um die Vorgänge bei der Produktion von Software
durchschaubarer und verständlicher zu machen, versucht man, diese aus der Sicht von Meta-Modellen zu beschreiben. Dabei fließen die individuellen Rahmenbedingungen einer jeden
Entwicklungsumgebung ein; die vorhandenen Ressourcen werden ebenso modellien wie die
durchzuführenden Tätigkeiten und ihre Abhängigkeiten. Die Beschreibungssprache für den Software-Prozeß ProLan-X dient der (konkreten) Beschreibung der Bestandteile des Meta-Modells MoMo, das ebenfalls in dieser Arbeitsgruppe entwickelt wurde [Schramm]. Die am Projekt beteiligten Personen, Hardware- und Software-Ressourcen und ihre Aufgaben werden in möglichst natürlicher Weise verhaltensorientien beschrieben. Aus dieser Beschreibung kann eine Ablaufumgebung generien werden, die die Durchführung des Projekts unterstützt und protokolliert. Der vorliegende Bericht faßt die Eigenschaften der Sprache ProLan-X zusammen und erläuten ihre Verwendung. Er setzt das MoMo-Modell als bekannt voraus.
Vorliegender Bericht ist eine Studie für einen möglichen Immissionsdatenverbund in Österreich. Die Grundlage dieser ersten Version der Studie sind Gespräche, welche Anfang Januar 1992 im Forschungszentrum Seibersdorf und im Umweltbundesamt in Wien stattfanden. Seit einigen Jahren beschäftigt sich die von mir geleitete Gruppe Umweltinformatik an der Universität Kaiserslautern mit den besonderen Schwierigkeiten bei der Vernetzung und Integration heterogener Systeme, welche darüberhinaus unter unterschiedlichen Vollzugshoheiten stehen können. Wir haben diese Problemstellung bei der Führung verfahrenstechnischer Anlagen weitestgehend gelöst und beschäftigen uns, zum Teil in Zusammenarbeit mit Kollegen aus anderen Institutionen, nun hauptsächlich mit der Umsetzung dieser Lösungen in verteilten Systemen im Umweltschutz. Unsere derzeitigen Arbeiten haben zum Ziel, möglichst allgemeine Ansätze für die Integration in verteilten, offenen Umweltinformationssystemen (UIS) zu entwickeln. Dabei sind wir uns darüber bewußt, daß diese allgemeinen Ansätze nur aus den konkreten Gegebenheiten, Zielen und Vorstellungen abgeleitet werden können. Diese Studie soll zwei Dinge bezwecken: einerseits will ich versuchen, den Blick dafür zu öffnen, wie ein Immissionsdatenverbund aussehen könnte, welcher allen Betreibern eine hohe Funktionalität und großen Komfort bietet. Es soll auch diskutiert werden, welcher technischer und organisatorischer Aufwand unter Verwendung welcher Konzepte entsteht. Auch wenn man sich in naher Zukunft nicht dazu entschließen sollte, die von mir vorgeschlagenen oder ähnliche Wege zu gehen, so könnte man doch bei der Realisierung auf
niedrigerem funktionalen Niveau zukünftige Möglichkeiten schon heute berücksichtigen und damit zukünftige Entwicklungen begünstigen. Ich hoffe, daß die Leser dieser Studie in dieser Hinsicht von meinen Erfahrungen profitieren. Zum zweiten ist diese Studie für meine Arbeitsgruppe ein Einstieg in die konkreten Problemstellungen großer verteilter UIS. Meßnetze sind inhärente Komponenten solcher UIS und weisen aufgrund ihrer technischen Orientierung interessante Merkmale auf. Daher erhoffen wir uns, hier wichtige Erkenntnisse auch für unsere Arbeiten zu gewinnen. Im Prinzip weiß heute noch niemand, wie man einen großen Umweltdatenverbund organisieren könnte. Ein Teil eines solchen Verbundes sind die Meßnetze. Die damit verbundenen Probleme alleine technischer Art sind riesig und es gibt bisher nur wenige Personen, die in der Umweltinformatik sich überhaupt mit diesen Themen beschäftigen. Diese Studie versteht sich daher hochgradig als Diskussionpapier. Jegliche geäußerten Ideen und Konzepte sollen von Lesern kritisch bewertet, notfalls angegriffen und vernichtend geschlagen werden - sofern sie dies verdienen. Diese Diskussion ist notwendig, damit wir überhaupt einmal eine Ahnung davon bekommen, wohin die Umweltinformatik der verteilten Systeme gehen kann.
In diesem Papier vergleichen wir Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung. Wir zeigen, wie ein integrierter Ansatz die Erstellung von Expertensystemen erleichtert. Das von uns entwickelte und implementierte System ermoeglicht einen "sanften" Entwicklungsprozess ausgehend von initialen Protokollen zu einer semi-formale Strukturierung in Form eines getypten Hypertextes. Dem Hypertext ist eine aufgabenorientierte Struktur aufgepraegt, so dass eine anschliessende Operationalisierung in Form eines Expertensystems vereinfacht wird. Die in diesem Prozess erzeugte Zwischenrepraesentation (der Hypertext) wird von einem Interpreter direkt zur interaktiven Loesung von Problemen benutzt, wobei die einzelnen Aufgaben auf die verschiedenen Sachbearbeiter verteilt werden. Abschliessend erlaeutern wir, dass Hypertext und Expertensysteme nur die Raender eines Kontinuums einer allgemeinen Wissensverarbeitung sind.
In diesem Papier stellen wir einen Interpreter vor, der die Validierung von konzeptuellen Modellen bereits in fruehen Entwicklungsphasen unterstuetzt. Wir vergleichen Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung und erlaeutern, wie ein integrierter Ansatz die Erstellung von Expertensystemen vereinfacht. Das von uns entwickelte Knowledge Engineering Werkzeug ermoeglicht einen "sanften" Uebergang von initialen Protokollen ueber eine semi-formale Spezifikation in Form eines getypten Hypertextes hin zu einem operationalen Expertensystem. Ein Interpreter nutzt die in diesem Prozess erzeugte Zwischenrepraesentation direkt zur interaktiven Loesung von Problemen, wobei einzelne Aufgaben ueber ein lokales Rechnernetz auf die Bearbeiter verteilt werden. Das heisst, die Spezifikation des Expertensystems wird direkt fuer die Loesung realer Probleme eingesetzt. Existieren zu einzelnen Teilaufgaben Operationalisierungen (d.h. Programme), dann werden diese vom Computer bearbeitet.
Die Lösung einer Konfigurationsaufgabe in technischen Domänen besteht aus einer Menge von Bauteilen, die miteinander verträglich sind und in ihrem Zusammenspiel die gegebenen Anforderung erfüllen. Eine gängige Vorgehensweise bei der Suche nach einer Lösung ist die schrittweise Spezialisierung einer abstrakten Aufgabenstellung oder ihre Zerlegung in Teilaufgaben. Ein Konfigurationssystem, das diese Vorgehensweise unterstützt, muss Wissen enthalten, wie eine Aufgabe spezialisiert oder in Teilaufgaben zerlegt werden kann, welche konkreten Bauteile zur Erfüllung einer ausreichend detaillierten Teilaufgabe verwendet werden können und ob alle Teile einer Lösung miteinander verträglich sind. Aufgrund dieses Wissens kann eine konsistente Lösung durch Tiefensuche hergeleitet werden.
Neuronale Netze sind ein derzeit (wieder) aktuelles Thema. Trotz der oft eher schlagwortartigen
Verwendung dieses Begriffs beinhaltet er eine Vielfalt von Ideen, unterschiedlichste methodische
Ansätze und konkrete Anwendungsmöglichkeiten. Die grundlegenden Vorstellungen sind dabei nicht neu, sondern haben eine mitunter recht lange Tradition in angrenzenden Disziplinen wie Biologie, Kybernetik , Mathematik und Physik . Vielversprechende Forschungsergebnisse der letzten Zeit haben dieses Thema wieder in den Mittelpunkt des Interesses gerückt und eine Vielzahl neuer Querbezüge zur Informatik und Neurobiologie sowie zu anderen, auf den ersten Blick weit entfernten Gebieten offenbart. Gegenstand des Forschungsgebiets Neuronale Netze ist dabei die Untersuchung und Konstruktion informationsverarbeitender Systeme, die sich aus vielen mitunter nur sehr primitiven, uniformen Einheiten zusammensetzen und deren wesentliches Verarbeitungsprinzip die Kommunikation zwischen diesen Einheiten ist, d.h. die Übertragung von Nachrichten oder Signalen. Ein weiteres
Charakteristikum dieser Systeme ist die hochgradig parallele Verarbeitung von Information innerhalb
des Systems. Neben der Modellierung kognitiver Prozesse und dem Interesse, wie das menschliche Gehirn komplexe kognitive Leistungen vollbringt, ist über das rein wissenschaftliche Interesse hinaus in zunehmendem Maße auch der konkrete Einsatz neuronaler Netze in verschiedenen technischen Anwendungsgebieten zu sehen. Der vorliegende Report beinhaltet die schriftlichen Ausarbeitungen der Teilnehmerinnen des Seminars Theorie und Praxis neuronaler Netze , das von der Arbeitsgruppe Richter im Sommersemester 1993 an der Universität Kaiserslautern veranstaltet wurde. Besonderer Wert wurde darauf gelegt, nicht nur die theoretischen Grundlagen neuronaler Netze zu behandeln, sondern auch deren Einsatz in der Praxis zu diskutieren. Die Themenauswahl spiegelt einen Teil des weiten Spektrums der Arbeiten auf diesem Gebiet wider. Ein Anspruch auf Vollständigkeit kann daher nicht erhoben werden. Insbesondere sei darauf verwiesen, daß für eine intensive, vertiefende Beschäftigung mit einem Thema auf die jeweiligen Originalarbeiten zurückgegriffen werden sollte. Ohne die Mitarbeit der Teilnehmerinnen und Teilnehmer des Seminars wäre dieser Report nicht möglich gewesen. Wir bedanken uns daher bei Frank Hauptmann, Peter Conrad, Christoph Keller, Martin Buch, Philip Ziegler, Frank Leidermann, Martin Kronenburg, Michael Dieterich, Ulrike Becker, Christoph Krome, Susanne Meyfarth , Markus Schmitz, Kenan Çarki, Oliver Schweikart, Michael Schick und Ralf Comes.
W-Lisp Sprachbeschreibung
(1993)
W-Lisp [Wippennann 91] ist eine Sprache, die im Bereich der Implementierung höherer
Programmiersprachen verwendet wird. Ihre Anwendung ist nicht auf diesen Bereich beschränkt. Gute Lesbarkeit der W-Lisp-Notation wird durch zahlreiche Anleihen aus dem Bereich der bekannten imperativen Sprachen erzielt. W-Lisp-Programme können im Rahmen eines Common Lisp-Systems ausgeführt werden. In der WLisp Notation können alle Lisp-Funktionen (inkl. MCS) verwendet werden, so daß die Mächtigkeit von Common-Lisp [Steele 90] in dieser Hinsicht auch in W-Lisp verfügbar ist.
In den Modellierungssystemen des CAD/CAM werden oft unterschiedliche Methoden zur mathematischen Beschreibung von Freiformkurven und -flächen eingesetzt. Als Basisfunktionen können sowohl Monome, Bernstein-Polynome, B-Spline-Basisfunktionen als auch nicht lineare Funktionen auftreten. In den einzelnen CAD-Systemen kann der maximal zulässige Grad dieser Basisfunktionen variieren. Müssen nun Daten zwischen verschiedenen CAD-Systemen ausgetauscht werden, so muß u. U. eine Basistransformation
und/oder eine Gradanpassung durchgeführt werden. Diese Transformationen sind i.a. nicht exakt möglich. Hier sind geeignete, möglichst optimale Approximationen nötig. Bisher wurden verschiedene Verfahren entwickelt. Das älteste geht zurück auf Forrest [Forr72]. Farin [FAR90] invertiert den Prozeß der Graderhöhung. Watkins und Worsey [Wat88] sowie Lachance [Lach88] reduzieren den Polynomgrad in der Tschebyscheff-Basis. Hoschek et al. [Hos89] sowie Plass und Stone [Plas83] approximieren die Kurve bzw. Fläche punktweise. Dadurch lassen sich alle Kurven- und Flächenrepräsentationen durch eine Bézier-Darstellung approximieren. Ein Approximationsfehler kann jedoch auch nur punktweise garantiert werden. Durch einen anschließenden Parameteriterationsprozeß läßt sich eine weitere Approximationsverbesserung erzielen. Eine solche Parameterkorrektur ist jedoch nur dann sinnvoll, wenn die Parametrisierung der Approximationskurve bzw. -fläche frei gewählt werden kann. In Fällen, in denen die Funktionswerte dei; zu approximierenden Flächen bzgl. ihrer Parameterwerte mit anderen Flächen korrespondieren, darf keine Parameteränderung durchgeführt werden, wie z.B. bei der Approximation sogenannter Eigenschaftsflächen, die eine bestimmte Eigenschaft einer anderen Fläche, wie etwa die Gausskrümmung oder die Normalenrichtung darstellen. In dieser Arbeit wird ein Verfahren zur optimalen Gradreduktion von Bézierkurven und -flächen vorgestellt. Damit eine \(C^0\)-stetige Approximation innerhalb einer vom Benutzer vorgegebenen Fehlertoleranz durchgeführt werden kann, muß die Approximation mindestens eine Berührordnung ersten Grades mit der Originalkurve bzw. -fläche aufweisen. Mit Hilfe arithmetischer Operationen auf Bézierdarstellungen [Faro88], [Schr92] werden lineare Gleichungssysteme für eine optimale Belegung der freien Parameter aufgestellt, sowie eine Fehlerkurve bzw. -fläche in Bézierform berechnet, um die Einhaltung einer Fehlertoleranz zu gewährleisten.
In fallbasierten Systemen ist es notwendig, ein über die normalen Datenbank-Suchaufgaben hinausgehendes Retrieval bereitzustellen. Hier müssen die n zu einem Anfragefall ähnlichsten Fälle aus einer Fallbasis gesucht werden.In dieser Diplomarbeit wird ein solches System zum ähnlichkeitsbasierten Retrieval von Fällen entwickelt. Dieses System übernimmt die Verwaltung der Fälle unter Verwendung der Datenstruktur des k-d-Baumes, hierbei werden die k-d-Bäume so aufgebaut, dass sie in optimaler Weise die sogenannte Best-Match- bzw. Nearest-Neighbour-Suche ermöglichen. Hierbei stand bereits ein existierendes System zur Verfügung, welches diese Suche zwar schon unterstützt, aber noch eine unbefriedigende Performance aufwies.
Die vorliegende Arbeit konzentriert sich auf Analysen unterschiedlicher Lernstrategien für CBL-Systeme anhand einer universellen Testumgebung mit variablen Fallbasen. Keine der untersuchten dynamischen Lernregeln und keine feste Belegung der globalen Konstanten im Ähnlichkeitsmass besitzt im statistischen Mittel signifikante Vorzüge. Dagegen zeigen sich Abhängigkeiten des Lernerfolgs von bestimmten Merkmalen der Fallbasis. Deswegen wird als Synthese ein auto-adaptives Lernschema vorgeschlagen, das die Eigenheiten verschiedener Fallbasen berücksichtigt und durch die Wahl spezifischer Lernstrategien ein deutlich verbessertes Ergebnis zu erzielen vermag.
Es wird anhand von Beispielen, an denen der Autor in der Vergangenheit gearbeitet hat, gezeigt, wie man Modelle der exakten Naturwissenschaften auf wirtschaftliche Probleme
anwenden kann. Insbesondere wird diskutiert, wo Grenzen dieser Übertragbarkeit liegen. Die Arbeit ist eine Zusammenfassung eines Vortrags, der im SS 1992 im Rahmen des Studium Generale an der Universität Kaiserslautern gehalten wurde.
Ohne auf wesentliche Aspekte der in [Bergstra&al.89] vorgestellten alge-braischen Spezifikationssprache ASF zu verzichten, haben wir ASF um die folgenden Konzepteerweitert: Während in ASF einmal exportierte Namen bis zur Spitze der Modulhierarchie sichtbarbleiben müssen, ermöglicht ASF + ein differenziertes Verdecken von Signaturnamen. Das fehlerhafteVermischen unterschiedlicher Strukturen, welches in ASF beim Import verschiedener Aktualisie-rungen desselben parametrisierten Moduls auftritt, wird in ASF + durch eine adäquatere Form derParameterbindung vermieden. Das neue Namensraum_Konzept von ASF + erlaubt es dem Spe-zifizierer, einerseits die Herkunft verdeckter Namen direkt zu identifizieren und anderseits beimImport eines Moduls auszudrücken, ob dieses Modul nur benutzt oder in seinen wesentlichen Ei-genschaften verändert werden soll. Im ersten Fall kann er auf eine einzige global zur Verfügungstehende Version zugreifen; im zweiten Fall muß er eine Kopie des Moduls importieren. Schließlicherlaubt ASF + semantische Bedingungen an Parameter und die Angabe von Beweiszielen.
Planung ist ein vielfach untersuchtes Gebiet im Bereich der Künstlichen Intelligenz. Die hier vorgestellte Arbeit ist in diesem Gebiet angesiedelt: es geht um ein Planungssystem, welches auf die Unterstützung der Arbeitsplanerstellung in der computerintegrierten Fertigung abzielt. Der Bereich der computerintegrierten Fertigung ist allerdings nur als ein spezieller Anwendungsbereich für das System zu sehen.
In dieser Arbeit wird eine Kombinationsmöglichkeit von fallbasiertem und induktivem Schliessen, basierend auf k-d- und Entscheidungsbäumen, entwickelt. Dabei wurde versucht, die Vorteile des induktiven Mechanismus, wie z. B. die sehr effiziente Klassifiz ierung und automatische Generierung, in den fallbasierten Mechanismus zu integrieren. Die Aufgabe zerfällt dabei in zwei Teilaufgaben, die im folgenden zusammengefasst werden.
Planabstraktion ist eine Möglichkeit, den Aufwand bei der Suche nach einem Plan zur Lösung eines konkreten Problems zu reduzieren. Hierbei wird eine konkrete Welt mit einer Problemstellung auf eine abstrakte Welt abgebildet. Die abstrakte Problemstellung wird nun in der abstrakten Welt gelöst. Durch die Rückabbildung der abstrakten Lösung auf eine konkrete Lösung erhält man eine Lösung für das konkrete Problem. Da die Anzahl der zur Lösung des abstrakten Problems benötigten Operationen geringer ist und die abstrakten Zustände und Operatoren einer weniger komplexen Beschreibung genügen, wird der Aufwand zur Suche einer konkreten Problemlösung reduziert.
Die dreidimensionale Darstellung hybrider Datensätze hat sich in den letzten Jahren als
ein wichtiger Teilbereich der wissenschaftlichen Visualisierung etabliert. Hybride Datensätze enthalten sowohl diskrete Volumendaten als auch durch geometrische Primitive
definierte Objekte. Bei der visuellen Verarbeitung einer gegebenen Szene spielen Schatteninformationen eine wichtige Rolle, indem sie die Beziehungen von Objekten untereinander verständlich machen. Wir beschreiben ein einfaches Verfahren zur Berechnung von Schatteninformation, das in ein bestehendes System zur Visualisierung hybrider Datensätze integriert wurde. An einem Beispiel aus der klinischen Anwendung werden die Ergebnisse illustriert.
Aufbau eines Diodenlasers mit externem Resonator zur Amplituden-/Phasen-modulations-Spektroskopie
(1994)
In dieser Diplomarbeit wird die Konstruktion und der Aufbau eines externen Resonators für einen Diodenlaser beschrieben. Es wurde sowohl ein Littrow als auch ein Littman-Resonator aufgebaut. Der Littrow-Resonator besitzt eine justierbare mechanische Synchronisation zwischen Wellenlängenselektion und Resonatorlänge. Damit konnte ein kontinuierlicher Durchstimmbereich ohne Modensprünge über einen Spektralbereich bis 240GHz im nahen Infrarot bei einer Wellenlänge von 780 bis 850nm erreicht werden. Die Eigenschaften dieses Littman-Laser-Systems wurden untersucht und unter anderem mehrere überraschende Strahlverläufe im Resonator durch Mehrfachreflexionen am Endspiegel und Gitter des Resonators gefunden. Die Restreflexion der verwendeten entspiegelten Laserdiode konnte experimentell abgeschätzt werden. Weiterhin wurde eine ausführliche Modellrechnung über die Eigenschaften eines Lasers mit externem Resonator durchgeführt und eine theoretische Erklärung für das beobachtete, asymmetrische Modensprungverhalten des Diodenlasers mit externem Resonator gefunden. Mit diesem Lasersystem wurde das Absorptionsspektrum von deuteriertem Azetylen (C2D2) um 12000 Wellenzahlen aufgenommen.
Diese Diplomarbeit hat zwei Schwerpunkte: Zum einen werden die Gebiete fallbasierte Planung und Arbeitsplanung unter- sucht, bisherige Methoden und Systeme vorgestellt und deren Fähigkeiten und Schwächen herausgearbeitet. Dieser Teil macht etwa die Hälfte der Arbeit aus. Zum anderen wird, basierend auf den Ergebnissen dieser Untersuchungen, ein Konzept für die fallbasierte Arbeits- planung vorgestellt, gegenüber alternativen Ansätzen abgegrenzt und die Möglichkeit der Realisierung anhand einer prototypischen Imple- mentierung aufgezeigt. Während dem ersten Teil vorwiegend eine Literaturarbeit zugrundeliegt, beinhaltet der zweite Teil ausschliesslich eigene Ansätze.
Bei der industriellen Fertigung von rotationssymmetrischen Drehteilen kommt es in hohem Masse auf die Effizienz der verwendeten Fertigungspläne an. Diese können durch eine ungeschickte Wahl der Abfolge der Fertigungsschritte zusätzliche Werkzeug- oder Aufspannungswechsel enthalten, welche die Bearbeitungszeit eines Werkstückes wesentlich verlängern und durch die so bedingte geringere Ausnutzung der Maschinenkapazitäten erhebliche Kosten verursachen. In der vorliegenden Arbeit wird in diesem Rahmen eine Komponente zur Fallauswahl implementiert, deren Steuerung sowohl auf oberflächlicher als auch auf struktureller Ähnlichkeit zwischen zwei Werkstücken beruht. Zielsetzung dieser Zweiteilung ist eine Reduzierung der Anzahl der zu betrachtenden Fallbeispiele durch eine Indizierung der Fallbasis mit (schnellen) Algorithmen aufgrund von syntaktischen Übereinstimmungen bestimmter Attributwerte; anschliessend werden diese (wenigen) Fälle mit Hilfe tiefergreifender Analyseschritte nach maximaler Übereinstimmung mit der Aufgabenstellung durchsucht. Des weiteren wird eine Komponente zur Verfügung gestellt, die hilft, frühere Planungsfehler durch Wahl geeigneter Fallbeispiele zu vermeiden.
Eine Möglichkeit das Planen in Planungssystemen zu realisieren, ist das fallbasierte Planen. Vereinfacht kann darun ter das Lösen von neuen Planungsproblemen anhand von bereits bekannten Plänen aus der Planungsdomäne verstanden werden. Dazu werden Pläne, die in der Vergangenheit ein Planungsproblem gelöst haben, gesammelt und bei der Lösung neuer Planungsprobleme dahin gehend modifiziert, dass sie das aktuelle Planungsproblem lösen. Um eine grössere Wiederverwendbarkeit der bereits bekannten Pläne zu erreichen, kann man nun eine konkrete Problemstellung mit ihrer Lösung aus der konkreten Planungswelt in eine abstraktere Planungswelt durch eine Abstraktion transformieren.
Nicht nur im Bereich der Forschung, sondern auch in der industriellen Anwendung wird die Informationsversorgung - die Bereitstellung der für Arbeitsabläufe benötigten Daten - immer wichtiger. Soll mit mehreren Personen im Team eine Aufgabe gelöst werden, so müssen die dazu benötigten Daten rechtzeitig in der erforderlichen Form zur Verfügung stehen. Die Kommunikation zwischen den Mitarbeitern und die Koordination der anfallenden Tätigkeiten ist mitentscheidend für die Leistung des Teams. Besonders wichtig wird dies, wenn die kooperierenden Personen nicht nur verschiedene Arbeitsplätze haben, beispielsweise verschiedene Bildschirme, sondern diese Arbeitsplätze weit voneinander entfernt sind. So können sich die Arbeitsplätze durchaus in verschiedenen Stockwerken eines Firmengebäudes oder an verschiedenen Orten befinden, jedoch müssen die Mitarbeiter trotzdem eng zusammenarbeiten. Die sich dabei herausbildenden Arbeitsprozesse sind keineswegs statisch, sondern müssen - bedingt durch neue Aufgaben, neue Rahmenbedingungen und neue Erkenntnisse - ständig angepasst werden.
Lernen von Abstraktionshierarchien zur Optimierung der Auswahl von maschinell abstrahierten Plänen
(1994)
Mit Hilfe von "Multistrategy" Ansätzen, die erklärungsbasiertes und induktives Lernen integrieren, ist es möglich, die Performanz von Planungssystemen signifikant zu verbessern. Dabei können gelöste Planungsprobleme zunächst mit einem wissensintensiven Verfahren abstrahiert und generalisiert werden. Durch den in diesem Beitrag im Vordergrund stehenden induktiven inkrementellen Lernalgorithmus ist es dann weiterhin möglich, die Gesamtheit des deduktiv generierten Wissens in einer Abstraktionshierarchie anzuordnen. Dabei wird die, im allgemeinen unentscheidbare, "spezieller-als-Relation" zwischen generalisierten Plänen, induktiv aus den gegebenen Planungsfällen gelernt. Diese Abstraktionshierarchie dient dann zur Klassifikation neuer Problemstellungen und damit zur Bestimmung einer speziellsten anwendbaren abstrakten Problemlösung.
In dieser Arbeit beschreiben wir einen Ansatz zur automatischen Synthese zustandsendlicher, reaktiver Systeme, ausgehend von einer rein deklarativen, logischen Spezifikation. Dazu verwenden wir temporal stratifizierte Programme,
das sind spezielle Logik-Programme auf der Grundlage einer linearen, temporalen Aussagenlogik. Die Umgebung eines zu implementierenden Steuerungsprogrammes wird hier durch eine Menge von PROLOG-ähnlichen Programmklauseln beschrieben; zusätzlich wird eine Sicherheitsbedingung angegeben, die in dem System gelten soll. Wir zeigen, wie durch eine solche Spezifikation ein sie implementierender endlicher Automat definiert ist und geben einen Algorithmus zu seiner Berechnung auf der Grundlage einer Fixpunkt-Iteration an.
Temporal stratifizierte Programme sind spezielle Logik-Programme auf der Grundlage einer linearen, temporalen Aussagenlogik, mit denen zustandsendliche reaktive Systeme spezifiziert werden können. Dabei wird die Umgebung eines zu implementierenden Steuerungsprogrammes durch eine Menge von PROLOG-ähnlichen Programmklauseln beschrieben; zusätzlich wird eine Sicherheitsbedingung angegeben, die in dem System gelten soll. Die Sprache ist so gestaltet, daß sie für resolutionsbasierte Verfahren zur Verifikation und Synthese von Steuerungsprogrammen geeignet ist. Wir zeigen, daß temporal stratifizierte Programme in ihrer Ausdrucksmächtigkeit endlichen Automaten gleichkommen.
Software-Projekte bestehen aus einer Vielzahl von Teilaufgaben, die durch komplexe Wechselbeziehungen miteinander verknüpft sind. Systematische Unterstützung bei der Durchführung von Software-Projekten erfordert deshalb nicht nur die isolierte Unterstützung einzelner Teilaufgaben, sondern insbesondere der Wechselbeziehungen. Außerdem müssen Aktivitäten des Messens und Bewertens durchgeführt werden, um quantitative Aussagen über Produkte und Prozesse ableiten zu können. Ziel des MVP-Projekts (Multi-View Process modeling) ist es, derartige integrierte Unterstützung auf der Basis meßbarer Projektpläne zur Verfügung zu stellen. Projektpläne setzen sich dabei unter anderem aus Prozeß-, Produkt-, Ressourcen- und Qualitätsmodellen zusammen. Meßansätze werden nicht nur zur systematischen Unterstützung von Projekten, sondern auch zur Verbesserung existierender Prozeß-, Produkt-, Ressource- und Qualitätsmodelle aufgrund 'gemessener' Erfahrungswerte verwendet. Die Benutzer des MVP-Entwicklungssystems (MVP-S) werden durch ihre Rollen im Rahmen eines Projekts charakterisiert werden können. Es wird beschrieben, wie Rollen das MVP-System nutzen können. Dies geschieht entweder durch direkte Repräsentation ihrer Aufgaben als Prozesse oder indem die im Projektplan repräsentierte Information ausgewertet und präsentiert wird; entsprechend bezeichnen wir eine Rolle als "zustandsverändernd" oder als "zustandserfragend". Um diese Rollen zu unterstützen, existieren unterschiedliche Möglichkeiten abhängig vom Grad der Automatisierung. Es werden beispielhaft drei Stufen aufgezeigt. Anschließend wird die Realisierung einer prototypischen, qualitätsorientierten, prozeßsensitiven Software-Entwicklungsumgebung diskutiert. Zum Abschluß wird auf gegenwärtige und zukünftige Forschungsfragen im Rahmen des MVP-Projekts eingegangen.
Die Lösung einer Konfigurationsaufgabe innerhalb einer technischen Domäne besteht in der Konstruktion eines komplexen Objektes, das sowohl alle in der Aufgabe gestellten Anforderungen bezüglich seiner Funktionalität erfüllt, als auch den innerhalb der Domäne vorhandenen Restriktionen vollständig genügt. Durch die als bekannt vorausgesetzte Struktur der Anwendungsdomäne wird ein Suchraum aufgespannt, in dem es eine in diesem Sinne korrekte - und wenn möglich besonders gute - Lösung zu finden gilt. Wegen der Grösse des Suchraums wird zu diesem Zweck im allgemeinen ein Verfahren zur Tiefensuche eingesetzt.
CAPlan[Web94] basiert auf dem SNLP-Algorithmus [BW92], einer bekannten Version des Originalalgorithmus von McAllester und Rosenblitt [MR91]. Seit dessen Veröffentlichung hat eine Flut von Papieren die Überlegenheit dieses Planers gegenüber herkömmlichen Planverfahren gezeigt. Diese Überlegenheit liegt einerseits in seinem nur partiell ordnenden least-commitment Ansatz begründet und anderseits in der Systematik der Suche, die einen minimalen Suchraum garantiert.
David Chapman hat 1987 mit seinem Artikel Planning for Conjunctive Goals einen wichtigen Schritt in Richtung der Formalisierung von partiell ordnen der Planung und ihrem Verständnis gemacht. Grundlegendes Konzept von David Chapman ist die Idee modaler Wahrheit in Plänen; sein Modal Truth Criterion (MTC) macht Aussagen über die Gültigkeit einer Aussage in einem partiell geordneten Plan. Kambhampati und Nau zeigten mit ihrem Papier On the Nature of Modal Truth Criteria in Planning einige wesentliche Mängel bzw. begriffliche Ungenauigkeiten an Chapmans Kriterium auf und machten mit ihrem Modal Conditional Truth Criterion Vorschläge für eine Korrektur. Insbesondere bekam die Frage nach der Ausführbarkeit eines Planes hier ein grösseres Gewicht. Ziel dieser Projektarbeit ist es zunächst, das MTC von Chapman sowie die Modifikation darzustellen und, als praktische Aufgabe, die Realisierung des MTC für den Causal Link Planer CAPlan, basierend auf der bestehenden Implementation des Systems.
In diesem Beitrag wird ein Ansatz vorgestellt, mit dem Entwurfsprozesse geplant, koordiniert und durchgeführt werden können. In der Projektplanung wird zunächst ein explizites Modell des Entwurfsprozesses erstellt. Dieses wird von einem Workflowmanagementsystem als Basis für die Projektdurchführung benutzt. Projektplanung und -durchführung können miteinander verzahnt werden, d. h. während der Durchführung kann weiter-, um- und feingeplant werden. Während der Projektabwicklung werden kausale Abhängigkeiten zwischen (Teil-) Ergebnissen (wie z. B. Anforderungen, Vorentwürfen und Zeichnungen) fein-granular erfaßt, repräsentiert und verwaltet. Diese Abhängigkeiten werden im wesentlichen automatisch aus dem Prozeßmodell abgeleitet. Durch die Repräsentation der kausalen Abhängigkeiten wird die Verfolgbarkeit des Entwicklungsprozesses erhöht und dessen Ergebnisse dokumentiert. Basierend auf den repräsentierten Abhängigkeiten kann auf Änderungen gezielt reagiert werden, wodurch die Entwicklungskosten sinken. Die entwickelten Techniken werden am Beispiel der Bebauungsplanung erläutert.
In diesem Beitrag wird gezeigt, wie mit Hilfe von Knowledge Engineering Techniken eine komplexe Domäne, die Entwicklung von Bebauungsplänen, modelliert werden kann. Dabei wird insbesondere auf notwendige Erweiterungen bekannter Ansätze eingegangen, die sich aus einer praxisbezogenen Entwurfsdomäne ergeben. Der beschriebene Ansatz unterstützt die Koordination mehrerer Agenten durch die Verwaltung von Abhängigkeiten. Das beschriebene Projekt "Intelligenter Bebauungsplan" integriert GIS/CAD, Hypertext und Expertensystemtechnologie. Die Strukturierung der benötigten Informationen als Hypertext wurde von den beteiligten Stadtplanern gewünscht und ist eine natürliche Repräsentation für Gesetzestexte (und Kommentare), da sie ohnehin viele Querverweise enthalten.
In diesem Papier beschreiben wir eine Methode zur Spezifikation und Operationalisierung von konzeptuellen Modellen kooperativer wissensbasierter Arbeitsabläufe. Diese erweitert bekannte Ansätze um den Begriff des Agenten und um alternative Aufgabenzerlegungen. Das Papier beschreibt schwerpunktmäßig Techniken, die unserem verteilten Interpreter zugrunde liegen. Dabei gehen wir insbesondere auf Methoden ein, die Abhängigkeiten zwischen Aufgaben behandeln und ein zielgerichtetes Backtracking effizient unterstützen.
Topologie II
(1995)
Die Sichten von Projektmitgliedern auf Prozesse von Software-Entwicklungen sollen in der Prozeßmodellierungssprache MVP-L formuliert und anschließend in ein Umfassendes Prozeßmodell integriert werden. Dabei ist die Identifikation ähnlicher Informationen in verschiedenen Sichten von Bedeutung. In dieser Arbeit berichten
wir über die Adaption und Synthese verschiedener Ansätze zum Thema Ähnlichkeit aus unterschiedlichen Domänen (Schema-Integration beim Datenbank-Entwurf, Analoges und Fallbasiertes Schließen, Wiederverwendung und System-Spezifikation). Das Ergebnis, die Ähnlichkeitsfunktion vsim, wird anhand eines Referenzbeispiels illustriert. Dabei gehen wir insbesondere auf die Eigenschaft der Funktion vsim ein und berichten über Erfahrungen im Umgang mit dieser Funktion zur Berechnung der Ähnlichkeit zwischen Prozeßmodellen.
Aufbau einer domänenunabhängigen Fallbasis und Fallauswahl mit Zielabhängigkeiten in CAPLAN/CBC
(1995)
Zur Planung und Steuerung von komplexen rechnerintegrierten Fertigungssystemen (CIM) ist die Abarbeitung vieler extrem aufwendiger Algorithmen notwendig. Aus dem Bereich der Fertigungssteuerung zählt die Generierung von Maschinenbelegungsplänen (scheduling) dazu. Zur Steigerung der Lösungsgeschwindigkeit bzw. zum Erreichen exakter Ergebnisse bietet sich der massive Einsatz von Rechenparallelität an. Mit Parallelrechnern ist durch die gleichzeitige Verwendung von vielen Prozessoren potentiell eine sehr große Leistungssteigerung zu erreichen. Dafür muß jedoch die vorhandene Parallelität effektiv genutzt werden. Die dazu erforderliche Verteilung der anstehenden Arbeit auf eine große Menge von Prozessoren heißt Lastverteilung und stellt den Kern dieser Arbeit dar. Als allgemeiner Algorithmus zur Lösung kombinatorischer Optimierungs-probleme wird das Branch-and-bound-Verfahren eingesetzt und auf fein-körnigen Parallelrechnerarchitekturen ausgeführt. Zur Lastverteilung werden folgende drei Ansätze verfolgt und untersucht: " Statische Lastverteilung: Es werden mehrere Methoden zur Initialisierung der Prozessoren, welche vor dem eigentlichen Optimierungsalgorithmus ausgeführt werden, analysiert. Es zeigt sich, daß sich die statische Last-verteilung überproportional stark auf die Laufzeit des nachfolgenden Branch-and-bound-Algorithmus auswirkt. Es ist daher wichtig, der bisher unterschätzten statischen Lastverteilung für die parallele Baumsuche mit realen Problemstellungen, besondere Aufmerksamkeit zu schenken. " Dynamische Lastverteilung: Es wird ein vereinfachtes, gut skalierbares Flüssigkeitsmodell als erste synchrone lokale Lastverteilung entwickelt, welche besonders für Parallelrechner mit kurzer Verzögerungszeit beim Aufbau von Kommunikationsverbindungen effizient ist. Die Methode wird mit dem bekannten, aus dem Asynchronen übertragenen, Mittelungs-Ansatz verglichen. Zum analytischen Vergleich wird als ein realistischeres Aufwandsmaß die Kommunikationsmenge statt der üblichen Anzahl von Kommunikationsschritte verwendet. Der in der Prozessoranzahl bisher benötigte quadratische Zeitaufwand wird durch das Flüssigkeitsmodell auf einen linearen Aufwand reduziert, wobei das Flüssigkeitsmodell auch bzgl. der konstanten Zeitfaktoren signifikant effizienter ist. " Implizite Lastverteilung: Zur Vermeidung von Wartezeiten der unbe-teiligten Prozessoren während der Lastverteilung wird der Lastverteilungs-prozeß mit dem Branch-and-bound-Prozeß verschmolzen. Das neuartige Konzept der k-Expansion unterstützt eine automatische Lastverteilung und approximiert eine globale Suchstrategie. Zur Validierung der Ergebnisse werden Simulationen und Experimente mit einem Satz von Benchmark-Problemen durchgeführt. Der zugrunde liegende SIMD-Rechner ist eine MasPar MP-1 mit 16.384 Prozessoren in einem 2- dimensionalen Torus. Als exemplarische, NP-harte Anwendungsdomäne werden statische, non-operationale Planungsprobleme betrachtet.
Das Thema dieser Arbeit ist die Erweiterung von CoMo-Kit um eine Zeitplanungskomponente. Man möchte Informationen über die Dauer der einzelnen Teilaufgaben gewinnen und diese zu Dauern der übergeordneten abstrakten Aufgaben abschätzen. Auf diese Weise kann sich ein Manager über die voraussichtliche Gesamtdauer des Projektes und dessen Fortgang informieren. Dazu werden frühestmögliche und spätestmögliche Anfangs- und Endzeitpunkte der Vorgänge berechnet. Die Differenz zwischen frühesten und spätesten Zeitpunkten gibt dem Projektmanager eine Aussage über den Dispositionsspielraum der einzelnen Vorgänge. Ist kein Spielraum vorhanden, kann man erkennen, daß dieser Vorgang die Projektdauer determiniert und eventuell für Verzögerungen verantwortlich sein kann. Im Rahmen dieser Diplomarbeit ist das Verfahren der Allgemeine Hierarchischen Netzplantechnik entwickelt und als Zeitplanungskomponente in das System CoMo-Kit integriert worden.
Im Rahmen der Arbeit werden verschiedene Ansätze im Bereich Design Rationale untersucht und miteinander verglichen. Darauf aufbauend wird ein Konzept entwickelt, wie Design Rationales in dem Projektplanungs- und Abwicklungswerkzeug CoMo-Kit eingesetzt werden können. Die Realisierung wird beschrieben.
Im Rahmen dieser Arbeit beschreiben wir die wesentlichen Merkmale der CAPlan-Architektur, die die interaktive Bearbeitung von Planungsproblemen ermöglichen. Anhand des SNLP-Algorithmus, der der Architektur zugrunde liegt, werden die im Laufe eines Planungsprozesses auftretenden Entscheidungspunkte charakterisiert. Mit Hilfe von frei definierbaren Kontrollkomponenten kann das Verhalten an diesen Entscheidungspunkte festgelegt werden, wodurch eine flexible Steuerung des Planungsprozesses ermöglicht wird. Planungsziele und -entscheidungen werden in einem gerichteten azyklischen Graphen verwaltet, der ihre kausalen Abhängigkeiten widerspiegelt. Im Gegensatz zu einem Stack, der typischerweise zur Verwaltung von Entscheidungen eingesetzt wird, erlaubt die graphbasierte Repräsentation die flexible Rücknahme einer Entscheidung, ohne alle zeitlich danach getroffenen Entscheidungen ebenfalls zurücknehmen zu müssen.
Fallbasiertes Schliessen (engl.: Case-based Reasoning) hat in den vergangenen Jahren zunehmende Bedeutung für den praktischen Einsatz in realen Anwendungsbereichen erlangt. In dieser Arbeit stellen wir zunächst die allgemeine Vorgehensweise und die verschiedenen Teilaufgaben des fallbasierten Schliessens vor. Anschliessend erörtern wir die charakteristischen Eigenschaften eines Anwendungsbereiches, die einen Einsatz des fallbasierten Ansatzes begünstigen, und demonstrieren an der konkreten Aufgabe der Kreditwürdigkeitsprüfung die Realisierung eines fallbasierten Ansatzes in der Finanzwelt. Die abschliessende Diskussion zeigt durch einen Vergleich mit verschiedenen Methoden der Klassifikation das grosse Innovationspotential des fallbasierten Schliessens in der Finanz- welt als eine echte Alternative zu bisherigen Methoden.
In diesem Artikel diskutieren wir Anforderungen aus der Kreditwürdigkeitsprüfung und ihre Erfüllung mit Hilfe der Technik des fallbasierten Schliessens. Innerhalb eines allgemeinen Ansatzes zur fallbasierten Systementwicklung wird ein Lernverfahren zur Optimierung von Entscheidungskosten ausführlich beschrieben. Dieses Verfahren wird, auf der Basis realer Kundendaten, mit dem fallbasierten Entwicklungswerkzeug INRECA empirisch bewertet. Die Voraussetzungen für den Einsatz fallbasierter Systeme zur Kreditwürdigkeitsprüfung werden abschliessend dargestellt und ihre Nüt zlichkeit diskutiert.
Bei der Erstellung komplexer Software spielt die Wiederverwendung vorhandener Programmbestandteile eine besonders grosse Rolle, da hierdurch sowohl die Software-Qualität gesteigert, als auch der gesamte Erstellungsund Wartungsaufwand erheblich reduziert werden kann. In jüngster Zeit gewinnen objektorientierte Programmiersprachen zunehmend an Bedeutung, da die Wiederverwendung hierbei bereits durch Sprachkonzepte wie z.B. Vererbung und Polymorphie unterstützt wird. Weiterhin besteht jedoch das Problem, zur Wiederverwendung geeignete Programmbestandteile aufzufinden. Ziel dieser Arbeit ist es herauszufinden, inwieweit fallbasiertes Schliessen nach dem aktuellen Stand der Kunst die Wiederverwendung objektorientierter Software unt erstützen kann. Hierzu wurde eine entsprechende Anwendung prototypisch auf der Basis des INRECA-Systems entwickelt. Durch ausgewählte Testsituationen wurden Erfahrungen mit diesem Prototyp gesammelt und systematisch ausgewertet.
In dieser Arbeit wird die Entwicklung eines Werkzeugs dargestellt, mit des-sen Hilfe die Analyse von Feature-Interaktionen in Intelligenten Netzwerkenunterstützt wird. Es basiert auf der formalen Beschreibungstechnik Estelle, wo-bei durch einen speziellen Spezifikationsstil Feature-Interaktionen anhand vonbestimmten Wechselwirkungen zwischen Transitionen verschiedener Features(u.a. Indeterminismus) erkannt werden können. Das Ziel ist dabei die statischeErkennung und Protokollierung dieser Wechselwirkungen sowie die Entfernungvon nicht ausführbaren Transitionen zur Laufzeitoptimierung.Dazu werden zunächst die theoretischen Möglichkeiten zur Erkennung dieserWechselwirkungen untersucht. Danach werden anhand der Implementierung desAnalysewerkzeugs die eingesetzten Methoden und Algorithmen dargestellt undschließlich der Einsatz des Werkzeugs erläutert, das auf dem Estelle-Compiler PET basiert.
Mit der schnellen Verbreitung der CAx-Techniken in der deutschen Automobilindustrie wächst die Notwendigkeit einer besseren Integration der CAx-Systeme in die Prozeßketten und der Beherrschung der Produktinformationsflüsse. Aufgrund dieser Tatsachen ist in den letzten Jah-ren ein Wandel der CAx-Systemarchitekturen von geschloßenen, monolithischen zu offen inte-grierten Systemen erkennbar. Im folgenden wird dieser Prozeß sowie dessen Implikationen auf die Anwendung und auf die Systemhersteller analysiert. Ausgehend von der Initiative der deutschen Automobilindustrie wurde das Projekt ANICA (Analysis of Interfaces of various CAD/CAM-Systems) gestartet. In diesem Projekt werden die Schnittstellen zu den Systemkernen einiger CAx-Hersteller untersucht und ein Konzept für kooperierende CAx-Systeme in der Automobilindustrie wird entwickelt.
Die Theorie der mehrdimensionalen Systeme ist ein relativ junges Forschungsgebiet innerhalb der Systemtheorie, erste Arbeiten stammen aus den 70er Jahren. Hauptmotiv für das Studium multidimensionaler Systeme war die Notwendigkeit einer Erweiterung der Theorie der digitalen Filter, die in der klassischen, eindimensionalen Signalverarbeitung (zeitabhängige Signale) Anwendung finden, auf den Bereich der Bildverarbeitung, also auf zweidimensionale Signale.; Die Vorlesung beschäftigt sich daher in ihrem ersten Teil mit skalaren zweidimensionalen Systemen und beschränkt sich im wesentlichen auf den linearen Fall. Untersucht werden zweidimensionale Filter, ihre wichtigsten Eigenschaften, Kausalität und Stabilität, sowie ihre Zustandsraum- realisierungen, etwa die Modelle von Roesser und Fornasini-Marchesini. Parallelen und Unterschiede zur eindimensionalen Systemtheorie werden betont.; Im zweiten Teil der Vorlesung werden allgemeine höherdimensionale und multivariable Systeme behandelt. Für diese Systeme erweist sich der von Jan Willems begründete Zugang zur Systemtheorie, der sogenannte behavioral approach, als zweckmäßig. Grundlegende Ideen dieses Ansatzes sowie eine der wichtigsten Methoden zum Rechnen mit Polynomen in mehreren Variablen, die Theorie der Gröbnerbasen, werden vorgestellt.
Die Entwicklung und Wartung von Software-Systemen wird ständig komplexer, da die entwickelte Software selbst immer komplexer und umfangreicher wird. Daher bietet sich zur Entlastung der Projektleiter, Projektmanager und weiterer Projektmitarbeiter eine Rechnerunterstützung der Software-Entwicklung und -wartung an. So können sie einen Überblick über den gesamten Prozess bekommen und diesen optimieren. Eine Möglichkeit der Unterstützung liefert die Modellierung des Software-Entwicklungsprozesses. Um einen Software-Entwicklungsprozess modellieren zu können, müssen die notwendigen Basisstrukturen identifiziert und bereitgestellt werden, was Thema dieser Arbeit ist.