Kaiserslautern - Fachbereich Informatik
Refine
Year of publication
- 1995 (48) (remove)
Document Type
- Preprint (22)
- Report (13)
- Master's Thesis (7)
- Article (4)
- Doctoral Thesis (2)
Has Fulltext
- yes (48)
Keywords
- CoMo-Kit (5)
- CAP (2)
- Case Based Reasoning (2)
- Wissensverarbeitung (2)
- computer aided planning (2)
- AG-RESY (1)
- Bebauungsplanung (1)
- Case-Based Reasoning (1)
- Case-Based Reasoning Systems (1)
- Design Rationales (1)
Faculty / Organisational entity
Intellectual control over software development projects requires the existence of an integrated set of explicit models of the products to be developed, the processes used to develop them, the resources needed, and the productivity and quality aspects involved. In recent years the development of languages, methods and tools for modeling software processes, analyzing and enacting them has become a major emphasis of software engineering research. The majority of current process research concentrates on prescriptive modeling of small, completely formalizable processes and their execution entirely on computers. This research direction has produced process modeling languages suitable for machine rather than human consumption. The MVP project, launched at the University of Maryland and continued at Universität Kaiserslautern, emphasizes building descriptive models of large, real-world processes and their use by humans and computers for the purpose of understanding, analyzing, guiding and improving software development projects. The language MVP-L has been developed with these purposes in mind. In this paper, we
motivate the need for MVP-L, introduce the prototype language, and demonstrate its uses. We assume that further improvements to our language will be triggered by lessons learned from applications and experiments.
Experience gathered from applying the software process modeling language MVP-L in software development organizations has shown the need for graphical representations of process models. Project members (i.e„ non MVP-L specialists) review models much more easily by using graphical representations. Although several various graphical notations were developed for individual projects in which MVP-L was applied, there was previously no consistent definition of a mapping between textual MVP-L models and graphical representations. This report defines a graphical representation schema for MVP-L
descriptions and combines previous results in a unified form. A basic set of building blocks (i.e., graphical symbols and text fragments) is defined, but because we must first gain experience with the new symbols, only rudimentary guidelines are given for composing basic
symbols into a graphical representation of a model.
This paper introduces a new high Level programming language for a novel
class of computational devices namely data-procedural machines. These machines are by up to several orders of magnitude more efficient than the von Neumann paradigm of computers and are as flexible and as universal as computers. Their efficiency and flexibility is achieved by using field-programmable logic as the essential technology platform. The paper briefly summarizes and illustrates the essential new features of this language by means of two example programs.
Zur Planung und Steuerung von komplexen rechnerintegrierten Fertigungssystemen (CIM) ist die Abarbeitung vieler extrem aufwendiger Algorithmen notwendig. Aus dem Bereich der Fertigungssteuerung zählt die Generierung von Maschinenbelegungsplänen (scheduling) dazu. Zur Steigerung der Lösungsgeschwindigkeit bzw. zum Erreichen exakter Ergebnisse bietet sich der massive Einsatz von Rechenparallelität an. Mit Parallelrechnern ist durch die gleichzeitige Verwendung von vielen Prozessoren potentiell eine sehr große Leistungssteigerung zu erreichen. Dafür muß jedoch die vorhandene Parallelität effektiv genutzt werden. Die dazu erforderliche Verteilung der anstehenden Arbeit auf eine große Menge von Prozessoren heißt Lastverteilung und stellt den Kern dieser Arbeit dar. Als allgemeiner Algorithmus zur Lösung kombinatorischer Optimierungs-probleme wird das Branch-and-bound-Verfahren eingesetzt und auf fein-körnigen Parallelrechnerarchitekturen ausgeführt. Zur Lastverteilung werden folgende drei Ansätze verfolgt und untersucht: " Statische Lastverteilung: Es werden mehrere Methoden zur Initialisierung der Prozessoren, welche vor dem eigentlichen Optimierungsalgorithmus ausgeführt werden, analysiert. Es zeigt sich, daß sich die statische Last-verteilung überproportional stark auf die Laufzeit des nachfolgenden Branch-and-bound-Algorithmus auswirkt. Es ist daher wichtig, der bisher unterschätzten statischen Lastverteilung für die parallele Baumsuche mit realen Problemstellungen, besondere Aufmerksamkeit zu schenken. " Dynamische Lastverteilung: Es wird ein vereinfachtes, gut skalierbares Flüssigkeitsmodell als erste synchrone lokale Lastverteilung entwickelt, welche besonders für Parallelrechner mit kurzer Verzögerungszeit beim Aufbau von Kommunikationsverbindungen effizient ist. Die Methode wird mit dem bekannten, aus dem Asynchronen übertragenen, Mittelungs-Ansatz verglichen. Zum analytischen Vergleich wird als ein realistischeres Aufwandsmaß die Kommunikationsmenge statt der üblichen Anzahl von Kommunikationsschritte verwendet. Der in der Prozessoranzahl bisher benötigte quadratische Zeitaufwand wird durch das Flüssigkeitsmodell auf einen linearen Aufwand reduziert, wobei das Flüssigkeitsmodell auch bzgl. der konstanten Zeitfaktoren signifikant effizienter ist. " Implizite Lastverteilung: Zur Vermeidung von Wartezeiten der unbe-teiligten Prozessoren während der Lastverteilung wird der Lastverteilungs-prozeß mit dem Branch-and-bound-Prozeß verschmolzen. Das neuartige Konzept der k-Expansion unterstützt eine automatische Lastverteilung und approximiert eine globale Suchstrategie. Zur Validierung der Ergebnisse werden Simulationen und Experimente mit einem Satz von Benchmark-Problemen durchgeführt. Der zugrunde liegende SIMD-Rechner ist eine MasPar MP-1 mit 16.384 Prozessoren in einem 2- dimensionalen Torus. Als exemplarische, NP-harte Anwendungsdomäne werden statische, non-operationale Planungsprobleme betrachtet.
Self-localization in unknown environments respectively correlation of current and former impressions of the world is an essential ability for most mobile robots. The method,proposed in this article is the construction of a qualitative, topological world model as a basis for self-localization. As a central aspect the reliability regarding error-tolerance and stability will be emphasized. The proposed techniques demand very low constraints for the kind and quality of the employed sensors as well as for the kinematic precisionof the utilized mobile platform. Hard real-time constraints can be handled due to the low computational complexity. The principal discussions are supported by real-world experiments with the mobile robot.
Die Lösung einer Konfigurationsaufgabe innerhalb einer technischen Domäne besteht in der Konstruktion eines komplexen Objektes, das sowohl alle in der Aufgabe gestellten Anforderungen bezüglich seiner Funktionalität erfüllt, als auch den innerhalb der Domäne vorhandenen Restriktionen vollständig genügt. Durch die als bekannt vorausgesetzte Struktur der Anwendungsdomäne wird ein Suchraum aufgespannt, in dem es eine in diesem Sinne korrekte - und wenn möglich besonders gute - Lösung zu finden gilt. Wegen der Grösse des Suchraums wird zu diesem Zweck im allgemeinen ein Verfahren zur Tiefensuche eingesetzt.
CAPlan[Web94] basiert auf dem SNLP-Algorithmus [BW92], einer bekannten Version des Originalalgorithmus von McAllester und Rosenblitt [MR91]. Seit dessen Veröffentlichung hat eine Flut von Papieren die Überlegenheit dieses Planers gegenüber herkömmlichen Planverfahren gezeigt. Diese Überlegenheit liegt einerseits in seinem nur partiell ordnenden least-commitment Ansatz begründet und anderseits in der Systematik der Suche, die einen minimalen Suchraum garantiert.
David Chapman hat 1987 mit seinem Artikel Planning for Conjunctive Goals einen wichtigen Schritt in Richtung der Formalisierung von partiell ordnen der Planung und ihrem Verständnis gemacht. Grundlegendes Konzept von David Chapman ist die Idee modaler Wahrheit in Plänen; sein Modal Truth Criterion (MTC) macht Aussagen über die Gültigkeit einer Aussage in einem partiell geordneten Plan. Kambhampati und Nau zeigten mit ihrem Papier On the Nature of Modal Truth Criteria in Planning einige wesentliche Mängel bzw. begriffliche Ungenauigkeiten an Chapmans Kriterium auf und machten mit ihrem Modal Conditional Truth Criterion Vorschläge für eine Korrektur. Insbesondere bekam die Frage nach der Ausführbarkeit eines Planes hier ein grösseres Gewicht. Ziel dieser Projektarbeit ist es zunächst, das MTC von Chapman sowie die Modifikation darzustellen und, als praktische Aufgabe, die Realisierung des MTC für den Causal Link Planer CAPlan, basierend auf der bestehenden Implementation des Systems.
In diesem Beitrag wird ein Ansatz vorgestellt, mit dem Entwurfsprozesse geplant, koordiniert und durchgeführt werden können. In der Projektplanung wird zunächst ein explizites Modell des Entwurfsprozesses erstellt. Dieses wird von einem Workflowmanagementsystem als Basis für die Projektdurchführung benutzt. Projektplanung und -durchführung können miteinander verzahnt werden, d. h. während der Durchführung kann weiter-, um- und feingeplant werden. Während der Projektabwicklung werden kausale Abhängigkeiten zwischen (Teil-) Ergebnissen (wie z. B. Anforderungen, Vorentwürfen und Zeichnungen) fein-granular erfaßt, repräsentiert und verwaltet. Diese Abhängigkeiten werden im wesentlichen automatisch aus dem Prozeßmodell abgeleitet. Durch die Repräsentation der kausalen Abhängigkeiten wird die Verfolgbarkeit des Entwicklungsprozesses erhöht und dessen Ergebnisse dokumentiert. Basierend auf den repräsentierten Abhängigkeiten kann auf Änderungen gezielt reagiert werden, wodurch die Entwicklungskosten sinken. Die entwickelten Techniken werden am Beispiel der Bebauungsplanung erläutert.