Kaiserslautern - Fachbereich Informatik
Refine
Year of publication
Document Type
- Master's Thesis (45) (remove)
Has Fulltext
- yes (45)
Keywords
- CoMo-Kit (5)
- Case-Based Planning (4)
- Fallbasiertes Schliessen (3)
- Case-Based Reasoning (2)
- Decision Trees (2)
- Entscheidungsbäume (2)
- Fallbasierte Planning (2)
- AG-RESY (1)
- AKLEON (1)
- Abstandsregeltempomat (1)
- Ambient Intelligence (1)
- Aspektorientierte Programmierung (1)
- Audiodeskription (1)
- Automatische Klassifikation (1)
- CAP (1)
- CODET (1)
- COMOKIT (1)
- Case-Based Diagnosis (1)
- Case-Based Learning (1)
- Chromium Browser (1)
- Content Management (1)
- Context of Use (1)
- Design Rationales (1)
- Domänenspezifische Sprachen (1)
- ECMAScript (1)
- Eingebettetes System (1)
- Ernergie effiziente Bewegung (1)
- Fallbasierte Diagnose (1)
- Fallbasierte Planung (1)
- Fallbasiertes Planen (1)
- Implementierung (1)
- Induktivem Schliessen (1)
- JSR 170 JCR (1)
- Java (1)
- Java 2 Enterprise Edition (1)
- JavaScript (1)
- Kommunikation (1)
- Kontextbezogenes System (1)
- Location Awareness (1)
- MDA <Vorgehensmodell> (1)
- META-AKAD (1)
- MIDI <Musikelektronik> (1)
- MIR (1)
- MP3 (1)
- Maschinelles Lernen (1)
- MoCAS/2 (1)
- Model Based User Interface Development (1)
- Modellgetriebene Entwicklung (1)
- Music Information Retrieval (1)
- Musik / Artes liberales (1)
- P2P (1)
- Process configuration (1)
- Process creation (1)
- Prozessmodellen (1)
- Repository <Informatik> (1)
- SQL (1)
- SmartFactory (1)
- Software-Entwicklung (1)
- Suchraum (1)
- Technology combination (1)
- Technology decision (1)
- Technology selection (1)
- Tonsignal (1)
- Universal Control Device (1)
- Usage Control (1)
- Versionierungssysteme (1)
- Zeitplanung (1)
- analysis of algorithms (1)
- aspect-oriented programming (1)
- automotive (1)
- behaviourbased (1)
- biological motivated (1)
- biologisch motiviert (1)
- computer aided planning (1)
- dependability (1)
- distributed compliant control (1)
- distributed computing (1)
- domain-specific language (1)
- epidemic algorithms (1)
- epidemische Algorithmen (1)
- ernergy effcient motion (1)
- generative Programmierung (1)
- generative programming (1)
- humanoid robot (1)
- humanoide Roboter (1)
- intentional programming (1)
- peer-to-peer (1)
- regelbasiertes Problemlösen (1)
- verhaltensbasiert (1)
- verlässlichkeit (1)
- verteilte Berechnung (1)
- vetreilte nachgiebige Regelung (1)
Faculty / Organisational entity
This research for this thesis was conducted to develop a framework which supports the automatic configuration of project-specific software development processes by selecting and combining different technologies: the Process Configuration Framework. The research draws attention to the problem that while the research community develops new technologies, the industrial companies continue only using their well-known ones. Because of this, technology transfer takes decades. In addition, there is the fact that there is no solution which solves all problems in a software development project. This leads to a number of technologies which need to be combined for one project.
The framework developed and explained in this research mainly addresses those problems by building a bridge between research and industry as well as by supporting software companies during the selection of the most appropriate technologies combined in a software process. The technology transformation gap is filled by a repository of (new) technologies which are used as a foundation of the Process Configuration Framework. The process is configured by providing SPEM process pattern for each technology, so that the companies can build their process by plugging into each other.
The technologies of the repository were specified in a schema including a technology model, context model, and an impact model. With context and impact it is possible to provide information about a technology, for example, its benefits to quality, cost or schedule. The offering of the process pattern as output of the Process Configuration Framework is performed in several stages:
I Technology Ranking:
1 Ranking based on Application Domain, Project & Impact
2 Ranking based on Environment
3 Ranking based on Static Context
II Technology Combination:
4 Creation of all possible Technology Chains
5 Restriction of the Technology Chains
6 Ranking based on Static and Dynamic Context
7 Extension of the Chains by Quality Assurance
III Process Configuration:
8 Process Component Diagram
9 Extension of the Process Component Diagram
10 Instantiation of the Components by Technologies of the Technology Chain
11 Providing process patterns
12 Creation of the process based on Patterns
The effectiveness and quality of the Process Configuration Framework have additionally been evaluated in a case study. Here, the Technology Chains manually created by experts were compared to the chains automatically created by the framework after it was configured by those experts. This comparison depicted that the framework results are similar and therefore can be used as a recommendation.
We conclude from our research that support during the configuration of a process for software projects is important especially for non-experts. This support is provided by the Process Configuration Framework developed in this research. In addition our research has shown that this framework offers a possibility to speed up the technology transformation gap between the research community and industrial companies.
JSR 170 spezifiziert die Java Content Repository (JCR) Schnittstelle. Diese Schnittstelle wird als Standard im Bereich Web-Anwendungen und Content Management akzeptiert. Sie gliedert sich in Level 1 (lesender Zugriff) and Level 2 (Lese- und Schreibzugriffe) und beschreibt darüber hinaus vier weitere optionale Funktionen. Das in JSR 170 beschriebene hierarchische Datenmodell weist starke Analogie zu XML auf. Jedoch verwenden die meisten JCR-Implementierungen relationale Datenbanken. Durch native XML Datenbanken, wie XTC, können XML-Daten effizient verwaltet werden. Diese Arbeit beschreibt das Design und die Implementierung eines Level 2 JCRs, welches alle Anforderungen an die Persistenz mit Hilfe von DOM und XQuery Operationen auf XML-Dokumenten in XTC erfüllt. Die optionalen FuJSR 170 spezifiziert die Java Content Repository (JCR) Schnittstelle. Diese Schnittstelle wird als Standard im Bereich Web-Anwendungen und Content Management akzeptiert. Sie gliedert sich in Level 1 (lesender Zugriff) und Level 2 (Lese- und Schreibzugriffe) und beschreibt darüber hinaus vier weitere optionale Funktionen. Das in JSR 170 beschriebene hierarchische Datenmodell weist starke Analogie zu XML auf. Jedoch verwenden die meisten JCR-Implementierungen relationale Datenbanken. Durch native XML Datenbanken, wie XTC, können XML-Daten effizient verwaltet werden. Diese Arbeit beschreibt das Design und die Implementierung eines Level 2 JCRs, welches alle Anforderungen an die Persistenz mit Hilfe von DOM und XQuery Operationen auf XML-Dokumenten in XTC erfüllt. Die optionalen Funktionen “Versionierung” und “Transaktionen” werden ebenfalls unterstützt. Um die Implementierung zu testen werden zwei Demo-Anwendungen (Blog & Wiki) entwickelt und Vergleichstests gegen die Referenzimplementierung angestellt.
Die vorliegende Arbeit konzentriert sich auf Analysen unterschiedlicher Lernstrategien für CBL-Systeme anhand einer universellen Testumgebung mit variablen Fallbasen. Keine der untersuchten dynamischen Lernregeln und keine feste Belegung der globalen Konstanten im Ähnlichkeitsmass besitzt im statistischen Mittel signifikante Vorzüge. Dagegen zeigen sich Abhängigkeiten des Lernerfolgs von bestimmten Merkmalen der Fallbasis. Deswegen wird als Synthese ein auto-adaptives Lernschema vorgeschlagen, das die Eigenheiten verschiedener Fallbasen berücksichtigt und durch die Wahl spezifischer Lernstrategien ein deutlich verbessertes Ergebnis zu erzielen vermag.
Ein typisches Mittelklassefahrzeug hat mittlerweile 100 Computerprozessoren,die miteinander kommunizieren, und bildet damit ein komplexes Softwaresystem. Die steigende Anzahl der miteinander kommunzierenden Funktionen trägt dazu bei, dass die Komplexität der Steurungssoftware immer schwerer zu beherrschen ist. Trotz eines enormen Kostenaufwands zur Entwicklung der entsprechenden Softwarekomponenten sind Softwarefehler bei Fahrzeugen der automobilen Oberklasse eine der am häufigsten angeführten Ursachen in der Pannenstatistik. Die Tatsache, dass die angeführten Funktionalitäten verteilt und parallel auf einer steigenden Anzahl unterschiedlicher Mikrokontroller abgearbeitet werden, birgt zusätzliche Probleme. Es ist jedoch Fakt, dass der Markt nach Funktionalitäten wie ABS, ASR und ESP verlangt, die zu einem wesentlichen Teil aus Software bestehen. Es ist also notwendig, einen alternativen Softwareansatz zu finden, der die Komplexität der Steuerungssoftware beherrschbar werden lässt und dennoch den Anforderungen des automobilen Umfelds, wie zum Beispiel der Verlässlichkeit gerecht wird. Dies wird in dieser Arbeit mit hilfe einer verhaltensbasierten steuerung erreicht.
Aufbau einer domänenunabhängigen Fallbasis und Fallauswahl mit Zielabhängigkeiten in CAPLAN/CBC
(1995)
Ever since Mark Weiser’s vision of Ubiquitous Computing the importance of context has increased in the computer science domain. Future Ambient Intelligent Environments will assist humans in their everyday activities, even without them being constantly aware of it. Objects in such environments will have small computers embedded into them which have the ability to predict human needs from the current context and adapt their behavior accordingly. This vision equally applies to future production environments. In modern factories workers and technical staff members are confronted with a multitude of devices from various manufacturers, all with different user interfaces, interaction concepts and degrees of complexity. Production processes are highly dynamic, whole modules can be exchanged or restructured. Both factors force users to continuously change their mental model of the environment. This complicates their workflows and leads to avoidable user errors or slips in judgement. In an Ambient Intelligent Production Environment these challenges have to be approached. The SmartMote is a universal control device for ambient intelligent production environments like the SmartFactoryKL. It copes with the problems mentioned above by integrating all the user interfaces into a single, holistic and mobile device. Following an automated Model-Based User Interface Development (MBUID) process it generates a fully functional graphical user interface from an abstract task-based description of the environment during run-time. This work introduces an approach to integrating context, namely the user’s location, as an adaptation basis into the MBUID process. A Context Model is specified, which stores location information in a formal and precise way. Connected sensors continuously update the model with new values. The model is complemented by a reasoning component which uses an extensible set of rules. These rules are used to derive more abstract context information from basic sensor data and for providing this information to the MBUID process. The feasibility of the approach is shown by using the example of Interaction Zones, which let developers describe different task models depending on the user’s location. Using the context model to determine when a user enters or leaves a zone, the generator can adapt the graphical user interface accordingly. Context-awareness and the potential to adapt to the current context of use are key requirements of applications in ambient intelligent environments. The approach presented here provides a clear procedure and extension scheme for the consideration of additional context types. As context has significant influence on the overall User Experience, this results not only in a better usefulness, but also in an improved usability of the SmartMote.
David Chapman hat 1987 mit seinem Artikel Planning for Conjunctive Goals einen wichtigen Schritt in Richtung der Formalisierung von partiell ordnen der Planung und ihrem Verständnis gemacht. Grundlegendes Konzept von David Chapman ist die Idee modaler Wahrheit in Plänen; sein Modal Truth Criterion (MTC) macht Aussagen über die Gültigkeit einer Aussage in einem partiell geordneten Plan. Kambhampati und Nau zeigten mit ihrem Papier On the Nature of Modal Truth Criteria in Planning einige wesentliche Mängel bzw. begriffliche Ungenauigkeiten an Chapmans Kriterium auf und machten mit ihrem Modal Conditional Truth Criterion Vorschläge für eine Korrektur. Insbesondere bekam die Frage nach der Ausführbarkeit eines Planes hier ein grösseres Gewicht. Ziel dieser Projektarbeit ist es zunächst, das MTC von Chapman sowie die Modifikation darzustellen und, als praktische Aufgabe, die Realisierung des MTC für den Causal Link Planer CAPlan, basierend auf der bestehenden Implementation des Systems.
Im Rahmen der Arbeit werden verschiedene Ansätze im Bereich Design Rationale untersucht und miteinander verglichen. Darauf aufbauend wird ein Konzept entwickelt, wie Design Rationales in dem Projektplanungs- und Abwicklungswerkzeug CoMo-Kit eingesetzt werden können. Die Realisierung wird beschrieben.
In its rather short history robotic research has come a long way in the half century since it started to exist as a noticeable scientic eld. Due to its roots in engineering, computer science, mathematics, and several other 'classical' scientic branches,a grand diversity of methodologies and approaches existed from the very beginning. Hence, the researchers in this eld are in particular used to adopting ideas that originate in other elds. As a fairly logical consequence of this, scientists tended to biology during the 1970s in order to nd approaches that are ideally adapted to the conditions of our natural environment. Doing so allows for introducing principles to robotics that have already shown their great potential by prevailing in a tough evolutionary selection process for millions of years. The variety of these approaches spans from efficient locomotion, to sensor processing methodologies and all the way to control architectures. Thus, the full spectrum of challenges for autonomous interaction with the surroundings while pursuing a task can be covered by such means. A feature that has proven to be amongst the most challenging to recreate is the human ability of biped locomotion. This is mainly caused by the fact that walking,running and so on are highly complex processes involving the need for energy efficient actuation, sophisticated control architectures and algorithms, and an elaborate mechanical design while at the same time posting restrictions concerning stability and weight. However, it is of special interest since our environment is favoring this specic kind of locomotion and thus promises to open up an enormous potential if mastered. More than the mere scientic interest, it is the fascination of understanding and recreating parts of oneself that drives the ongoing eorts in this area of research. The fact that this is not at all an easy task to tackle is not only caused by the highly dynamical processes but also has its roots in the challenging design process. That is because it cannot be limited to just one aspect like e.g. the control architecture, actuation, sensors, or mechanical design alone. Each aspect has to be incorporated into a sound general concept in order to allow for a successful outcome in the end. Since control is in this context inseparably coupled with the mechanics of the system, both has to be dealt with here.
Der Bereich der Workflow-Management-Systeme (WFMS - z.B. [Jab95ab]) wird in jüngerer Zeit in verschiedenen Bereichen der Informatik genauer erforscht. Ziel der Bemu"hungen ist es, die besonderen Anforderungen , die WFMS an Rechner- und Programmsysteme stellen, zu ermitteln und zu befriedigen. In dieser Arbeit untersuchen wir Aspekte des Umplanens ("Replanning" bzw. "Remodeling") während der Abarbeitung eines Workflows. Sie entstand im Rahmen des Projektes CoMo-Kit, im Rahmen dessen Methoden und Werkzeuge entwickelt werden, die die Planung und das Management komplexer Arbeitsabläufe, insbesondere im Entwurfsbereich, unterstützen. Der CoMo-Kit wird seit 1989 am Lehrstuhl für Expertensysteme der Universität Kaiserslautern unter der Leitung von Prof. Dr. M.M. Richter entwickelt.
In dieser Arbeit wird eine Kombinationsmöglichkeit von fallbasiertem und induktivem Schliessen, basierend auf k-d- und Entscheidungsbäumen, entwickelt. Dabei wurde versucht, die Vorteile des induktiven Mechanismus, wie z. B. die sehr effiziente Klassifiz ierung und automatische Generierung, in den fallbasierten Mechanismus zu integrieren. Die Aufgabe zerfällt dabei in zwei Teilaufgaben, die im folgenden zusammengefasst werden.
Diese Arbeit beschäftigt sich mit einer Möglichkeit zur Effizienzverbesserung, wobei das SNLP-basierte Planungssystem CAPlan verwendet wird. Dabei werden neue, zu lösende Probleme einer Vorverarbeitung unterzogen. Dort werden bestimmte Eigenschaften ermittelt, ohne jedoch das Problem zu lösen. Anschliessend wird dem Planungssystem das neue Problem mit dem Zusatzwissen in Form der analysierten Eigenschaften übergeben. Das Planungssystem verwendet das Wissen, um effizienter eine Lösung zu finden.
In dieser Arbeit wird ein fallbasiertes System entwickelt, das Angaben über existiertende fallbasierte Anwendungen und Werkzeuge verwaltet. Mit diesem System kann ein Entwickler von fallbasierten Systemen sich einen Überblick über den Stand der Technik verschaffen und vor allem Informationen über Systeme erhalten, die dem System, das er selbst entwickeln will, ähnlich sind.
Hadoop ist ein beliebtes Framework für verteilte Berechnungen über große
Datenmengen (Big Data) mittels MapReduce. Hadoop zu verwenden ist einfach: Der
Entwickler definiert die Eingabedatenquelle und implementiert die beiden
Methoden Map und Reduce. Über die verteilte Berechnung und Fehlerbehandlung muss
er sich dabei keine Gedanken machen, das erledigt das Hadoop-Framework.
Allerdings kann die Analyse von Big Data sehr lange dauern und da sich die
Eingabedaten jede Sekunde ändern, ist es vielleicht nicht immer die beste
Idee, die vollständige Berechnung jedes Mal aufs Neue auf die kompletten
Eingabedaten anzuwenden. Es wäre geschickter, sich das Ergebnis der
vorherigen Berechnung zu betrachten und nur die Deltas zu analysieren, also
Daten, die seit der letzten Berechnung hinzugefügt oder gelöscht wurden. In dem Gebiet der
selbstwartbaren materialisierten Sichten in relationalen Datenbanksystemen gibt
es bereits mehrere Ansätze, die sich mit der Lösung dieses Problems
beschäftigen. Eine Strategie liest nur die Deltas und inkrementiert oder
dekrementiert die Ergebnisse der vorherigen Berechnung. Allerdings ist diese
Inkrement-Operation sehr teuer, deshalb ist es manchmal besser, das komplette
alte Ergebnis zu lesen und es mit den Deltas der Eingabedaten zu kombinieren.
In dieser Masterarbeit wird ein neues Framework namens Marimba vorgestellt,
welches sich genau um diese Probleme der inkrementellen Berechnung kümmert. Einen
Map\-Re\-duce-Job in Marimba zu schreiben ist genau so einfach wie einen Hadoop-Job.
Allerdings werden hier keine Mapper- und Reducer-Klasse implementiert, sondern
eine Translator- und Serializer-Klasse. Der Translator ähnelt dem Mapper: Er
bestimmt, wie die Eingabedaten gelesen und daraus Zwischenwerte berechnet
werden. Der Serializer erzeugt die Ausgabe des Jobs. Wie diese Ausgabe berechnet
wird, gibt der Benutzer durch Implementierung einiger Methoden an, um Werte zu
aggregieren und invertieren.
Vier MapReduce-Jobs, darunter auch das Paradebeispiel für MapReduce WordCount,
wurden im Marimba-Framework implementiert. Das Entwickeln von inkrementellen
Map-Reduce-Jobs ist mit dem Framework extrem einfach geworden. Außerdem konnte
mit Performanztests gezeigt werden, dass die inkrementelle Berechnung deutlich
schneller ist als eine vollständige Neuberechnung.
Ein weiterer unter den vier implementierten Jobs berechnet
Wortauftrittswahrscheinlichkeiten in geschriebenen Sätzen. Dies kann
beispielsweise für Spracherkennung verwendet werden. Wenn ein Wort in einer
gesprochenen SMS nicht richtig verstanden wurde, hilft der Algorithmus zu raten,
welches Wort am wahrscheinlichsten an einer bestimmten Stelle stehen könnte,
abhängig von den vorherigen Wörtern im Satz. Damit dieser Algorithmus auch
brauchbare Ergebnisse liefert, ist die Menge und die Qualität der Eingabedaten
wichtig. Durchaus brauchbare Ergebnisse wurden durch die Verarbeitung von
Millionen von Twitter-Feeds, die deutsche Twitter-Nutzer in den letzten Monaten
geschrieben haben, erreicht.
Das Ziel dieser Arbeit ist es, ein Framework und einen funktionsfähigen Prototypen für eine Middleware zu entwickeln, die es ermöglicht, Berechnungen verteilt in einem Peer-to-Peer-Netz auszuführen. Dabei sollen verschiedene Arten der Berechnung unterstützt werden. Eine Art der Berechnung sind Aufträge, die massiv parallel berechnet werden können, d.h. solche, die in unabhängige Teilaufträge zerlegt werden können und ohne gegenseitige Kommunikation auskommen. Diese Aufträge können entweder so parametrisiert sein, dass jeder Teilauftrag einen anderen Satz Parameter erhält (z.B. Fraktalberechnung), oder zufallsbasiert, so dass jeder Teilauftrag mit den gleichen Ausgangswerten berechnet wird und unterschiedliche Ergebnisse resultieren. Eine andere Art der Berechnung setzt voraus, dass Knoten, die am gleichen Auftrag arbeiten, auch miteinander kooperieren und durch Nachrichten beispielsweise Teillösungen austauschen (z.B. verteilte evolutionäre Algorithmen). Alle Knoten in diesem Netz sollen gleichberechtigt sein, d.h. jedem Knoten soll es möglich sein, eigene Anwendungen und Aufgaben im Netz zu verteilen. Den verteilten Anwendungen soll zudem die Möglichkeit gegeben werden, mit anderen Knoten, die an der gleichen Aufgabe arbeiten, kommunizieren zu können. Alle benötigten Informationen zur Berechnung eines Auftrags (d.h. Parameter, ausführbarer Code der Anwendung, Anzahl der zu berechnenden Fälle) sollen den rechnenden Knoten durch Middlewarefunktionen zur Verfügung gestellt werden, ebenso soll der Rücktransport der Ergebnisse zum Initiator durch die Middleware erfolgen. Der Nutzer soll also an seinem Arbeitsplatz seine verteilte Anwendung starten können und die Ergebnisse schließlich wieder auf seinem Rechner vorfinden. Die Implementierung soll möglichst modular angelegt sein und nicht auf ein konkretes P2P-Protokoll beschränkt sein, sondern einen leichten Austausch bzw. eine nutzergesteuerte Auswahl von verschiedenen Protokollen ermöglichen. Im Rahmen dieses Prototypen soll ein epidemisches P2P-Protokoll realisiert werden.
Entwurf einer formalen Semantik für Estelle unter Verwendung von TLA mit Prädikatentransformatoren
(1999)
Die formale Beschreibungstechnik Estelle wird in einem internationalen Standarddefiniert. Ein Hauptnutzen einer formalen Semantik für eine Beschreibungs-sprache besteht darin, daß sie die formale Verifikation von Systembeschreibungenermöglicht. Leider ist die im Standard enthaltene Semantikdefinition für Estellenicht formal (und verständlich) genug, um formale Verifikation zu ermöglichen.Daher wird in dieser Arbeit ein Ansatz entwickelt, um die Semantik von Estellevollständig formal und in einer für die Verifikation geeigneten Weise zu definieren. Für diesen Ansatz werden ausführliche Untersuchungen angestellt, insbesondere über die Methoden der Verifikation, die unterstützt werden müssen, und über eine geeignete Darstellung der sogenannten " Transitionen" von Estelle. Um die hieraus resultierenden Forderungen zu erfüllen, wird ein neuer Formalismus entworfen, in dem Lamports temporale Logik der Aktionen und Dijkstras Prädikaten-transformatoren vereinigt werden. Anschließend wird die Definition der gesamten Semantikvon Estelle skizziert und die Definition des " Kerns von Estelle", des sogenannten Ausführungsmodells, in diesem Formalismus vollständig ausgeführt. Es zeigtsich, daß der neue Ansatz die formale Verifikation von Estelle Spezifikationen beimechanischer Unterstützung nun möglich erscheinen läßt. Eine Ausarbeitung derDetails des zum Formalismus gehörigen Schlußsystems und der skizzierten Gesamt-Semantik verbleibt allerdings zukünftigen Arbeiten.
Diese Diplomarbeit hat zwei Schwerpunkte: Zum einen werden die Gebiete fallbasierte Planung und Arbeitsplanung unter- sucht, bisherige Methoden und Systeme vorgestellt und deren Fähigkeiten und Schwächen herausgearbeitet. Dieser Teil macht etwa die Hälfte der Arbeit aus. Zum anderen wird, basierend auf den Ergebnissen dieser Untersuchungen, ein Konzept für die fallbasierte Arbeits- planung vorgestellt, gegenüber alternativen Ansätzen abgegrenzt und die Möglichkeit der Realisierung anhand einer prototypischen Imple- mentierung aufgezeigt. Während dem ersten Teil vorwiegend eine Literaturarbeit zugrundeliegt, beinhaltet der zweite Teil ausschliesslich eigene Ansätze.
Eine Möglichkeit das Planen in Planungssystemen zu realisieren, ist das fallbasierte Planen. Vereinfacht kann darun ter das Lösen von neuen Planungsproblemen anhand von bereits bekannten Plänen aus der Planungsdomäne verstanden werden. Dazu werden Pläne, die in der Vergangenheit ein Planungsproblem gelöst haben, gesammelt und bei der Lösung neuer Planungsprobleme dahin gehend modifiziert, dass sie das aktuelle Planungsproblem lösen. Um eine grössere Wiederverwendbarkeit der bereits bekannten Pläne zu erreichen, kann man nun eine konkrete Problemstellung mit ihrer Lösung aus der konkreten Planungswelt in eine abstraktere Planungswelt durch eine Abstraktion transformieren.
Das Lernen ist für den Menschen ein wichtiger Teil des Entwicklungsprozesses und erlaubt ihm, aus positiven und negativen Erfahrungen Konsequenzen für sein weiteres Verhalten abzuleiten, insbesondere für seine Entscheidungsfindung. Diese Art des Lernens, das Lernen aus Erfahrung, kann jedoch nur stattfinden, wenn diese Erfahrungen erklärt werden können. Auf diesem Ansatz aufbauend, werden seit einigen Jahren Verfahren zur Übertragung erklärungsbasierter Lernprozesse auf Computersysteme untersucht.
Nowadays, vehicle control systems such as anti-lock braking systems, electronic stability control, and cruise control systems yield many advantages. The electronic control units that are deployed in this specific application domain are embedded systems that are integrated in larger systems to achieve predefined applications. Embedded systems consist of embedded hardware and a large software part. Model-based development for embedded systems offers significant software-development benefits that are pointed out in this thesis. The vehicle control system Adaptive Cruise Control is developed in this thesis using a model-based software development process for embedded systems. As a modern industrial design tool that is prevalent in this domain, simulink,is used for modeling the environment, the system behavior, for determining controller parameters, and for simulation purposes. Using an appropriate toolchain, the embedded code is automatically generated. The adaptive cruise control system could be successfully implemented and tested within this short timespan using a waterfall model without increments. The vehicle plant and important filters are fully deduced in detail. Therefore, the design of further vehicle control systems needs less effort for development and precise simulation.
Music Information Retrieval (MIR) is an interdisciplinary research area that has the goal to improve the way music is accessible through information systems. One important part of MIR is the research for algorithms to extract meaningful information (called feature data) from music audio signals. Feature data can for example be used for content based genre classification of music pieces. This masters thesis contributes in three ways to the current state of the art: • First, an overview of many of the features that are being used in MIR applications is given. These methods – called “descriptors” or “features” in this thesis – are discussed in depth, giving a literature review and for most of them illustrations. • Second, a large part of the described features are implemented in a uniform framework, called T-Toolbox which is programmed in the Matlab environment. It also allows to do classification experiments and descriptor visualisation. For classification, an interface to the machine-learning environment WEKA is provided. • Third, preliminary evaluations are done investigating how well these methods are suited for automatically classifying music according to categorizations such as genre, mood, and perceived complexity. This evaluation is done using the descriptors implemented in the T-Toolbox, and several state-of-the-art machine learning algorithms. It turns out that – in the experimental setup of this thesis – the treated descriptors are not capable to reliably discriminate between the classes of most examined categorizations; but there is an indication that these results could be improved by developing more elaborate techniques.
Bei der industriellen Fertigung von rotationssymmetrischen Drehteilen kommt es in hohem Masse auf die Effizienz der verwendeten Fertigungspläne an. Diese können durch eine ungeschickte Wahl der Abfolge der Fertigungsschritte zusätzliche Werkzeug- oder Aufspannungswechsel enthalten, welche die Bearbeitungszeit eines Werkstückes wesentlich verlängern und durch die so bedingte geringere Ausnutzung der Maschinenkapazitäten erhebliche Kosten verursachen. In der vorliegenden Arbeit wird in diesem Rahmen eine Komponente zur Fallauswahl implementiert, deren Steuerung sowohl auf oberflächlicher als auch auf struktureller Ähnlichkeit zwischen zwei Werkstücken beruht. Zielsetzung dieser Zweiteilung ist eine Reduzierung der Anzahl der zu betrachtenden Fallbeispiele durch eine Indizierung der Fallbasis mit (schnellen) Algorithmen aufgrund von syntaktischen Übereinstimmungen bestimmter Attributwerte; anschliessend werden diese (wenigen) Fälle mit Hilfe tiefergreifender Analyseschritte nach maximaler Übereinstimmung mit der Aufgabenstellung durchsucht. Des weiteren wird eine Komponente zur Verfügung gestellt, die hilft, frühere Planungsfehler durch Wahl geeigneter Fallbeispiele zu vermeiden.
Data usage control is a concept that extends access control to also protect data after it
has been released. Usage control enforcement relies on available information about the
distribution of data in the monitored system. In this thesis we introduce an information
flow tracking approach for JavaScript in order to enable usage control for dynamic content
in web browsers. The proposed model is implemented as a prototype in the JavaScript
engine V8 of the Chromium browser to evaluate the feasibility of the chosen approach.
Recently, a new Quicksort variant due to Yaroslavskiy was chosen as standard sorting
method for Oracle's Java 7 runtime library. The decision for the change was based on
empirical studies showing that on average, the new algorithm is faster than the formerly
used classic Quicksort. Surprisingly, the improvement was achieved by using a dual pivot
approach — an idea that was considered not promising by several theoretical studies in the
past. In this thesis, I try to find the reason for this unexpected success.
My focus is on the precise and detailed average case analysis, aiming at the flavor of
Knuth's series “The Art of Computer Programming”. In particular, I go beyond abstract
measures like counting key comparisons, and try to understand the efficiency of the
algorithms at different levels of abstraction. Whenever possible, precise expected values are
preferred to asymptotic approximations. This rigor ensures that (a) the sorting methods
discussed here are actually usable in practice and (b) that the analysis results contribute to
a sound comparison of the Quicksort variants.
Die Lösung einer Konfigurationsaufgabe innerhalb einer technischen Domäne besteht in der Konstruktion eines komplexen Objektes, das sowohl alle in der Aufgabe gestellten Anforderungen bezüglich seiner Funktionalität erfüllt, als auch den innerhalb der Domäne vorhandenen Restriktionen vollständig genügt. Durch die als bekannt vorausgesetzte Struktur der Anwendungsdomäne wird ein Suchraum aufgespannt, in dem es eine in diesem Sinne korrekte - und wenn möglich besonders gute - Lösung zu finden gilt. Wegen der Grösse des Suchraums wird zu diesem Zweck im allgemeinen ein Verfahren zur Tiefensuche eingesetzt.
Die Entwicklung und Wartung von Software-Systemen wird ständig komplexer, da die entwickelte Software selbst immer komplexer und umfangreicher wird. Daher bietet sich zur Entlastung der Projektleiter, Projektmanager und weiterer Projektmitarbeiter eine Rechnerunterstützung der Software-Entwicklung und -wartung an. So können sie einen Überblick über den gesamten Prozess bekommen und diesen optimieren. Eine Möglichkeit der Unterstützung liefert die Modellierung des Software-Entwicklungsprozesses. Um einen Software-Entwicklungsprozess modellieren zu können, müssen die notwendigen Basisstrukturen identifiziert und bereitgestellt werden, was Thema dieser Arbeit ist.
CAPlan[Web94] basiert auf dem SNLP-Algorithmus [BW92], einer bekannten Version des Originalalgorithmus von McAllester und Rosenblitt [MR91]. Seit dessen Veröffentlichung hat eine Flut von Papieren die Überlegenheit dieses Planers gegenüber herkömmlichen Planverfahren gezeigt. Diese Überlegenheit liegt einerseits in seinem nur partiell ordnenden least-commitment Ansatz begründet und anderseits in der Systematik der Suche, die einen minimalen Suchraum garantiert.
Grob skizziert soll das System in der Lage sein, aus einer vorgegebenen Konstruktionszeichnung eines Drehteils einen Plan f"ur die maschinelle Fertigung dieses Teils zu erstellen. Ausgehend vom Ansatz des fallbasierten Schliessens besteht die Aufgabe des Systems darin, aus einer Menge bekannter Drehteile, für die bereits ein Fertigungsplan erstellt worden ist, das Teil zu finden, dessen Darstellung zu der des eingegebenen Teils am ähnlichsten ist. Der Plan dieses ähnlichsten Teils ist dann so zu modifizieren und anzupassen, dass damit das vorgegebene Teil gefertigt werden kann. Ein zentrales Problem ist hierbei die Definition des Ähnlichkeitsbegriffes, der auf jeden Fall den fertigungstechnischen Aspekt berücksichtigen muss.
Nicht nur im Bereich der Forschung, sondern auch in der industriellen Anwendung wird die Informationsversorgung - die Bereitstellung der für Arbeitsabläufe benötigten Daten - immer wichtiger. Soll mit mehreren Personen im Team eine Aufgabe gelöst werden, so müssen die dazu benötigten Daten rechtzeitig in der erforderlichen Form zur Verfügung stehen. Die Kommunikation zwischen den Mitarbeitern und die Koordination der anfallenden Tätigkeiten ist mitentscheidend für die Leistung des Teams. Besonders wichtig wird dies, wenn die kooperierenden Personen nicht nur verschiedene Arbeitsplätze haben, beispielsweise verschiedene Bildschirme, sondern diese Arbeitsplätze weit voneinander entfernt sind. So können sich die Arbeitsplätze durchaus in verschiedenen Stockwerken eines Firmengebäudes oder an verschiedenen Orten befinden, jedoch müssen die Mitarbeiter trotzdem eng zusammenarbeiten. Die sich dabei herausbildenden Arbeitsprozesse sind keineswegs statisch, sondern müssen - bedingt durch neue Aufgaben, neue Rahmenbedingungen und neue Erkenntnisse - ständig angepasst werden.
On-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem
(1991)
Dieses Kapitel gliedert sich in drei Teile. Zuerst wird die Vorgehensweise in dieser Diplomarbeit zusammengefaßt. Dann folgen die gewonnenen Schlußfolgerungen mit einer Bewertung der verglichenen Ansätze. Der letzte Teil ist ein Ausblick auf die möglichen Anwendungen der Ergebnisse dieser Arbeit. Methodik Bei der Aufgabe, eine on-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem zu untersuchen, wurden folgende Schritte vorgenommen: " Klassifizierung der bisherigen Ansätze zur Beschleunigung der Kollisionserkennung mit einem Arm. Dabei wurde unterschieden zwischen dem Einsatz-Zeitpunkt und der Methode der Ansätze. " Modifikation des Weltmodells der Kollisionserkennung für den Einsatz von mehreren Roboterarmen. Kollisionsklassen wurden in einer formalen Darstellung eingeführt und ihre Eigenschaften betrachtet. " Untersuchung der Approximation von Objekten (z. B. Armsegmente und Hindernisse) durch Primitive. Dabei wurden Algorithmen zur Berechnung der Approximationen entworfen und implementiert. Unterschiedliche Strategien zur Abstandsberechnung mit Primitiven-Approximationen wurden entwickelt. " Untersuchung und Erweiterung der hierarchischen Modellierung für den Einsatz bei bewegten Objekten (wie z. B. Roboterarmen). Dazu wurden eine on-line Aktualisierung der Geometrie und eine Auswahl der optimalen Baumstruktur eingesetzt. " Implementierung der bisherigen und eigenen Beschleunigungs-Ansätze. Für die Durchführung von Experimenten wurden die Ansätze in ein Simulationssystem eingebunden und das Simulationssystem erweitert. " Vergleich und Bewertung der Beschleunigungs-Ansätze durch Messung von Laufzeiten und Qualität der resultierenden Abstandsvektoren. Untersuchung anderer einflußnehmender Parameter, wie z. B. der Sicherheitsabstand oder die Frequenz (Schrittweite) der Kollisionserkennung. Schlußfolgerungen Die Untersuchung der implementierten Ansätze zur on-line Kollisionserkennung erlaubt folgende Bewertung und Folgerungen: " Die on-line Kollisionserkennung mit Abstandsvektoren für mehrere Arme ist bei der Verwendung der entsprechenden Beschleunigungs-Ansätze möglich. Die Berechnungszeit pro Bewegungsschritt liegt im Bereich von wenigen Millisekunden. " Die eingeführte Unterteilung der Umwelt in Kollisionsklassen schafft einen einfachen Mechanismus zur Kollisionserkennung in Szenen mit mehreren bewegten Objekten. Die Kollisionsklassen ermöglichen eine systematische Kollisionserkennung für ein Mehrarm-Robotersystem. " Der Vergleich der Primitiven-Approximationen zeigt, daß der ausschließliche Einsatz der Bounding-Box als Primitiv zu besseren Ergebnissen führt als der Einsatz von mehreren Primitiven wie z. B. in [Adolphs]. Die Verbesserungen betreffen den Aufwand der Abstandsberechnung und die Qualität des Abstandsvektors. " Schon bei wenigen Objekten empfiehlt sich eine hierarchische Darstellung zur Beschleunigung der Kollisionserkennung, da sie zu sehr schnellen Abstandsberechnungen führt. Vor allem bei Szenen mit vielen Objekten ist eine hierarchische Darstellung unverzichtbar. " Durch das neue Konzept der dynamischen Hierarchien ist eine hierarchische Modellierung auch für bewegte Objekte möglich. Die dynamischen Hierarchien garantieren eine optimale Darstellung und ermöglichen eine relativ genaue Modellierung des Roboterarms. Bei der Kollisionserkennung für mehrere Roboterarme ist durch den Einsatz von dynamischen Hierarchien ein Beschleunigungsfaktor von 100 gegenüber dem einfachen Verfahren erreicht worden. Damit ist eine on-line Anwendung möglich. Ausblick Aufbauend auf den hier erzielten Ergebnissen sind folgende Anwendungen denkbar: " Eine on-line Bahnplanung basierend auf den berechneten Abstandsvektoren ist möglich. Von Punkt zu Punkt geplante Bahnen können mit Hilfe der Abstandsvektoren modifiziert und Ausweichtrajektorien generiert werden. " Die Potential-Feld-Methode zur lokalen Bahnplanung kann aufgrund den on-line berechneten Abstandsvektoren angewendet werden. " Auch exakte Abstände können schnell berechnet werden. Diese Abstandsberechnung wird effizient durch die Kombination der dynamischen Hierarchien mit einer A*-Suche. " Die schnelle Abstandsberechnung kann auch für andere Gebiete eingesetzt werden. Beispiele dafür sind der Aufbau von Konfigurations-Räumen oder die Layout-Planung. " Bei zu handhabenden Objekten, wie z. B. Werkstücke, kann das Konzept der Kollisionsklassen einfach um einen dynamischen Wechsel erweitert werden. Dabei wechselt z. B. ein Werkstück, wenn es von dem Arm gegriffen wird, die Klasse.
In fallbasierten Systemen ist es notwendig, ein über die normalen Datenbank-Suchaufgaben hinausgehendes Retrieval bereitzustellen. Hier müssen die n zu einem Anfragefall ähnlichsten Fälle aus einer Fallbasis gesucht werden.In dieser Diplomarbeit wird ein solches System zum ähnlichkeitsbasierten Retrieval von Fällen entwickelt. Dieses System übernimmt die Verwaltung der Fälle unter Verwendung der Datenstruktur des k-d-Baumes, hierbei werden die k-d-Bäume so aufgebaut, dass sie in optimaler Weise die sogenannte Best-Match- bzw. Nearest-Neighbour-Suche ermöglichen. Hierbei stand bereits ein existierendes System zur Verfügung, welches diese Suche zwar schon unterstützt, aber noch eine unbefriedigende Performance aufwies.
Problemspezifikation für die Arbeitsplanerstellung rotationssymmetrischer Drehteile mit AutoCAD
(1996)
Um den Anforderungen am industriellen Markt gerecht werden zu können, sind Unternehmer gezwungen, immer komplexere, speziell auf den Kunden abgestimmte Produkte möglichst schnell in kleinen Losgrössen herzustellen. Dabei umfasst die Herstellung eines neuen Produkts eine Vielzahl von Arbeitsschritten. Um den Marktanforderungen zu genügen wird bereits heute ein grosser Teil dieser Arbeitsvorgänge computerunterstützt durchgeführt.
Planung ist ein vielfach untersuchtes Gebiet im Bereich der Künstlichen Intelligenz. Die hier vorgestellte Arbeit ist in diesem Gebiet angesiedelt: es geht um ein Planungssystem, welches auf die Unterstützung der Arbeitsplanerstellung in der computerintegrierten Fertigung abzielt. Der Bereich der computerintegrierten Fertigung ist allerdings nur als ein spezieller Anwendungsbereich für das System zu sehen.
Ein umfangreiches Gebiet der Künstlichen Intelligenz beschäftigt sich mit dem Bereich Planung. Im wesentlichen gibt es zwei Planungsansätze, zum einen nicht-hierarchische und zum anderen hierarchische arbeitende Verfahren. Als Beispiel für einen nicht-hierarchischen Ansatz kann SNLP1 genannt werden. Die nachfolgende Ausarbeitung ist auf dem zweiten Gebiet, der hierarchischen Planung, angesiedelt: Der Planungsassistent CAPlan2, der eigentlich auf dem nicht-hierarchischen Planungsansatz SNLP beruht, soll um die Möglichkeiten der hierarchischen Planung erweitert werden.
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.
Zur schnellen Kommunikation zwischen Rechnern werden laufzeiteffiziente Implementationen von Protokoll-Spezifikationen benötigt. Die herkömmliche Schichten-Aufteilung verursacht hohe Kosten. In dieser Projektarbeit wurde eine andere Spezifikationsform, die Methode des strukturierten Produktautomaten, am Beispiel der OSI-Schichten 5 und 6 untersucht. Der Aufwand zur Erstellung und Wartung der Spezifikation und die Laufzeiteffizienz der daraus entstandenen Inplementation wurden mit mehreren anderen Spezifikationsformen verglichen und bewertet. Die Methode des strukturierten Produktautomaten erwies sich dabei als ein geeigneter Spezifikationsstil.
Das Modell des Intelligenten ist eine Abstraktion von Telefonvermittlungs-systemen und beschreibt auch deren Erweiterungen. Zunächst wird ein einfachesBasissystem spezifiziert, das dann um weitere Leistungsmerkmale, sog. Features, erweitert wird. Im Rahmen dieser Arbeit haben wir ein bereits bestehendes, in Estellespezifiziertes Basissystem um sechs Features erweitert. Dabei konnten wir verschiedene Stile für die Featurespezifikation in Estelle überprüfen. Wir entwerfen Prinzipien füreine verhaltenerhaltende Transformation, die geeignete Ansatzpunkte für neueFeatures schaffen kann. Für das Ergänzen von neuen Rufnummern haben wir eine einfache Methode entwickelt. Wir zeigen zwei Schwächen von Estelle beim Erweitern vonSystemen auf. Schließlich berichten wir über unsere Erfahrungen mit dem im IN-Modellverwendeten Prinzip der Detection Points.
Im Rahmen dieser Diplomarbeit werden die Konzepte zur Unterstützung von datenbankorientierten Software-Produktlinien durch domänenspezifische Sprachen am Beispiel von Versionierungssystemen untersucht. Ziel dieser Arbeit ist es, die zeitlichen Kosten, die durch die Nutzung einer domänenspezifischen Sprache entstehen, zu bestimmen. Dabei werden unterschiedliche Datenbankschemata verwendet, um zu untersuchen, welcher Zusammenhang zwischen der Komplexität des Datenbankschemas und der Übersetzung einer domänenspezifischen Anweisung in eine Reihe von herkömmlichen SQL-Anweisungen besteht. Um die zeitlichen Kosten für die Reduktion zu bestimmen, werden Leistungsuntersuchungen durchgeführt. Grundlage für diese Leistungsuntersuchungen sind domänenspezifische Anweisungen, die von einem speziell für diesen Zweck entwickelten Generator erzeugt wurden. Diese generierten domänenspezifischen Anweisungen werden mit den unterschiedlichen Datenbanktreibern auf dem passenden Datenbankschema ausgeführt.
Das Thema dieser Arbeit ist die Erweiterung von CoMo-Kit um eine Zeitplanungskomponente. Man möchte Informationen über die Dauer der einzelnen Teilaufgaben gewinnen und diese zu Dauern der übergeordneten abstrakten Aufgaben abschätzen. Auf diese Weise kann sich ein Manager über die voraussichtliche Gesamtdauer des Projektes und dessen Fortgang informieren. Dazu werden frühestmögliche und spätestmögliche Anfangs- und Endzeitpunkte der Vorgänge berechnet. Die Differenz zwischen frühesten und spätesten Zeitpunkten gibt dem Projektmanager eine Aussage über den Dispositionsspielraum der einzelnen Vorgänge. Ist kein Spielraum vorhanden, kann man erkennen, daß dieser Vorgang die Projektdauer determiniert und eventuell für Verzögerungen verantwortlich sein kann. Im Rahmen dieser Diplomarbeit ist das Verfahren der Allgemeine Hierarchischen Netzplantechnik entwickelt und als Zeitplanungskomponente in das System CoMo-Kit integriert worden.