Refine
Year of publication
Document Type
- Preprint (148) (remove)
Language
- German (148) (remove)
Keywords
- Case-Based Reasoning (7)
- Fallbasiertes Schliessen (6)
- AG-RESY (3)
- Maschinelles Lernen (3)
- Diagnose technischer Systeme (2)
- Expertensysteme (2)
- Fallbasiertes Schließen (2)
- Geodäsie (2)
- Mathematikunterricht (2)
- Mehrskalenanalyse (2)
- Modellierung (2)
- Navigation (2)
- Prozesssteuerung (2)
- RONAF (2)
- RSWK (2)
- Robotik (2)
- praxisorientiert (2)
- Accounting (1)
- Alterssicherung (1)
- Assembly (1)
- Automation (1)
- Bitlisten (1)
- CAP (1)
- CAS (1)
- CAx-Anwendungen (1)
- CAx-Technik (1)
- CHAMP-Mission (1)
- Case-Based Planning (1)
- CoMo-Kit (1)
- Cochlea Implant (1)
- Cochlea Implantat (1)
- Computer assistierte Chirurgie (1)
- Computer assistierte Chirurgie (CAS) (1)
- DES (1)
- Datenreduktion (1)
- Didaktik (1)
- EU (1)
- Ermöglichungsdidaktik (1)
- Fachdidaktik (1)
- Fallbasierte Planung (1)
- Farbmodell (1)
- Force-Torque (1)
- Frauen (1)
- Gebäude (1)
- Gebäudeautomation (1)
- Gravitation (1)
- Gravitationsfeld (1)
- Gravitationsmodell (1)
- Huffman (1)
- Huffman-Code (1)
- IDEA (1)
- Indexierung (1)
- Induktive Logische Programmierung (1)
- Induktiven Logischen Programmierung (1)
- Inhaltserschließung (1)
- Inverses Problem (1)
- KLUEDO (1)
- Kompetenz (1)
- Kompetenzatlas (1)
- Komprimierung (1)
- Kooperation (1)
- Kryptographie (1)
- Kryptologie (1)
- LCSH (1)
- Laufkomprimierung (1)
- Lernalgorithmen (1)
- Lineare Algebra (1)
- Linux (1)
- Logik (1)
- Logische Programmierung (1)
- MILOS (1)
- MVP-L (1)
- Manipulation skills (1)
- Mathematische Modellierung (1)
- Netzwerk (1)
- PABS-Methode (1)
- PATDEX (1)
- PATDEX 2 (1)
- Problemlösung (1)
- RGB (1)
- RLE (1)
- RODEO (1)
- RSA (1)
- Rechnernetze (1)
- Regularisierung (1)
- Robotics (1)
- SCM (1)
- SDL-oriented Object Modeling Technique (1)
- SOMT (1)
- SWB (1)
- Schlagwortkatalogisierung (1)
- Schneesport (1)
- Schneesportausbildung (1)
- Server (1)
- Software Configuration Management (1)
- Spindynamik (1)
- Sprachen (1)
- Standortplanung (1)
- Stücklisten (1)
- Systemarchitektur (1)
- TCP/IP (1)
- Tiefengeothermie (1)
- Umwelt-Audit-Verordnung (1)
- Unterricht (1)
- Verschlüsselung (1)
- Verteiltes System (1)
- Vigenere (1)
- Wavelet (1)
- Wavelets (1)
- Workflowmanagement (1)
- computer aided planning (1)
- deformable objects (1)
- fallbasiertes Schliessen (1)
- homological algebra (1)
- knowledge-based planning (1)
- konzeptuelle Modelierung (1)
- learning algorithms (1)
- magnetische Vielfachschichten (1)
- mehrwertig (1)
- rekursiv aufzählbare Sprachfamilien (1)
- spectral sequences (1)
- verlustfrei (1)
- wissensbasierte Systeme (1)
- wissensbasierter Systeme der Arbeitsplanerstellung (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (56)
- Kaiserslautern - Fachbereich Mathematik (54)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (14)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Physik (2)
- Universitätsbibliothek (2)
- Kaiserslautern - Fachbereich Sozialwissenschaften (1)
Die Theorie der mehrdimensionalen Systeme ist ein relativ junges Forschungsgebiet innerhalb der Systemtheorie, erste Arbeiten stammen aus den 70er Jahren. Hauptmotiv für das Studium multidimensionaler Systeme war die Notwendigkeit einer Erweiterung der Theorie der digitalen Filter, die in der klassischen, eindimensionalen Signalverarbeitung (zeitabhängige Signale) Anwendung finden, auf den Bereich der Bildverarbeitung, also auf zweidimensionale Signale.; Die Vorlesung beschäftigt sich daher in ihrem ersten Teil mit skalaren zweidimensionalen Systemen und beschränkt sich im wesentlichen auf den linearen Fall. Untersucht werden zweidimensionale Filter, ihre wichtigsten Eigenschaften, Kausalität und Stabilität, sowie ihre Zustandsraum- realisierungen, etwa die Modelle von Roesser und Fornasini-Marchesini. Parallelen und Unterschiede zur eindimensionalen Systemtheorie werden betont.; Im zweiten Teil der Vorlesung werden allgemeine höherdimensionale und multivariable Systeme behandelt. Für diese Systeme erweist sich der von Jan Willems begründete Zugang zur Systemtheorie, der sogenannte behavioral approach, als zweckmäßig. Grundlegende Ideen dieses Ansatzes sowie eine der wichtigsten Methoden zum Rechnen mit Polynomen in mehreren Variablen, die Theorie der Gröbnerbasen, werden vorgestellt.
In diesem Artikel diskutieren wir Anforderungen aus der Kreditwürdigkeitsprüfung und ihre Erfüllung mit Hilfe der Technik des fallbasierten Schliessens. Innerhalb eines allgemeinen Ansatzes zur fallbasierten Systementwicklung wird ein Lernverfahren zur Optimierung von Entscheidungskosten ausführlich beschrieben. Dieses Verfahren wird, auf der Basis realer Kundendaten, mit dem fallbasierten Entwicklungswerkzeug INRECA empirisch bewertet. Die Voraussetzungen für den Einsatz fallbasierter Systeme zur Kreditwürdigkeitsprüfung werden abschliessend dargestellt und ihre Nüt zlichkeit diskutiert.
Planabstraktion ist eine Möglichkeit, den Aufwand bei der Suche nach einem Plan zur Lösung eines konkreten Problems zu reduzieren. Hierbei wird eine konkrete Welt mit einer Problemstellung auf eine abstrakte Welt abgebildet. Die abstrakte Problemstellung wird nun in der abstrakten Welt gelöst. Durch die Rückabbildung der abstrakten Lösung auf eine konkrete Lösung erhält man eine Lösung für das konkrete Problem. Da die Anzahl der zur Lösung des abstrakten Problems benötigten Operationen geringer ist und die abstrakten Zustände und Operatoren einer weniger komplexen Beschreibung genügen, wird der Aufwand zur Suche einer konkreten Problemlösung reduziert.
Fallbasiertes Schliessen (engl.: Case-based Reasoning) hat in den vergangenen Jahren zunehmende Bedeutung für den praktischen Einsatz in realen Anwendungsbereichen erlangt. In dieser Arbeit werden zunächst die allgemeine Vorgehensweise und die verschiedenen Teilaufgaben des fallbasierten Schliessens vorgestellt. Anschliessend wird auf die charakteristischen Eigenschaften eines Anwendungsbereiches eingegangen und an der konkreten Aufgabe der Kreditwürdigkeitsprüfung die Realisierung eines fallbasierten Ansatzes in der Finanzwelt beschrieben.
Die Verwendung von existierenden Planungsansätzen zur Lösung von realen Anwendungs- problemen führt meist schnell zur Erkenntnis, dass eine vorliegende Problemstellung im Prinzip zwar lösbar ist, der exponentiell anwachsende Suchraum jedoch nur die Behandlung relativ kleiner Aufgabenstellungen erlaubt. Beobachtet man jedoch menschliche Planungsexperten, so sind diese in der Lage bei komplexen Problemen den Suchraum durch Abstraktion und die Verwendung bekannter Fallbeispiele als Heuristiken, entscheident zu verkleinern und so auch für schwierige Aufgabenstellungen zu einer akzeptablen Lösung zu gelangen. In dieser Arbeit wollen wir am Beispiel der Arbeitsplanung ein System vorstellen, das Abstraktion und fallbasierte Techniken zur Steuerung des Inferenzprozesses eines nichtlinearen, hierarchischen Planungssystems einsetzt und so die Komplexität der zu lösenden Gesamtaufgabe reduziert.
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von bekannten Fallbeispielen ein derzeit sehr aktuelles Thema. Auch für Diagnoseaufgaben gewinnt der fallbasierte Ansatz immer mehr an Bedeutung. In diesem Papier soll der im Rahmen des Moltke -Projektes1 an der Universität Kaiserslautern entwickelte fallbasierte Problemlöser Patdex/22 vorgestellt werden. Ein erster Prototyp, Patdex/1, wurde bereits 1988 entwickelt.
Forschungsprojekte im Bereich des fallbasierten Schliessens in den USA, die Verfügbarkeit kommerzieller fallbasierter Shells, sowie erste Forschungsergebnisse initialer deutscher Projekte haben auch in Deutschland verstärkte Aktivitäten auf dem Gebiet des fallbasierten Schliessens ausgelöst. In diesem Artikel sollen daher Projekte, die sich als Schwerpunkt oder als Teilaspekt mit fallbasierten Aspekten beschäftigen, einer breiteren Öffentlichkeit kurz vorgestellt werden.
Patdex is an expert system which carries out case-based reasoning for the fault diagnosis of complex machines. It is integrated in the Moltke workbench for technical diagnosis, which was developed at the university of Kaiserslautern over the past years, Moltke contains other parts as well, in particular a model-based approach; in Patdex where essentially the heuristic features are located. The use of cases also plays an important role for knowledge acquisition. In this paper we describe Patdex from a principal point of view and embed its main concepts into a theoretical framework.
Formalismen und Anschauung
(1999)
In der Philosophie ist es selbstverständlich, daß Autoren, die Erkenntnisse früherer Philosophen weitergeben oder kommentieren, die Originalliteratur kennen und sich in ihrer Argumentation explizit auf bestimmte Stellen in den Originaldarstellungen beziehen. In der Technik dagegen ist es allgemein akzeptierte Praxis, daß Autoren von Lehrbüchern, in denen Erkenntnisse früherer Forscher dargestellt oder kommentiert werden, nicht die Originaldarstellungen zugrunde legen, sondern sich mit den Darstellungen in der Sekundärliteratur begnügen. Man denke an die Erkenntnisse von Boole oder Maxwell, die in sehr vielen Lehrbüchern der Digitaltechnik bzw. der theoretischen Elektrotechnik vermittelt werden, ohne daß die Autoren dieser Lehrbücher auf die Originalschriften von Boole oder Maxwell Bezug nehmen. Dagegen wird man wohl kaum ein Buch über Erkenntnisse von Aristoteles oder Kant finden, dessen Autor sich nicht explizit auf bestimmte Stellen in den Schriften dieser Philosophen bezieht.
Die systemtheoretische Begründung für die Einführung des Zustandsbegriffs findet man im Mosaik-stein "Der Zustandsbegriff in der Systemtheorie". Während sich die dortige Betrachtung sowohl mitkontinuierlichen als auch mit diskreten Systemen befaßt, wird hier die Betrachtung auf diskrete Sy-steme beschränkt.
Umgangssprachlich wurde das Wort Daten schon gebraucht, lange bevor der Computer erfundenwurdeund die AbkürzungEDV für "Elektronische Datenverarbeitung" in die Alltagssprache gelangte.So sagte beispielsweise der Steuerberater zu seinem Klienten: "Bevor ich Ihre Steuererklärung fertigmachen kann, brauche ich von Ihnen noch ein paar Daten." Oder der Straßenbaureferent einer Stadtschrieb an den Oberbürgermeister: "Für die Entscheidung, welche der beiden in Frage stehenden Stra-ßen vorrangig ausgebaut werden soll, müssen wir noch eine Datenerhebung durchführen." Bei diesenDaten ging es zwar oft um Zahlen - Geldbeträge, Anzahl der Kinder, Anzahl der Beschäftigungsmo-nate, gezählte Autos - , aber eine Gleichsetzung von Daten mit Zahlen wäre falsch. Zum einen wärenZahlen ohne mitgelieferte Wörter wie Monatseinkommen, Kinderzahl u.ä. für den Steuerberater nutz-los, zum anderen will das Finanzamt u.a. auch den Arbeitgeber des Steuerpflichtigen wissen, und dazumuß eine Adresse angegeben werden, aber keine Zahl.
Für die Systemtheorie ist der Begriff Zustand ein sehr zentraler Begriff. Das Wort "Zustand" wird um-gangssprachlich recht häufig verwendet, aber wenn man die Leute fragen würde, was sie denn meinen,wenn sie das Wort Zustand benützen, dann würde man sicher nicht die präzise Definition bekommen,die man für die Systemtheorie braucht.
Sokrates und das Nichtwissen
(1997)
In diesem Aufsatz geht es um eine Klassifikation von Programmen nach zwei orthogonalen Kriterien.Programm und Software werden dabei nicht als Synonyme angesehen; Programm sein wird hiergleichgesetzt mit ausführbar sein, d.h. etwas ist dann und nur dann ein Programm, wenn man die Fragebeantworten kann, was es denn heißen solle, dieses Etwas werde ausgeführt. Es gibt durchaus Softwa-regebilde, bezüglich derer diese Frage keinen Sinn hat und die demzufolge auch keine Programme sind - beispielsweise eine Funktions - oder eine Klassenbibliothek.Klassifikation ist von Nutzen, wenn sie Vielfalt überschaubarer macht - die Vielfalt der Schüler einergroßen Schule wird überschaubarer, wenn die Schüler "klassifiziert" sind, d.h. wenn sie in ihren Klas-senzimmern sitzen. Die im folgenden vorgestellte Klassifikation soll die Vielfalt von Programmenüberschaubarer machen.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
Bekanntlich gibt es keinen befriedigenden unendlich dimensionalen Ersatz für das Lebesgue-Mass. Andererseits lassen sich viele Techniken klassischer Analysis auch auf unendlich dimensionale Situationen übertragen. Eine Möglichkeit hierzu gibt die Theorie differenzierbarer Masse. Man definiert Richtungsableitungen für Masse ähnlich wie für Funktionen. Eines der zentralen Beispiele ist das Wiener-Mass. Stochastische Integration bezüglich der Brownschen Bewegung, insbesondere das Skorokhod-Integral ergeben sich in natürlicher Weise durch diesen Ansatz und auch die Grundideen des MalliavinKalküls lassen sich in diesem Rahmen einfach erläutern. Die Vorträge geben die meisten Beweise.
Im Rahmen dieser Arbeit beschreiben wir die wesentlichen Merkmale der CAPlan-Architektur, die die interaktive Bearbeitung von Planungsproblemen ermöglichen. Anhand des SNLP-Algorithmus, der der Architektur zugrunde liegt, werden die im Laufe eines Planungsprozesses auftretenden Entscheidungspunkte charakterisiert. Mit Hilfe von frei definierbaren Kontrollkomponenten kann das Verhalten an diesen Entscheidungspunkte festgelegt werden, wodurch eine flexible Steuerung des Planungsprozesses ermöglicht wird. Planungsziele und -entscheidungen werden in einem gerichteten azyklischen Graphen verwaltet, der ihre kausalen Abhängigkeiten widerspiegelt. Im Gegensatz zu einem Stack, der typischerweise zur Verwaltung von Entscheidungen eingesetzt wird, erlaubt die graphbasierte Repräsentation die flexible Rücknahme einer Entscheidung, ohne alle zeitlich danach getroffenen Entscheidungen ebenfalls zurücknehmen zu müssen.
Caloric Restriction (CR) is the only intervention proven to retard aging and extend maximum lifespan in mammalians. A possible mechanism for the beneficial effects of CR is that the mild metabolic stress associated with CR induces cells to express stress proteins that increase their resistance to disease processes. In this article we therefore model the retardation of aging by dietary restriction within a mathematical framework. The resulting model comprises food intake, stress proteins, body growth and survival. We successfully applied our model to growth and survival data of mice exposed to different food levels.
Die zunehmende Zerstörung der Natur durch die Auswirkungen von Produktion und Konsum, die steigende Sensibilität der Bevölkerung für ökologische Themen sowie eine verschärfte Umweltgesetzgebung führen im Management der Unternehmen zu einem stärkeren Umwelt bewußtsein. Dabei wird immer häufiger versucht, den Belangen der Umwelt durch die Inte gration ökologischer Aspekte in die Unternehmenspolitik Rechnung zu tragen. Das Ziel eines derartigen betrieblichen Umweltmanagements ist es, umweltrelevante Schwachstellen des Unternehmens zu erkennen, um Ansatzpunkte für eine Verbesserung der ökolo gischen Situation zu erhalten und diese umzusetzen.
In diesem Aufsatz wird die Arbeitsweise eines Werkzeuges dargestellt, mit dessen Hilfedie Analyse von Feature-Interaktionen in Intelligenten (Telefon-)Netzwerken unterstütztwird. Dieses Werkzeug basiert auf einem von uns entwickelten formalen Lösungsansatz, deraus einem geeigneten Spezifikationsstil, aus einem formalen Kriterium zur Erkennung vonFeature-Interaktionen und aus einer Methode zur Auflösung der erkannten Feature- Interaktionen besteht. Das Werkzeug führt eine statische Analyse von Estelle-Spezifikationendurch und erkennt dabei potientielle Feature-Interaktionen sowie nichtausführbare Transitionen. Darüberhinaus kann es die erkannten nichtausführbaren Transitionen zur Optimierung aus der Spezifikation entfernen. Wir erläutern zunächst kurz den zugrundeliegendenAnsatz und beschreiben danach die Anwendung auf Estelle anhand der Funktionsweisedes Werkzeuges.
In dieser Arbeit wird die Entwicklung eines Werkzeugs dargestellt, mit des-sen Hilfe die Analyse von Feature-Interaktionen in Intelligenten Netzwerkenunterstützt wird. Es basiert auf der formalen Beschreibungstechnik Estelle, wo-bei durch einen speziellen Spezifikationsstil Feature-Interaktionen anhand vonbestimmten Wechselwirkungen zwischen Transitionen verschiedener Features(u.a. Indeterminismus) erkannt werden können. Das Ziel ist dabei die statischeErkennung und Protokollierung dieser Wechselwirkungen sowie die Entfernungvon nicht ausführbaren Transitionen zur Laufzeitoptimierung.Dazu werden zunächst die theoretischen Möglichkeiten zur Erkennung dieserWechselwirkungen untersucht. Danach werden anhand der Implementierung desAnalysewerkzeugs die eingesetzten Methoden und Algorithmen dargestellt undschließlich der Einsatz des Werkzeugs erläutert, das auf dem Estelle-Compiler PET basiert.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
Diese Arbeit beschäftigt sich mit dem Algorithmus von Kalman zur Schätzung von gegenwärtigen und zukünftigen Zuständen in zeitdiskreten dynamischen Systemen. In der Literatur ist dieser Algorithmus allgemein als Kalman-Filter bekannt. Im Vordergrund der Betrachtungen stehen dabei die Schätzfehler des Kalman-Filters, insbesondere für den Fall, daß das benutzte Modell nicht mit dem realen System übereinstimmt. Es wird der Frage nachgegangen, welche Einflüsse die Modellfehler auf die Schätzfehler des Kalman-Filters haben. Dies ist ein wichtiger Gesichtspunkt, den man bei der Anwendung des Kalman-Filters beachten sollte, da man i.a. nicht davon ausgehen kann, daß Modell und reales System übereinstimmen.; Um diese Fragestellung stärker zu motivieren, werden im nächsten Abschnitt ein paar allgemeine Überlegungen zur Modellbildung angestellt. Danach werden einige Modelle zur Behandlung von Zeitreihen angesprochen. Zur Hinführung auf den Kalman-Filter wird dann in Kapital 2 das Problem des Schätzens etwas allgemeiner behandelt. In Kapitel 3 erfolgt dann eine Herleitung des Kalman-Filters und die Untersuchung der Fehlerprozesse für den Fall, daß Modell und reales System übereinstimmen. Da für die zeitliche Entwicklung der Fehlerprozesse die Stabilität des Kalman-Filters von Bedeutung ist, wird auch diese besprochen. In Kapitel 4 werden schließlich die Fehlerprozesse für den Fall behandelt, daß Modell und reales System nicht übereinstimmen.
Die vorliegende Arbeit beschäftigt sich mit der numerischen Behandlung Differential-Algebraischer Gleichungen (DAE" s). DAE" s treten beispielsweise bei der Modellierung der Dynamik mechanischer System, der Schaltkreissimulation sowie der chemischen Reaktionskinetik auf. Es werden Rosenbrock-Wanner ähnliche Verfahren zu deren Lösung hergeleitet und an technischen Modellen (Fahrzeugachse und Verstärker) getestet.
Identifikation von Amplituden und Phasensprüngen im Intensitätsverlauf eines Nd-Yag Festkörperlasers
(1987)
Die Induktive Logische Programmierung (ILP) ist ein Forschungsgebiet, das Techniken aus dem Maschinellen Lernen und der Logischen Programmierung vereint. Sie untersucht das klassische Problem induktiven Lernens aus klassifizierten Beispielen im Rahmen der Hornlogik erster Stufe. Inzwischen gibt es eine grosse Zahl verschiedener Ansätze für dieses Lernproblem, die sich hauptsächlich in der Suchrichtung im Hypothesenraum, den Generalisierungs- und Spezialisierungsoperatoren und den verwendeten nichtlogischen Beschränkungen (Bias) unterscheiden. Der Vergleich und die Integration dieser verschiedenen Ansätze war die Hauptmotivation für die Entwicklung des Systems MILES. MILES ist eine Programmierumgebung für die ILP, die neben Mechanismen zur Repräsentation und Verwaltung von Beispielen, Hintergrundwissen und Hypothesen einen Werkzeugkasten mit einem Grossteil der bekannten Generalisierungs-, Spezialisierungs- und Reformulierungsoperatoren enthält. Eine generische Kontrolle erlaubt, verschiedene dieser Operatoren in einen spezifischen ILP-Algorithmus zu integrieren. In diesem Beitrag wird ein kurzer Überblick über die Repräsentation, die Operatoren und die Kontrolle von MILES gegeben.
Outsourcing und Übertragungsmöglichkeiten des Outsourcings auf die Universität Kaiserslautern
(1998)
Spektralsequenzen
(1999)
Verbale Sacherschließung
(1998)
Das Skript gibt eine Einführung in die Geschichte, die Terminologie und die Verfahren der verbalen Sacherschließung. Im deutschsprachigen und englischsprachigen Raum etablierte Verfahren, wie die "Regeln für den Schlagwortkatalog (RSWK)" und die "Library of Congress Subject Headings (LCSH)", werden eingehend beschrieben und Aspekte der Kooperation und Tauglichkeit für Online-Kataloge diskutiert. Charakteristika sowie Vor- und Nachteile der automatischen Indexierung werden anhand des Verfahrens "Maschinelle Indexierung zur verbesserten Literaturerschließung in Online Systemen (MILOS)" dargestellt.
Das Skript vermittelt die für eine Beschlagwortung nach den Regeln für den Schlagwortkatalog (RSWK) notwendigen Grundkenntnisse. Darüber hinaus wird beschrieben, wie die Schlagwortdaten in der Verbunddatenbank des Südwestdeutschen Bibliotheksverbund (SWB) strukturiert sind, welche Prinzipien bei der kooperativen Beschlagwortung im SWB einzuhalten sind und wie die Daten erfasst werden müssen . Des weiteren werden die in der Datenbank des SWB realisierten Suchmöglichkeiten aufgezeigt und aufgelistet, wie die dazugehörigen Suchbefehle lauten. Für Fragen der Organisation des Geschäftsgang der Teilnehmerbibliotheken wird exemplarisch der Arbeitsablauf an der UB Kaiserslautern dargestellt.
Handhabung deformierbarer linearer Objekte: Programmierung mit verschiedenen Manipulation-Skills
(2002)
Diese Arbeit beschreibt verschiedene Bewegungsprimitive zur Lösung einiger häufig auftre-tender Probleme bei der Handhabung von deformierbaren linearen Objekten. Anhand der beispielhaften Montage einer Feder wird die Nützlichkeit der verschiedenen Manipulation-Skills im einzelnen, aber auch deren Kombination dargestellt.
Bei einem von VDO entwickelten Navigationsgerät stehen unterschiedliche Verfahren zur Durchführung der Navigation zur Verfügung. Das Problem besteht darin, daß die von dem jeweiligen Verfahren erzielten Navigationsendpunkte von dem gewünschten Ziel mehr oder weniger stark abweichen. Diese Abweichungen hängen nicht nur von Anfangs- und Endpunkt der Testfahrt und vom Navigationsverfahren ab, sondern ändern sich auch bei der Wiederholung solcher Testfahrten. Ordnet man nun jedem Navigationsverfahren einen Parameter (vektor) zu und bezeichnet man die Menge aller betrachteten Parameter (werte) mit M (M kann zunächst endlich oder unendlich sein), so besteht das Ziel darin, den Parameter p*EM aufzufinden, für den das zugehörige Verfahren im Mittel am besten abschneidet. Hierzu ist es notwendig, zunächst ein Gütekriterium festzulegen.
Ziel dieser Arbeit ist es, eine Methode zur Verfügung zu stellen, mit der ein Simulator für gebäudespezifische Aufgaben modelliert werden kann. Die Modellierung muß dabei so angelegt sein, daß sowohl einfache als auch sehr komplexe Simulatoren für spezielle Gebäude entworfen werden können. Aus dem erstellten Modell ist es anschließend möglich, mit Hilfe von Generatoren automatisch ein Programm zu erzeugen. Dadurch kann ein Entwerfer ohne spezielle Kenntnisse auf dem Gebiet der Simulation einen Gebäude-Simulator entwickeln. Zur Modellierung wurde ein domänenspezifischer Katalog von Entwurfsmustern erstellt. Dabei können die einzelnen Muster direkt zur Modellierung und Codegenerierung eingesetzt werden.
Fallbasiertes Schliessen (engl.: Case-based Reasoning) hat in den vergangenen Jahren zunehmende Bedeutung für den praktischen Einsatz in realen Anwendungsbereichen erlangt. In dieser Arbeit stellen wir zunächst die allgemeine Vorgehensweise und die verschiedenen Teilaufgaben des fallbasierten Schliessens vor. Anschliessend erörtern wir die charakteristischen Eigenschaften eines Anwendungsbereiches, die einen Einsatz des fallbasierten Ansatzes begünstigen, und demonstrieren an der konkreten Aufgabe der Kreditwürdigkeitsprüfung die Realisierung eines fallbasierten Ansatzes in der Finanzwelt. Die abschliessende Diskussion zeigt durch einen Vergleich mit verschiedenen Methoden der Klassifikation das grosse Innovationspotential des fallbasierten Schliessens in der Finanz- welt als eine echte Alternative zu bisherigen Methoden.
Viele Entwicklungsprozesse, wie sie z.B. beim Entwurf von grossen Softwaresystemen benötigt werden, basieren in erster Linie auf dem Wissen der mit der Entwicklung betrauten Mitarbeiter. Mit wachsender Komplexität der Entwurfsaufgaben und mit wachsender Anzahl der Mitarbeiter in einem Projekt wird die Koordination und Verteilung dieses Wissens immer problematischer. Aus diesem Grund versucht man zunehmend, das Wissen der Mitarbeiter in elektronischer Form, d.h. in Rechnern zu speichern und zu verwalten. Dadurch, dass der Entwurf eines komplexen Systems ebenfalls am Rechner modelliert wird, steht benötigtes Wissen sofort zur Verfügung und kann zur Entscheidungsunterstützung herangezogen werden. Gerade bei der Planung grosser Projekte stehen jedoch oft Entscheidungen aus, die erst später, während der Abwicklung getroffen werden können. Da gängige Workflow-Management-System zumeist eine komplette Modellierung verlangen, bevor die Abwicklung eines Projektmodells beginnen kann, habt sich dieser Ansatz gerade für umfangreiche Projekte als eher ungeeignet herausgestellt.
Seinen Versuch, den Begriff der negativen Größen in die Weltweisheit einzuführen beginnt der neununddreißigjährige Immanuel Kant mit einer grundsätzlichen Erörterung über einen etwaigen Gebrauch, den man in der Weltweisheit von der Mathematik ma-chen kann. Dabei stellt er die These auf, daß Mathematik grundsätzlich nur auf zweierlei Art in die Philosophie eingreifen könne. Eine erste Möglichkeit sieht Kant in der Nachahmung mathematischer Methoden bei der Darstellung von Philosophie, die andere Möglichkeit besteht für ihn in der konkreten Anwendung mathematischer Theorien in der Naturlehre. Die zuerst genannte Möglichkeit beurteilt Kant ausgesprochen negativ; seine Kritik an dem von Comenius zunächst ganz allgemein formulierten und dann von Christian Wolff insbesondere für die Philosophie favorisierten Programm einer Präsentation der Philosophie nach mathematischem Vorbild einer Darstellung more geometrico demonstrata ist hinlänglich bekannt. Die Verwendung von Mathematik in der Naturlehre sieht Kant zwar durchaus positiv; in den Metaphysischen Anfangsgründen der Naturwissenschaft wird er gut zwei Jahrzehnte später sogar jene berühmte Behauptung hinzufügen, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist. Dennoch weist Kant mit aller Deutlichkeit auf die engen Grenzen des Wirkungsbereichs solcher Anwendungen von Mathematik hin, denn seiner Meinung nach würden aber auch nur die zur Naturlehre gehörigen Einsichten von derartigem mathematischem Zugriff profitieren.
In einem Beitrag zu Platons Philosophie des Abstiegs schreibt C.F. v. Weizsäcker, er sei "überzeugt, daß die griechische Philosophie, dieses in allen Weltkulturen einzigartige Kunstwerk, ohne das mathematische Paradigma undenkbar gewesen wäre" . Und in seiner berühmten Kant-Vorlesung im WS 1935/36 erklärte M. Heidegger, es sei "kein Zufall, daß die Kritik der reinen Vernunft... ständig von einer Besinnung auf das Wesen des Mathematischen und der Mathematik begleitet sei" . Was hier über Platon und Kant gesagt wird, trifft auf fast alle abendländischen Philosophen von Rang zu: Explizit oder implizit spielt die Mathematik eine entscheidende Rolle für die neue philosophische Konzeption. Welche Gründe sind es, die der Mathematik einen so hohen Stellenwert im Denken der maßgebenden Philosophen sichern? Mit welchen Intentionen und Zielvorstellungen montieren Philosophen seit Platon bis Heidegger, seit Aristoteles bis Bloch immer wieder Aussagen über Mathematik in ihre Philosophie? Weshalb war in den vergangenen zweieinhalb Jahrtausenden keine andere Wissenschaft für die Philosophie so >>frag-würdig<< wie die Mathematik? Die Philosophie hat - dies ist offensichtlich - den Dialog mit der Mathematik immer wieder gesucht. Und wie steht es um das Interesse der Mathematik an einem Dialog mit der Philosophie? In einem äußerst gehaltvollen und auch heute noch sehr lesenswerten Aufsatz Mathematik und Antike stellt der Mathematiker O. Toeplitz 1925 die Frage, "ob einmal im Dasein der Mathematik die Philosophie bestimmend in sie eingegriffen hat, ihre eigentliche definitive Gestalt gebildet hat" ? Eine derartige Initiative aus der Mathematik heraus zum Dialog mit der Philosophie ist kein Einzelfall. Cantor, Hilbert, Weyl, Gödel und Robinson - um nur einige Repräsentanten der neueren Mathematik in Erinnerung zu rufen - haben sich immer wieder um Kontakte mit der Philosophie bemüht.
Der vorliegende Artikel setzt die Beitragsreihe zur Vorstellung der Ergebnisse der FEMEX fort, die mit der Präsentation einer allgemeinen Feature-Definition in [BWE-96] begonnen wurde. FEMEX (Feature Modelling Experts) ist eine internationale und interdisziplinäre Gruppe von Forschern, Entwicklern und Anwendern aus Universitäten, Forschungsinstituten und Industrie, die sich zum Ziel gesetzt haben, Grundlagen für eine Feature-basierte Produktentwicklung zu erarbeiten. Der Anwender steht dabei im Mittelpunkt der Bemühungen: die Feature-Technologie hat die Aufgabe, ihm Methoden und Werkzeuge an die Hand zu geben, mit denen er in den unterschiedlichen Phasen einer komplexen Prozeßkette effizient arbeiten kann. Vier Arbeitsgruppen wurden gebildet, die sich mit unterschiedlichen Aspekten der Feature-Technologie beschäftigen. In diesem Beitrag werden die Ergebnisse der Arbeitsgruppe II Feature Modelling Methods and Application Areas" vorgestellt. Ihre Aufgabe ist es, die Modellierungsmethoden und Anwendungsgebiete der Feature-Technologie im Kontext des Produktentwicklungs- prozesses zu untersuchen. Ausgangspunkt für die Arbeiten ist neben den benutzerspezifischen Anforderungen die Feature-Definition der Arbeitsgruppe I [BWE-96]. An dieser Definition ist hervorzuheben, daß Features keine physikalischen Elemente sind und auch keine physikalischen Entsprechungen haben müssen, sondern nur in der Welt der informationstechnischen Modelle existieren. Desweiteren sind die für den Anwender relevanten Eigenschaften der bearbeiteten Objekte, welcher Art sie auch sein mögen (beispielsweise die Funktion des Bauteils), die eigentliche Grundlage der Definition. Keiner Eigenschaft wird von vorneherein eine höhere Priorität gegeben, wodurch die Bauteilgeometrie ihre tragende Rolle bei der Modellierung verliert (bei den meisten der heute angebotenen CAD/CAM-Systemen wird dagegen üblicherweise davon ausgegangen, daß die in einem System verarbeitete Produktgeometrie die Basis für das gesamte Produktmodell darstellt).
Aesthetic Design bzw. Styling ist mehr und mehr ein zentrales Merkmal für den Erfolg von Automobilen auf dem Weltmarkt. Entsprechend den firmenspezifischen Vorstellungen werden diese Eigenschaften der Karosserien in komplexen Abläufen herausgearbeitet. Computer Aided Styling (CAS), Computer Aided Aesthetic Design (CAAD) sind die Werkzeuge zur Schaffung optimaler Karosserieformen. Die Abläufe sind von Unternehmen zu Unternehmen unterschiedlich, haben aber ähnliche Strukturen: es wird die Form der Karosserie erstellt, anschließend wird mit Hilfe geeigneter Werkzeuge die Qualität der Flächen beurteilt. In einem nächsten Schritt werden die Flächen entsprechend dieser Beurteilung wieder verändert. Diese Schleifen werden wiederholt, bis das Ergebnis die Verantwortlichen zufriedenstellt. Im Brite-EuRam-Projekt FIORES von 12 Partnern aus 6 Ländern, mit Automobilunternehmen (BMW, Saab), Design-Firmen (Eiger, Formtech, Pininfarina, Taurus), Systemherstelllern und Forschungsinstituten wird jetzt versucht, Methoden zu entwickeln, die den Design-Ablauf verbessern könnten: Die Bewertungskriterien für ästhetische Flächen sollen formalisiert werden und dann direkt zur Modifikation der Freiformflächen benutzt werden im Sinne einer zielgesteuerten Modellierung (Engineering in Reverse, EiR). Dieser Artikel stellt die Ergebnisse des Projekts innerhalb des ersten Jahres dar: der Design-Prozeß in verschiedenen Unternehmen wird analysiert, die sich daraus ergebenden Beurteilungskriterien für ästhetische Formen werden formalisiert und der zielgesteuerten Modellierung zugeführt. Ausblicke auf weitere Ziele des Projekts werden gegeben. Die vorgestellten Arbeiten sind das gemeinsame Ergebnis des Projekt-Konsortiums.
Die Domäne der Operationsroboter liegt heute in Fräsarbeiten an knöchernen Strukturen. Da Roboter über eine extreme Präzision verfügen und nicht ermüden bietet sich ihr Einsatz insbesondere bei langwierigen und zugleich hochpräzisen Fräsvorgängen im Bereich der lateralen Schädelbasis an. In jüngsten Arbeiten wurden Prozessparameter zur Anlage eines Implantatlagers bspw. für ein Cochlea Implantat oder für eine roboterunterstützte Mastoidektomie ermittelt. Gemessen wurden die Parameter Kraft, Moment, Vibration und Temperatur bei unterschiedlichen Vorschüben, Drehzahlen, Bahnkurven und unterschiedlichem Knochenmaterial (Mastoid, Kalotte). Hieraus ergaben sich Optimierungsparameter für solche Fräsvorgänge. Auffallend waren unvermittelt auftretende und extrem weit über dem Grenzwert liegende Spitzenwerte für Kräfte, bei im Normbereich liegenden Mittelwerten. Aus diesem Grunde wurde ein Verfahren entwickelt, welches aus einer geometrischen Beschreibung des Implantates eine geeignete Fräsbahn errechnet und eine Kraft-geregelte Prozesskontrolle des Fräsvorganges implementiert. Mit einem 6-achsigen Knickarmroboter erfolgten die Untersuchungen primär an Tierpräparaten und zur Optimierung an Felsenbeinpräparaten.Durch intraoperative online Rückkopplung der Kraft - Sensorik war eine lokale Navigation möglich. Bei steigenden Kräften über den Grenzwert wurde die Vorschubgeschwindigkeit automatisch reguliert, auch konnte das Errreichen der Dura an Hand der Werte detektiert werden. Das Implantatlager ließ sich durch das entwickelte Computerprogramm exakt ausfräsen. Die Untersuchungen ergaben, dass eine zufriedenstellende Anlage eines Implantatbettes in der Kalotte durch einen Kraft-geregelten Fräsvorgang mit einem Roboter, im Sinne einer lokalen Navigation, gelingt.
Berechnung und Optimierung des Energiegewinnes bei Anlagen zur Lufterwärmung mittels Erdkanal
(1986)
Hallen wie Turnhallen oder Fabrikationshallen werden häufig mit Warmluft beheizt. Dazu steht ein Heizkessel mit Heißwasser bereit, das über einen Wärmetauscher (WT1) Luft erwärmt. Diese Warmluft wird über ein Gebläse in die Halle eingebracht. An anderer Stelle der Halle wird die Luft, die sich abgekühlt hat, wieder angesaugt. Diese wird im Wärmetauscher wieder auf Solltemperatur erwärmt und erneut eingeblasen. Aus hygienischen Gründen muß allerdings ein Teil der angesaugten Umluft ins Freie fortgeführt werden und stattdessen frische Außenluft zugeführt werden. Dies geschieht in einer Mischkammer. Diese Außenluft hat während der Heizperiode eine recht niedrige Temperatur, so daß ein beachtlicher Anteil der Heizenergie für ihre Erwärmung aufgebracht werden muß. Um Energie zu sparen, wird die Außenluft über einen Wärmetauscher WT2 durch die Fortluft vorgewärmt. Eine weitere Einsparung wäre möglich, wenn es gelänge, diese Außenluft auf irgendeine natürliche Art und Weise zusätzlich vorzuerwärmen.
Das Designproblem eines Kanals mit parallel eingeblasener Luft war der Ausgangspunkt für diese Untersuchung. Um ein Gefühl für das Verhalten von Strömungen in einem Kanal gemäß Abb. 1 zu bekommen, sollte von uns ein Verfahren entwickelt werden, welches für folgende Geometrie die relevanten strömungsdynamischen Daten liefert.; Durch die Schlitzdüsen wird Luft mit hoher Geschwindigkeit eingeblasen. Für die sich dann einstellende quasistationäre Strömung im Kanal K soll die Entwicklung der Geschwindigkeitsprofile in Abhängigkeit vom Abstand zum Schlitz berechnet und die strömungsdynamischen Größen abgeleitet werden. Von besonderem Interesse sind hier der Druckverlauf, der Impulsverlust und die Wandschubspannung sowie die sich daraus ergebende mittlere Ansauggeschwindigkeit. Dabei sollen Geometrie, Einblasgeschwindigkeit sowie die Wandrauhigkeit variabel gehalten werden. Auf Grund von Experimenten erwartet man qualitativ etwa folgende Profile: Abb. 2
Nähen als dynamisches System
(1989)
Das Nähen und die Nähmaschine sind seit über hundert Jahren nahezu unverändert geblieben. Die Nähgeschwindigkeiten wurden gesteigert, der Nähvorgang automatisiert, aber das Prinzip ist gleichgeblieben.; Das entscheidende Problem beim Nähen ist die Erzeugung eines gut sitzenden Knotens. Um diesen Knoten zu bilden, wird der Oberfaden vom Greifer erfaßt und um den Unterfaden herumgeführt. Die Fadenführung mit beweglichen und festen Umlenkungen muß jetzt dafür sorgen, daß immer genügend Faden vorhanden ist, daß der Faden im Moment der Knotenbildung fest angezogen wird, aber muß verhindern, daß der Faden reißt.
Die Mehrzahl aller CBR-Systeme in der Diagnostik verwendet für das Fallretrieval ein numerisches Ähnlichkeitsmass. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem durch die Einführung eines an den Komponenten des zu diagnostizierenden technischen Systems orientierten Ähnlichkeitsbegriffs nicht nur das Retrieval wesentlich verbessert werden kann, sondern sich auch die Möglichkeit zu einer echten Fall- und Lösungstransformation bietet. Dies führt wiederum zu einer erheblichen Verkleinerung der Fallbasis. Die Ver- wendung dieses Ähnlichkeitsbegriffes setzt die Integration von zusätzlichem Wissen voraus, das aus einem qualitativem Modell der Domäne (im Sinne der modellbasierten Diagnostik) gewonnen wird.
Bestimmung der Ähnlichkeit in der fallbasierten Diagnose mit simulationsfähigen Maschinenmodellen
(1999)
Eine Fallbasis mit bereits gelösten Diagnoseproblemen Wissen über die Struktur der Maschine Wissen über die Funktion der einzelnen Bauteile (konkret und abstrakt) Die hier vorgestellte Komponente setzt dabei auf die im Rahmen des Moltke-Projektes entwickelten Systeme Patdex[Wes91] (fallbasierte Diagnose) und iMake [Sch92] bzw. Make [Reh91] (modellbasierte Generierung von Moltke- Wissensbasen) auf.
Die systematische Verbesserung von Techniken zur Entwicklung und Betreuung von Software setzt eine explizite Darstellung der in einem Projekt ablaufenden Vorgnge (Prozesse) voraus. Diese Darstellungen (Prozemodelle) werden durch Software- Prozemodellierung gewonnen. Eine Sprache zur Beschreibung solcher Modelle ist MVP-L. Verschiedene Standard-Prozemodelle existieren bereits. Bisher gibt es jedoch kaum dokumentierte Software-Entwicklungsprozesse, die speziell fr die Entwicklung reaktiver Systeme entworfen worden sind, d. h. auf die besonderen Anfordernisse bei der Entwicklung reaktiver Systeme zugeschnitten sind. Auch ist bisher nur wenig Erfahrung dokumentiert, fr welche Art von Projektkontexten diese Prozesse gltig sind. Eine Software- Entwicklungsmethode, die - mit Einschrnkungen - zur Entwicklung reaktiver Systeme geeignet ist, ist SOMT (SDL-oriented Object Modeling Technique). Dieser Bericht beschreibt die erfahrungsbasierte Modellierung der Software-Entwicklungsprozesse von SOMT mit MVP-L. Zunchst werden inhaltliche Grundlagen der Software-Entwicklungsmethode SOMT beschrieben. Insbesondere wird auf die eingesetzten Techniken und deren Kombination eingegangen. Anschlieend werden mgliche Projektkontexte charakterisiert, in denen das SOMT-Modell im Sinne eines Erfahrungselements Gltigkeit hat. Darauf werden der Modellierungsvorgang sowie hierbei gemachte Erfahrungen dokumentiert. Eine vollstndige Darstellung des Modells in grafischer MVP-L-Notation befindet sich im Anhang. Die Darstellung des Modells in textueller Notation kann der SFB-Erfahrungsdatenbank entnommen werden.
Erstellung eines Software-Monitors zur Analyse automatisch generierte Protokollimplementierungen
(1996)
Mathematische Weiterbildung
(1984)
Ziel des Modellversuchs war es, zu untersuchen, welche Ergebnisse der mathematischen Forschung an Universitäten für den Praktiker besser zugänglich gemacht werden sollten und wie dies geschehen kann. Als Zielgruppen einer solchen Bildungsaufgabe waren insbesondere Ingenieure in den Forschungs- und Entwicklungsabteilungen der Industrie und Studenten der Mathematik und Technik (im Sinne einer mehr praxisbezogenen Ausbildung) vorgesehen; in organisatorischer Hinsicht war an ein Fernstudium gedacht.
Es wird das Lernen uniform rekursiv aufzählbarer Sprachfamilien anhand guter Beispiele untersucht und Unterschiede und Gemeinsamkeiten zum Lernen von rekursiven Sprachfamilien und rekursiven Funktionen aufgezeigt. Dem verwendeten Modell liegt das Lernen von Schülern mit einem Lehrer zugrunde. Es werden verschiedene Varianten vorgestellt, verglichen und teilweise auch charakterisiert, und versucht, mit Beispielen und anderen typischen Eigenschaften ein Gefühl für die Leistungsfähigkeit zu vermitteln. Unter anderem wird gezeigt, dass es nicht immer "universelle" gute Beispiele gibt, mit denen eine Sprachklasse in allen Situationen erklärt werden kann.
Verfahren des Maschinellen Lernens haben heute eine Reife erreicht, die zu ersten erfolgreichen industriellen Anwendungen geführt hat. In der Prozessdiagnose und -steuerung ermöglichen Lernverfahren die Klassifikation und Bewertung von Betriebszuständen, d.h. eine Grobmodellierung eines Prozesses, wenn dieser nicht oder nur teilweise mathematisch beschreibbar ist. Ausserdem gestatten Lernverfahren die automatische Generierung von Klassifizierungsprozeduren, die deterministisch abgearbeitet werden und daher für die Belange der Echtzeitdiagnose und -steuerung u.U. zeiteffektiver als Inferenzmechanismen auf logischer bzw. Produktionsregelbasis sind, da letztere immer mit zeitaufwendigen Suchprozessen verbunden sind.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da komplizierte zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind. Die numerischen Berechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da kompliziertere zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind, besonders, wenn, wie an der Universität Kaiserslautern, nur eine relativ langsame Anlage (Siemens 7551/7561) zur Verfügung steht. Die numerischen Rechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
In diesem Beitrag wird ein Ansatz vorgestellt, mit dem Entwurfsprozesse geplant, koordiniert und durchgeführt werden können. In der Projektplanung wird zunächst ein explizites Modell des Entwurfsprozesses erstellt. Dieses wird von einem Workflowmanagementsystem als Basis für die Projektdurchführung benutzt. Projektplanung und -durchführung können miteinander verzahnt werden, d. h. während der Durchführung kann weiter-, um- und feingeplant werden. Während der Projektabwicklung werden kausale Abhängigkeiten zwischen (Teil-) Ergebnissen (wie z. B. Anforderungen, Vorentwürfen und Zeichnungen) fein-granular erfaßt, repräsentiert und verwaltet. Diese Abhängigkeiten werden im wesentlichen automatisch aus dem Prozeßmodell abgeleitet. Durch die Repräsentation der kausalen Abhängigkeiten wird die Verfolgbarkeit des Entwicklungsprozesses erhöht und dessen Ergebnisse dokumentiert. Basierend auf den repräsentierten Abhängigkeiten kann auf Änderungen gezielt reagiert werden, wodurch die Entwicklungskosten sinken. Die entwickelten Techniken werden am Beispiel der Bebauungsplanung erläutert.
Ohne auf wesentliche Aspekte der in [Bergstra&al.89] vorgestellten alge-braischen Spezifikationssprache ASF zu verzichten, haben wir ASF um die folgenden Konzepteerweitert: Während in ASF einmal exportierte Namen bis zur Spitze der Modulhierarchie sichtbarbleiben müssen, ermöglicht ASF + ein differenziertes Verdecken von Signaturnamen. Das fehlerhafteVermischen unterschiedlicher Strukturen, welches in ASF beim Import verschiedener Aktualisie-rungen desselben parametrisierten Moduls auftritt, wird in ASF + durch eine adäquatere Form derParameterbindung vermieden. Das neue Namensraum_Konzept von ASF + erlaubt es dem Spe-zifizierer, einerseits die Herkunft verdeckter Namen direkt zu identifizieren und anderseits beimImport eines Moduls auszudrücken, ob dieses Modul nur benutzt oder in seinen wesentlichen Ei-genschaften verändert werden soll. Im ersten Fall kann er auf eine einzige global zur Verfügungstehende Version zugreifen; im zweiten Fall muß er eine Kopie des Moduls importieren. Schließlicherlaubt ASF + semantische Bedingungen an Parameter und die Angabe von Beweiszielen.
Der ständig zunehmende Einsatz verteilter DV-Systeme führt zu einem stark steigendenBedarf an verteilten Anwendungen. Deren Entwicklung in den verschiedensten Anwen-dungsfeldern wie Fabrik- und Büroautomatisierung ist für die Anwender bislang kaum zuhandhaben. Neue Konzepte des Software Engineering sind daher notwendig, und zwar inden drei Bereichen 'Sprachen', 'Werkzeuge' und 'Umgebungen'. Objekt-orientierte Me-thoden und graphische Unterstützung haben sich bei unseren Arbeiten als besonders taug-lich herausgestellt, um in allen drei Bereichen deutliche Fortschritte zu erzielen. Entspre-chend wurde ein universeller objektorientierter graphischer Editor, ODE, als einesunserer zentralen Basis-Werkzeuge ('tool building tool') entwickelt. ODE basiert aufdem objekt-orientierten Paradigma sowie einer leicht handhabbaren funktionalen Sprachefür Erweiterungen; außerdem erlaubt ODE die einfache Integration mit anderen Werk-zeugen und imperativ programmierten Funktionen. ODE entstand als Teil von DOCASE,einer Software-Produktionsumgebung für verteilte Anwendungen. Grundzüge von DO-CASE werden vorgestellt, Anforderungen an ODE abgeleitet. Dann wird ODE detaillier-ter beschrieben. Es folgt eine exemplarische Beschreibung einer Erweiterung von ODE,nämlich der für die DOCASE-Entwurfssprache.
Zur Datenreduktion gemessener stochastischer Beanspruchungszeitfunktionen werden Zählverfahren eingesetzt. Mit den dabei entstehenden Beanspruchungskollektiven werden rechnerische Lebensdauerabschätzungen gemacht. Da diese mit großen Unsicherheiten behaftet sind, besteht der Wunsch, aus den Beanspruchungskollektiven on-line stochastische Beanspruchungszeitfunktionen zu rekonstruieren, damit ein experimenteller Lebensdauernachweis im Labor mit servohydraulischen Zylindern durchgeführt werden kann. In bezug auf die Lebensdauer der Bauteile unter stochastischer Beanspruchung wird heute dem zweiparametrigen Rainflow-Zählverfahren die größte Bedeutung beigemessen. Es werden ein gegenüber /1/ verbessertes Markov-Inversionsverfahren und ein Rekonstruktionsverfahren aus der symmetrischen und der unsymmetrischen Rainflow-Matrix vorgestellt. Anhand von Beispielen werden diese Inversionsverfahren, die jeweils unter allen Zeitfunktionen, die zu der betreffenden Matrix führen, mit gleicher Wahrscheinlichkeit eine auswählen, verglichen. Es zeigt sich dabei, daß im Hinblick auf die Lebensdauer von Bauteilen unter stochastischer Beanspruchung die Rainflow-Inversionen zu wesentlich besseren Ergebnissen führt als die Markov-Inversionen.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
Im Zuge der Bologna-Reform besteht der Anspruch die universitäre Lehre kompetenzorien-tiert zu gestalten. Es werden gemäß der KMK-Rahmenvorgaben in den universitären Mo-dulplänen Kompetenzen formuliert, jedoch realisiert sich die Umsetzung in nur wenigen Fällen und es bleibt oftmals bei der formalen Angabe von Qualifikationszielen. Im Sinne einer adä-quaten Berufsvorbereitung der Studierenden ist eine kompetenzorientiere Lehre aber als ele-mentar anzusehen.
An der Technischen Universität Kaiserslautern wird den Lehramtsstudierenden im Rahmen des Sportstudiums eine breit gefächerte Schneesportausbildung angeboten. Eine praxisorien-tierte Schneesportausbildung bietet eine besondere Form des Erlebens und Erfahrens, wel-che Studierenden in rein theoretischen Veranstaltungen nicht geboten werden kann. Jedes Erleben und Erfahren bewirkt Emotionen; Kompetenzen lassen sich nur in emotionsaktivie-renden Lernarrangements aneignen.
Das Ziel dieses Beitrags besteht darin, die Schneesportausbildung der TU Kaiserslautern un-ter dem Aspekt einer Kompetenzermöglichung vorzustellen. Hierfür wurde zunächst das Ausbildungskonzept erhoben, und untersucht, inwiefern den Studierenden im Rahmen der Schneesportausbildung eine Kompetenzentwicklung ermöglicht wird. Als Grundlage dient hier der Kompetenzatlas nach Heyse und Erpenbeck. Die sich ergebenden Resultate zu Inhalten und Methoden der Schneesportausbildung werden zusammenfassend in einem Kompetenz-profil dargestellt. Darüber hinaus werden die Ausbildungsmaßnahmen beurteilt, Möglichkeiten und Potentiale zur Kompetenzförderung aufgezeigt und beispielhaft im Sinne eines Best Practice Beispiels in einem Wochenplan zusammengefasst.
Diese Arbeit entstand aus der Zusammenarbeit der Arbeitsgruppe Technomathematik der Universität Kaiserslautern mit der Firma AUDI AG in Ingolstadt. Die Hauptaufgabe bestand in der Modell-Entwicklung für das Zeitverhalten von Beanspruchungszeitfunktionen (BAZF). Daher werden auch die ursprünglichen Modellansätze, die sich aufgrund von Beobachtungen realer BAZFen als Irrwege herausstellten, und die Stufen der Anpassung an die Realität hier dargestellt. Die Überprüfung der Modelle habe ich vier Wochen lang vor Ort durchgeführt und anschließend die endgültigen entwickelt. Die bei AUDI erstellten Plots werden zur Rechtfertigung der Modelle beitragen. Das Ziel der Modell-Entwicklung war immer die praktische Anwendung, weshalb auch dieser Gesichtspunkt oft hereinspielt, besonders wenn es um die Realisierung auf dem Rechner geht. Über die Implementierung und die praktischen Ergebnisse wird in einer späteren Arbeit berichtet werden.
Die Beweisentwicklungsumgebung Omega-Mkrp soll Mathematiker bei einer ihrer Haupttätigkeiten, nämlich dem Beweisen mathematischer Theoreme unterstützen. Diese Unterstützung muß so komfortabel sein, daß die Beweise mit vertretbarem Aufwand formal durchgeführt werden können und daß die Korrektheit der so erzeugten Beweise durch das System sichergestellt wird. Ein solches System wird sich nur dann wirklich durchsetzen, wenn die rechnergestützte Suche nach formalen Beweisen weniger aufwendig und leichter ist, als ohne das System. Um dies zu erreichen, ergeben sich verschiedene Anforderungen an eine solche Entwicklungsumgebung, die wir im einzelnen beschreiben. Diese betreffen insbesondere die Ausdruckskraft der verwendeten Objektsprache, die Möglichkeit, abstrakt über Beweispläne zu reden, die am Menschen orientierte Präsentation der gefundenen Beweise, aber auch die effiziente Unterstützung beim Füllen von Beweislücken. Das im folgenden vorgestellte Omega-Mkrp-System ist eine Synthese der Ansätze des vollautomatischen, des interaktiven und des planbasierten Beweisens und versucht erstmalig die Ergebnisse dieser drei Forschungsrichtungen in einem System zu vereinigen. Dieser Artikel soll eine Übersicht über unsere Arbeit an diesem System geben.
Planverfahren
(1999)
Ein verhaltensorientierter Ansatz zum flächendeckenden Fahren in a priori unbekannter Umgebung
(1998)
In diesem Aufsatz wird ein Verfahren zum flächendeckenden Fahren in zu- nächst unbekannter Umgebung beschrieben, wie es z.B. für Reinigungsanwen- dungen im Heimbereich benötigt wird. Parallel zur Durchführung der Reini- gungsaufgabe wird dabei die Umgebung exploriert und kartiert. Der verhaltensorientierte Ansatz ermöglicht eine robuste, zielgerichtete und dennoch ressourcenschonende Implementierung und gestattet es, einzelne Ver- haltensweisen leicht durch verbesserte oder auch speziell erlernte Versionen auszutauschen. Das vorgestellte Verfahren wurde simulativ getestet und wird in Kürze auf einem realen Roboter erprobt.
Ist "Programmieren ganz ohne Code" auch im CAx-Bereich möglich? Die Vielzahl heterogener CAx-Anwendungen und die wachsende Komplexität der Entwicklungsprozesse bedarf neuer Lösun-gen in der CAx-Technik. Ziel dieses Beitrages ist es, die richtungsweisende Rolle der Komponenten-technologie im CAx-Bereich aufzuzeigen. Es werden die Grundlagen der Komponenten sowie die wichtigen Komponentenarchitekturen (ActiveX und Java Beans) vorgestellt. Die Erwartungen der Anwender und der Systemhersteller, die Potentiale und die Auswirkungen dieser Technologie auf die neuen Systeme werden analysiert. Die zur Zeit verfügbaren ersten Ansätze werden präsentiert. Die Rolle der internationalen Standards für die technische Umsetzung und für die Akzeptanz von CAx-Komponentensystemen wird aufgezeigt.
Die Domäne der Operationsroboter liegt heute in Fräsarbeiten an knöchernen Strukturen. Da Roboter über eine extreme Präzision verfügen und nicht ermüden bietet sich ihr Einsatz ins-besondere bei langwierigen und zugleich hochpräzisen Fräsvorgängen im Bereich der later-alen Schädelbasis an. Aus diesem Grunde wurde ein Verfahren entwickelt, welches aus einer geometrischen Beschreibung des Implantates eine geeignete Fräsbahn errechnet und eine kraftgeregelte Prozesskontrolle des Fräsvorganges implementiert. Mit einem 6*achsigen Knickarmroboter erfolgten die Untersuchungen primär an Tierpräparaten und zur Optimierung an Felsenbeinpräparaten.
Da gerade in der heutigen Zeit viele zusammenarbeitende Softwareentwickler benötigt werden, um immer komplexer werdende Applikationen zu entwerfen, geht der Trend mehr und mehr in die Richtung des räumlich getrennten Arbeitens. Begünstigt wird diese Entwicklung nicht zuletzt durch die Möglichkeiten der Kommunikation und des Datenaustauschs, die durch das Internet geboten werden. Auf dieser Basis sollen Werkzeuge konzipiert und entwickelt werden, die eine effiziente verteilte Softwareentwicklung ermöglichen. Die Nutzung des Internet zu diesem Zweck löst das Verbindungsproblem für sehr große Entfernungen, die Nutzung von Webservern und -browsern wird der Anforderung der Betriebssystemunabhängigkeit und der Realisierung der Verteiltheit im Sinne des Client/Server-Prinzips gerecht. Unter dem Oberbegriff "Software Configuration Management" versteht man die Menge aller Aufgaben, die bei der Produktverwaltung im Bereich der Softwareherstellung anfallen. In dieser Ausarbeitung sollen zunächst die Anforderungen an ein webbasiertes SCM-System formuliert, einige technische Möglichkeiten genannt und verschiedene existierende SCM-Produkte, die eine Web-Schnittstelle bieten auf die Anforderungen überprüft und miteinander verglichen werden.
Gerade in einer Zeit, in der das Internet in nahezu alle Bereiche des menschlichen Lebens vorgedrungen ist und sich nicht zuletzt aufgrund seiner unbegrenzt scheinenden Möglichkeiten zur Beschaffung und zum Austausch von Informationen und zur weltweiten Kommunikation eines sehr starken Zuspruchs erfreut, liegt es nicht nur im Sinne von Rechenzentren und Dienstanbietern, eine Möglichkeit zur Abrechnung der in Anspruch genommenen Ressourcen in die Hand zu bekommen. Die Erschließung neuer Regionen, sowie der Ausbau vorhandener Netze in Richtung einer Bereitstellung höherer Bandbreiten zur Verbesserung der Übertragungsgeschwindigkeiten ist mit immensen Kosten verbunden. Es ist nicht Aufgabe dieser Arbeit zu entscheiden, auf welche Art und Weise die Kosten auf die Benutzer umgelegt oder verteilt werden sollen. Wir wollen hier auch keine Vorschläge zu solchen Überlegungen einbringen, da dergleichen die Domäne anderer Disziplinen, wie beispielsweise der Betriebs- und Volkswirtschaftslehre und der Politik, darstellt. Unsere Aufgabe ist es aber, die informatikspezifischen Probleme der rechnerinternen Erfassung von Accountinginformationen zu beleuchten und so gesammelte Werte den Spezialisten anderer Fachgebiete zur weiteren Verarbeitung zu überlassen. So befasst sich diese Arbeit zunächst mit den grundlegenden Eigenschaften und Modellen des zu betrachtenden Datenverkehrs, um im folgenden Voraussetzungen und Möglichkeiten zur Realisierung einer benutzerorientierten Erfassung und Abrechung der genutzten Netzwerkressourcen aufzuzeigen und herauszuarbeiten.
Die Entwicklung des Zusammenlebens der Menschen geht immer mehr den Weg zur Informations- und Mediengesellschaft. Nicht zuletzt aufgrund der weltweiten Vernetzung ist es uns in minutenschnelle möglich, fast alle erdenklichen Informationen zu Hause auf den Bildschirm geliefert zu bekommen. Es findet sich so jeder zwar in einer gewissen schützenden Anonymität, aber dennoch einer genauso gewollten, wie erschreckenden Transparenz wieder. Jeder klassifiziert in gewisser Weise Informationen, die er preisgibt etwa in öffentliche, persönliche und vertrauliche Nachrichten. Gerade hier müssen Techniken und Methoden bereitstehen, um in dieser anonymen Transparenz Informationen, die nur für spezielle Empfänger gedacht sind vor unbefugtem Zugriff zu schützen und nur denjenigen zugänglich zu machen, die dazu berechtigt sind. Diesen Wunsch hat nicht nur allgemein die Gesellschaft, sondern im speziellen wird die Entwicklung auf diesem Gebiet gerade von staatlichen und militärischen Einrichtungen gefordert und gefördert. So sind häufig eingesetzte Werkzeuge die Methoden der Kryptologie, aber solange es geheime Nachrichten gibt, wird es Angreifer geben, die versuchen, sich unberechtigten Zugang zu diesen Informationen zu verschaffen. Da die ständig wachsende Leistung von EDV-Anlagen das "Knacken" von Verschlüsselungsmethoden begünstigt, muß zu immer sichereren Chiffrierverfahren übergegangen werden. Dieser Umstand macht das Thema Kryptologie für den Moment hochaktuell und auf lange Sicht zu einem zeitlosen Forschungsgebiet der Mathematik und Informatik.