Refine
Year of publication
Document Type
- Preprint (148) (remove)
Language
- German (148) (remove)
Keywords
- Case-Based Reasoning (7)
- Fallbasiertes Schliessen (6)
- AG-RESY (3)
- Maschinelles Lernen (3)
- Diagnose technischer Systeme (2)
- Expertensysteme (2)
- Fallbasiertes Schließen (2)
- Geodäsie (2)
- Mathematikunterricht (2)
- Mehrskalenanalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (56)
- Kaiserslautern - Fachbereich Mathematik (54)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (14)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Physik (2)
- Universitätsbibliothek (2)
- Kaiserslautern - Fachbereich Sozialwissenschaften (1)
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von Fallbeispielen ein derzeit sehr aktuelles Thema. Da sich sehr unterschiedliche Fachgebiete und Disziplinen hiermit auseinandersetzen, existiert allerdings eine entsprechende Vielfalt an Begriffen und Sichten auf fallbasiertes Problemlösen. In diesem Beitrag werden wir einige für das fallbasierte Problemlösen wichtige Begriffe präzisieren bzw. begriffliche Zusammenhänge aufdecken. Die dabei verfolgte Leitlinie ist weniger die, ein vollständiges Begriffsgebäude zu entwickeln, sondern einen ersten Schritt in Richtung eines einfachen Beschreibungsrahmens zu gehen, um damit den Vergleich verschiedener Ansätze und Systeme zu ermöglichen. Auf dieser Basis wird dann der derzeitige Stand der Forschung am Beispiel konkreter Systeme zur fallbasierten Diagnose dargelegt. Den Abschluss bildet eine Darstellung bislang offener Fragen und interessanter Forschungsziele.
Fallbasiertes Schliessen ist ein derzeit viel diskutierter Problemlösesansatz. Dieser Beitrag gibt einen Überblick über den aktuellen Stand der Forschung auf diesem Gebiet, insbesondere im Hinblick auf die Entwicklung von Expertensystemen (einen ersten Schritt in diese Richtung stellte bereits der Beitrag von Bartsch-Spörl, [BS87] dar). Dazu stellen wir die dem fallbasierten Schliessen zugrundeliegenden Mechanismen vor. Ergänzt wird dies durch den Vergleich mit alternativen Verfahren wie z.B. regelbasiertes, analoges und induktives Schliessen sowie eine ausführliche Literaturübersicht.
Das Problem der Integration heterogener Softwaresysteme stellt sich auch auf dem Gebiet der CAx-Systeme, wie sie in vielfältigen Ausprägungen etwa in der Automobilbranche für die Fahrzeugentwicklung eingesetzt werden. Zunächst werden die heute in diesem Bereich
praktizierten Lösungen und die dabei auftretenden Probleme kurz dargestellt. Danach werden der neue Standard für Produktdaten, STEP, und der Standard für die Interoperabilität heterogener Softwaresysteme, CORBA, sowie einige CORBA-Entwurfsmuster erläutert. Als nächstes wird eine auf diesen beiden Standards basierende CAx-Integrationsarchitektur, die im Projekt ANICA entwickelt wurde, vorgestellt und die prinzipielle Vorgehensweise bei
ihrer Realisierung beschrieben. Daran anschließend wird über eine erste Umsetzung dieser Architektur in die Praxis berichtet. Zum Abschluß wird kurz auf die gewonnenen Erfahrungen eingegangen und ein Ausblick auf zukünftige Entwicklungen gegeben.
Der Trend der letzten Jahre im CAx-Bereich geht eindeutig in Richtung 3D-Modellierung. Der Einsatz dieser Technologie ist jedoch erst dann wirtschaftlich sinnvoll, wenn die generierten Daten nicht ausschließlich als Ersatz für 2D-Zeichnungen dienen, sondern während des gesamten Produkt-entstehungsprozesses eingesetzt werden und auf diese Weise Datendurchgängigkeit gewährleistet wird. Mittlerweile wird ein umfangreiches Spektrum von Anwendungen eingesetzt. Beispielhaft sei-en hier Berechnungs- und Simulationsprogramme oder die 3D-Produktvisualisierung in nicht-technischen Bereichen (z. B. Marketing, Vertrieb) genannt. Viele CA-Systeme bieten zwar eine große Auswahl an Modulen für nahezu alle Bereiche der Produktentwicklung, allerdings ist kein System, unabhängig von seiner Komplexität, in der Lage, alle Anforderungen seiner Anwender zu erfüllen. Deshalb kommen in immer größerem Umfang spezielle Programme für individuelle Probleme zum Einsatz. Der Anwender sieht sich jedoch mit Schwierigkeiten konfrontiert, wenn er versucht, für spezielle Probleme spezielle Anwendungen unterschiedlicher Systemhersteller einzusetzen. Um die Integrati-on der verschiedenen Programme zu ermöglichen, muß er sich auf neutrale Standardschnittstellen für den Produktdatenaustausch (IGES, VDAFS, STEP) verlassen, wobei hier mit Informationsverlusten zu rechnen ist. Außerdem muß er sich mit differierenden Benutzerführungen vertraut machen. Im Bewußtsein dieser Probleme entwickelte die Arbeitsgruppe "CAD/CAM-Strategien der deut-schen Automobilindustrie" einen Vorschlag für eine offene CAx-Systemarchitektur /1/, /2/, /3/. Diese sollte in der Lage sein, alle CAx-Komponenten, die im Laufe des Produktent-stehungsprozesses verwendet werden, zu integrieren. Es sollte unter anderem die folgenden Anforderungen erfüllen: ° Offenheit ° Interoperabilität ° Investitionssicherheit ° Aufhebung der Zwangsbindung des Anwenders an einen Systemhersteller ° Vermeidung redundanter Systeme Die Berücksichtigung der internationalen Standards STEP für den Bereich der Produktdatenmo-dellierung und CORBA für den Bereich der verteilten objektorientierten Systeme, die in den folgen-den Abschnitten kurz dargestellt sind, war für die Erfüllung dieser Anforderungen eine wichtige Voraussetzung
Die virtuelle Produktentwicklung in verteilter Umgebung erfordert eine intensive Kommunika-tion zwischen den beteiligten CAx-Systemen. Diese findet bisher in Form des dateibasierten Datenaustausches mit Hilfe von Direktkonvertern oder neutralen Schnittstellen statt. Der Datenaustausch wird hierbei meist in mehreren Iterationsschleifen durchgeführt und ist oft mit Datenverlusten sowie Unterbrechungen der Entwicklungsaktivitäten verbunden. Demgegenüber steht als neuer Ansatz für die Interoperabilität zwischen CAx-Systemen das Konzept eines CAx-Objektbusses auf Basis von CORBA und STEP. Dieser Ansatz ermög-licht eine plattformübergreifende Online-Kopplung heterogener CAx-Systeme. Im Gegensatz zum dateibasierten Datenaustausch ist hierbei ein transparenter Zugriff sowohl auf Daten als auch auf Funktionen der angebundenen Systeme möglich. Dadurch kann die Durchgängigkeit der Produktdaten in der Prozeßkette deutlich erhöht werden. Zur Beurteilung der Praxistauglichkeit wird dieser neue Ansatz dem dateibasierten Daten-austausch am Beispiel virtueller Einbauuntersuchungen gegenübergestellt. Dabei werden für unterschiedliche praxisrelevante Modellgrößen die für die Übertragung von Geometrie und Topologie erforderlichen Zeiten analysiert und verglichen. Weiterhin werden die generellen Vor- und Nachteile der beiden Lösungen dargestellt. Abschließend wird auf die Potentiale des neuen Ansatzes für den Einsatz in anderen Bereichen eingegangen.
Insbesondere bei der industriellen Nutzung tiefer geothermischer Systeme gibt es Risiken, die im Hinblick auf eine zukunftsträchtige Rolle der Ressource "Geothermie" innerhalb der Energiebranche eingeschätzt und minimiert werden müssen. Zur Förderung und Unterstützung dieses Prozesses kann die Mathematik einen entscheidenden Beitrag leisten. Um dies voranzutreiben haben wir zur Charakterisierung tiefer geothermischer Systeme ein Säulenmodell entwickelt, das die Bereiche Exploration, Bau und Produktion näher beleuchtet. Im Speziellen beinhalten die Säulen: Seismische Erkundung, Gravimetrie/Geomagnetik, Transportprozesse, Spannungsfeld.
Im Rahmen dieser Arbeit wird gezeigt, daß Frauen sowohl durch die Gesetzgebung als auch durch arbeitsmarktpolitische und steuerliche Rahmenbedingungen benachteiligt werden. Es stellt sich die Frage, inwieweit eine Verbesserung der Altersversorgung für die Frau vorgenommen werden kann. Dabei muß eine verbesserte und an die Bedürfnisse der Frauen angepaßte Altersvorsorge nicht unbedingt auf die bestehende gesetzliche Rentenversicherung (GRV) aufbauen.
Die Aufgabe dieses Projektes ist die Untersuchung des Schallfeldes, das sich in einem geschlossenen Quader bei Erregung durch eine punktförmige Schallquelle einstellt. Eine zentrale Rolle spielt hierbei die Wechselwirkung zwischen dem Schallfeld und den Quaderplatten, die zu Schwingungen angeregt werden und so dem Schallfeld Energie entziehen. Der Zweck dieser Untersuchung ist, Erkenntnisse für die Berechnung des Innendrucks zu Fahrzeugkarosserien zu gewinnen. Dies muß bei der Dimensionierung des Quaders und bei der Wahl des Plattenmaterials berücksichtigt werden. Numerische Berechnungen des Schalldrucks in einem Quader wurden beispielsweise in [1] durchgeführt. Das Ergebnis zeigt, daß zwei Arten von Resonanzen auftreten: Zum einen Strukturresonanzen, die durch Eigenschwingungen der Wände hervorgerufen werden und die von den Wandabmessungen und dem Plattenmaterial abhängen, zum anderen Hohlraumresonanzen, die auftreten, wenn die Luftwellenlänge in einem geeigneten Verhältnis zu den Abmessungen des Hohlraums steht. Es ist sehr zweifelhaft, welche Rückschlüsse gezogen werden können von den numerischen Resultaten in [1] auf kompliziertere Geometrien, wie sie bei Fahrzeugkarosserien vorliegen. Eine tiefere Einsicht in die Kopplung zwischen Schallfeld und Plattenschwingungen vor allem in den Resonanzbereichen ist nur zu erwarten, wenn die Berechnung dieser Wechselwirkung weitgehend analytisch durchgeführt wird. Eine solche analytische Berechnung ist das Ziel dieses Projektes.
Wir beschreiben eine Methode zur Approximation von Spannungsgradienten aus diskreten Spannungsdaten. Eine herkömmliche Diskretisierung der Ableitungen aus Funktionswerten führt zu Stabilitätsproblemen, weswegen eine Möglichkeit zur Kontrolle der Ableitungen notwendig ist (Regularisierung). Wir bestimmen zunächst das Funktional der potentiellen Energie und führen zusätzlich ein Fehlerfunktional ein, das die Anpassung an die vorgegebenen diskreten Werte ermöglicht. Durch Gewichtung der beiden Funktionale und Minimierung des Gesamtfunktionals erhält man den gewünschten Ausgleich zwischen der Fehlerkontrolle beim Ableiten einerseits und Kontrolle der Fehler bei den Randwerten andererseits.
Der Trend zu einer immer stärkeren Kopplung von Systemen bei gleichzeitiger Dezentralisierung durch Vernetzung hat dazu geführt, daß Computernutzern auf Wunsch enorme Datenmengen zur Verfügung stehen, die sich einer sinnvollen Bearbeitung durch den Nutzer allein völlig entziehen. Unterschiedliche Repräsentationsformalismen für Informationen, Mehrdeutigkeiten, Redundanz sowie eingeschränkte Verfügbarkeit sowohl von Informationen als auch von Rechenleistung machen konventionelle Suchverfahren unanwendbar. Stattdessen werden Suchverfahren und Programme benötigt, die sich intelligent an unterschiedliche Formalismen anpassen, ihre Handlungen ständig evaluieren und fähig sind, ihre Benutzer individuell zu unterstützen. Schlagwörter wie Knowbots, Search-Engines oder Data-Miningsind deshalb zur Zeit in aller Munde. Ein umfassendes Buch, das die hinter diesen und ähnlichen Schlagwörtern verborgenen Ideen und Konzepte präsentiert, existiert jedoch zur Zeit noch nicht. Dies war für uns die Motivation, das Thema "Intelligente Suche im Internet mit Lernenden Systemen" in einem Seminar zu behandeln. Wir haben damit ein Forschungsgebiet aufgegriffen, das sowohl für alle am LSA beteiligten Gruppen von Interesse ist, aber darüber hinaus aktuell von vielen Seiten aufmerksam beobachtet wird. Daher haben wir uns entschlossen, die Ausarbeitungen, die im Rahmen dieses Seminars von den TeilmehmerInnen erstellt wurden, durch den vorliegenden Bericht einer breiteren Öffentlichkeit zugänglich zu machen.
Bei der Erstellung komplexer Software spielt die Wiederverwendung vorhandener Programmbestandteile eine besonders grosse Rolle, da hierdurch sowohl die Software-Qualität gesteigert, als auch der gesamte Erstellungsund Wartungsaufwand erheblich reduziert werden kann. In jüngster Zeit gewinnen objektorientierte Programmiersprachen zunehmend an Bedeutung, da die Wiederverwendung hierbei bereits durch Sprachkonzepte wie z.B. Vererbung und Polymorphie unterstützt wird. Weiterhin besteht jedoch das Problem, zur Wiederverwendung geeignete Programmbestandteile aufzufinden. Ziel dieser Arbeit ist es herauszufinden, inwieweit fallbasiertes Schliessen nach dem aktuellen Stand der Kunst die Wiederverwendung objektorientierter Software unt erstützen kann. Hierzu wurde eine entsprechende Anwendung prototypisch auf der Basis des INRECA-Systems entwickelt. Durch ausgewählte Testsituationen wurden Erfahrungen mit diesem Prototyp gesammelt und systematisch ausgewertet.
Lernen von Abstraktionshierarchien zur Optimierung der Auswahl von maschinell abstrahierten Plänen
(1994)
Mit Hilfe von "Multistrategy" Ansätzen, die erklärungsbasiertes und induktives Lernen integrieren, ist es möglich, die Performanz von Planungssystemen signifikant zu verbessern. Dabei können gelöste Planungsprobleme zunächst mit einem wissensintensiven Verfahren abstrahiert und generalisiert werden. Durch den in diesem Beitrag im Vordergrund stehenden induktiven inkrementellen Lernalgorithmus ist es dann weiterhin möglich, die Gesamtheit des deduktiv generierten Wissens in einer Abstraktionshierarchie anzuordnen. Dabei wird die, im allgemeinen unentscheidbare, "spezieller-als-Relation" zwischen generalisierten Plänen, induktiv aus den gegebenen Planungsfällen gelernt. Diese Abstraktionshierarchie dient dann zur Klassifikation neuer Problemstellungen und damit zur Bestimmung einer speziellsten anwendbaren abstrakten Problemlösung.
Stand des strategischen Controlling-Berichtwesens und Übertragungsmöglichkeiten auf die Universität
(1998)
In nebenläufigen Systemen erleichtert das Konzept der Atomarität vonOperationen, konkurrierende Zugriffe in größere, leichter beherrschbareAbschnitte zu unterteilen. Wenn wir aber Spezifikationen in der forma-len Beschreibungstechnik Estelle betrachten, erweist es sich, daß es un-ter bestimmten Umständen schwierig ist, die Atomarität der sogenanntenTransitionen bei Implementationen exakt einzuhalten, obwohl diese Ato-marität eine konzeptuelle Grundlage der Semantik von Estelle ist. Es wirdaufgezeigt, wie trotzdem sowohl korrekte als auch effiziente nebenläufigeImplementationen erreicht werden können. Schließlich wird darauf hinge-wiesen, daß die das Problem auslösenden Aktionen oft vom Spezifiziererleicht von vorneherein vermieden werden können; und dies gilt auch überden Kontext von Estelle hinaus.
Mit der vorliegenden Veröffentlichung soll der Versuch unternommen werden, mathematischen Schulstoff aus konkreten Problemen herzuentwickeln. Im Mittelpunkt der vorliegenden Arbeit stehen betriebswirtschaftliche Planungs- und Entscheidungsprobleme, wie sie von fast allen Wirtschaftsunternehmen zu lösen sind. Dabei wird im besonderen auf folgende Optimierungsprobleme eingegangen: Berechnung des Rohstoffbedarfs bei gegebenen Bestellungen, Aufarbeitung von vorhandenen Lagerbeständen und das Stücklistenproblem.
Zeitreihen und Modalanalyse
(1987)
Die Arbeit ist zu verstehen als ein Teil im großen Projekt der Universität Kaiserslautern, das sich unter dem Namen Technomathematik um die dringend erforderliche Verständigung zwischen Technik und Mathematik bemüht.; Der große Leitfaden war das Buch von Natke: Einführung in Theorie und Praxis der Zeitreihen- und Modalanalyse, Schilderung der wesentlichen dort verwendeten Ideen der indirekten Systemidentifikation sowie des wahrscheinlichkeitstheoretischen und physikalisch-technischen Hintergrundes.
Mit der schnellen Verbreitung der CAx-Techniken in der deutschen Automobilindustrie wächst die Notwendigkeit einer besseren Integration der CAx-Systeme in die Prozeßketten und der Beherrschung der Produktinformationsflüsse. Aufgrund dieser Tatsachen ist in den letzten Jah-ren ein Wandel der CAx-Systemarchitekturen von geschloßenen, monolithischen zu offen inte-grierten Systemen erkennbar. Im folgenden wird dieser Prozeß sowie dessen Implikationen auf die Anwendung und auf die Systemhersteller analysiert. Ausgehend von der Initiative der deutschen Automobilindustrie wurde das Projekt ANICA (Analysis of Interfaces of various CAD/CAM-Systems) gestartet. In diesem Projekt werden die Schnittstellen zu den Systemkernen einiger CAx-Hersteller untersucht und ein Konzept für kooperierende CAx-Systeme in der Automobilindustrie wird entwickelt.
In dieser Arbeit wird die Problematik der sich rapide wandelnden industriellen CAx-Anwendungen betrachtet. Durch die Einfu"hrung der Feature-Technologie scheinen einige Probleme der Parallelisierung der Prozesse, des Simultaneous und des Concurrent Engineering sowie des Outsourcing überwindbar zu sein. Allerdings entwickelte sich die Feature-Technologie bisher ohne ausreichenden Bezug zur Konstruktionspraxis, was zu erheblichen Defiziten im industriellen Einsatz führte. Untersuchungen in der Automobilindustrie (AIFEMInitiative) zeigen, dass dies vielfach auf mangelnde Kommunikation zwischen Konstrukteuren und CAx-Experten zurückgeführt werden kann. Aufgrund des jetzigen Ansatzes der Feature-Technologie im Zusammenwirken mit dem extremen Zeitdruck in der Produktentwicklung besteht aber die Gefahr, die Produktdefinitionsprozesse nur nach den Kriterien Entwicklungszeit, Kosten und Produktqualität zu optimieren. Features dienen dabei nur als speziell angepasste Werkzeuge. Damit wird eine echte Innovation der Produkte behindert. Es wird aufgezeigt, wie die Feature-Technologie erweitert werden muss, um die Kreativität der Konstrukteure zu fördern und somit neuartige Produkte zu ermöglichen. Näher ausgeführt werden die Aspekte der benutzerdefinierten Features, der Datenstandardisierung, der Verarbeitung unvollsta"ndiger Information und der dynamischen Prozessunterstützung.
Bei den bisherigen Untersuchungen auf dem Gebiet der passiven Solarnutzung mit speicherfähigen gemauerten Ziegelwänden stellte sich heraus, daß direkt im Strahlengang der Sonnenstrahlung liegende Wandbauteile keine ausreichende Speicherwirkung haben. Ausreichend heißt: Schnelle Wärmeabführung in eine Wärmesenke, ausreichende Speicherkapazität als Tagesspeicher. Abhilfe schaffen hier Latentspeicher oder großvolumige Wasserspeicher. In unserem konkreten Fall stand ein Texxor-Latentspeicher mit 2 l Inhalt und 100 Wh Kapazität bei 27oC in einem Poroton-Formstein zur Verfügung.
Fragestellungen der Standortplanung sollen den Mathematikunterricht der Schule bereichern, dort behandelt und gelöst werden. In dieser Arbeit werden planare Standortprobleme vorgestellt, die im Mathematikunterricht behandelt werden können. Die Probleme Produktion von Halbleiterplatinen, Planung eines Feuerwehrhauses und das Zentrallagerproblem, die ausnahmlos real und nicht konstruiert sind, werden ausführlich durchgearbeitet, so dass es schnell möglich ist, daraus Unterrichtseinheiten zu entwickeln.
Auf KLUEDO, dem Kaiserslauterer uniweiten elektronischen Dokumentenserver, können Angehörige der Universität Kaiserslautern wissenschaftliche Dokumente in elektronischer Form im Internet und damit weltweit veröffentlichen. Der Dokumentenserver entstand auf Initiative der Fachbereiche und der Universitätsbibliothek Kaiserslautern im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten GLOBAL INFO - Vorprojektes. Hierbei basiert der Dokumentenserver stellenweise auf dem (während des MathNet-Projektes des deutschen Forschungsnetzes (DFN) und des MathBibNet-Projektes der deutschen Forschungsgemeinschaft (DFG) aufgebauten) Mathematik-Preprintserver der Universität Kaiserslautern. Dieser Artikel umreißt die Aspekte, die hinter der Entwicklung des Dokumentenservers in der vorliegenden Form gestanden haben und gibt einen groben Überblick über die Systemarchitektur. Detailinformationen und eine Beschreibung des Systems findet man in meiner Arbeit Propadeutik metadatenbasierter Publikationsserver: Ontologie und konkordante Implementierung.
Komprimierungsverfahren
(1999)
Bedingt durch das Wachstum von Informationsnachfrage und -angebot werden effizientere Wege zur Repräsentation von Informationen aller Art benötigt. Dies kann sowohl durch Assimilation und Optimierung der gewählten Datenstruktur und ihrer Repräsentation als auch (additiv) durch Komprimierung derselbigen erreicht werden. Diese Ausarbeitung soll in pragmatischer Art und Weise in das Themengebiet der Komprimierung einführen. Vorgestellt werden insgesamt 3 Stellvertreter aus unterschiedlichen Bereichen : Komprimierung von Texten mittels Huffman-Code, Komprimierung von Bitlisten mittels Laufkomprimierung (RLE-Komprimierung), Komprimierung von - auf dem RGB-Farbmodell basierenden - Grafiken mittels eines eigenen Verfahrens. Während die ersten beiden Verfahren Vertreter verlustfreier Komprimierung sind, ist das Dritte ein Vertreter der verlustbehafteten Komprimierung. Die vorgestellten Verfahren werden zur Arrondierung an konkreten Beispielen eingeübt und schließlich sogar in der Programmiersprache Pascal implementiert. Die konkrete Realisation in einer gegebenen Programmiersprache birgt kanonischerweise die Gefahr, den Blick für das Wesentliche zu verlieren. Deshalb wurde bei der Erstellung dieser Ausarbeitung (im speziellen der Programmieraufgaben) akribisch auf Abstrahierung unnötiger Details geachtet.
Das Programmsystem PROMO wird in der Industrie zur Berechnung von instationären Gasströmungen in Mehrzylinder-Verbrennungsmotoren eingesetzt. PROMO wurde in den Jahren von 1970 bis 1977 an der Ruhr-Universität Bochum entwickelt. Nach den ersten Erfahrungen von Anwendern wurde das Programmsystem 1979/80 überarbeitet, und es entstand die neue Version PROMO 2.; Instationäre, kompressible und eindimensionale Rohrströmungen können berechnet werden. Außerdem sind die verschiedensten Rand- und Übergangsbedingungen zwischen den einzelnen Rohrstücken realisiert.; Einerseits hat sich PROMO in der Praxis bewährt, andererseits wurden auch deutliche Abweichungen der Rechenergebnisse von Messungen beobachtet. Aus dem Anwenderbereich hat die Firma Gillet (Hersteller von Auspuffanlagen) folgende Fragen aufgeworfen: Wie muß die Orts- bzw. Zeitschrittweite gewählt werden, um eine bestimmte Genauigkeit der numerischen Lösung zu sichern? Wie können die erzielten Ergebnisse theoretisch beurteilt werden (Fehlerschätzung)?; Deshalb erscheint eine Betrachtung des Programmsystems aus mathematischer Sicht sinnvoll.
Das System ART (ASF RRL Translation) stellt im wesentlichen eine Umgebung dar,in welcher die Modularisierbarkeit von Beweisen (Induktionsbeweisen über Gleichungs-spezifikationen) untersucht werden kann. Es wurde die bereits bestehende Spezifikati-onsprache ASF (siehe [BeHeKl89]), in welcher modularisierte Spezifikationen möglichsind, so erweitert, daß zusätzlich auch Beweisaufgaben spezifiziert werden können. Imfolgenden wird diese erweiterte Spezifikationsprache auch ASF genannt. Als Bewei-ser für die Beweisaufgaben einer Spezifikation wurde RRL (siehe [KaZh89]) gewählt.RRL kann sowohl Kommandos aus einem File abarbeiten, wie auch Sitzungsprotokolleanfertigen, mit deren Hilfe sich die Beweisverläufe und Benutzereingaben der entspre-chenden RRL-Sitzung rekonstruieren lassen. In ART kann nun eine ASF-Spezifikation,die Beweisaufgaben umfassen kann, in ein File übersetzt werden, welches von RRLabgearbeitet werden kann. Dies wird im folgenden kurz mit 'Übersetzung von ASF nach RRL' bezeichnet. Bei der Abarbeitung eines solchen Files wird von RRL ein Sit-zungsprotokoll angelegt. ART kann dieses Sitzungsprotokoll dazu heranziehen, neueErgebnisse, wie etwa den erfolgreichen Beweis einer Beweisaufgabe, zu ermitteln, umdiese Ergebnisse der ursprüngliche Spezifikation hinzuzufügen. Dies wird im folgendenkurz mit 'Rückübersetzung von RRL nach ASF' bezeichnet. Im Kern besteht ART alsoaus einer Komponente zur Übersetzung von ASF nach RRL und aus einer Komponentezur Rückübersetzung von RRL nach ASF.
Der Wissenserwerb erschwert bisher häufig den Einsatz wissensbasierter Systeme der Arbeitsplanerstellung in der industriellen Praxis. Die meisten Anwendungen gestatten nur das Erfassen und Editieren des durch aufwendige Erhebung, Systematisierung und Formulierung gewonnenen fachspezifischen Planungswissens. Im Rahmen eines DFG-Projektes soll die Anwendbarkeit bekannter maschineller Lernverfahren auf technologische Reihenfolge- und Zuordnungsprobleme im Rahmen der generierenden Arbeitsplanerstellung von Teilefertigungsprozessen im Maschinenbau nachgewiesen werden. Dazu wird ein Prototyp mit Hilfe eines verfügbaren Softwarewerkzeuges entwickelt, der das maschinelle Lernen aus vorgegebenen Beispielen ermöglichen und mit einem existierenden Prototypen der wissensbasierten Arbeistplanung kommunizieren soll. Der folgende Beitrag gibt einen Überblick über das mit Lernverfahren zu behandelnde Planungswissen und stellt mögliche Repräsentationsmöglichkeiten des Wissens zur Diskussion.
Die Grundgleichungen der Physikalischen Geodäsie (in der klassischen Formulierung) werden einer Multiskalenformulierung mittels (sphärisch harmonischer) Wavelets unterzogen. Die Energieverteilung des Störpotentials wird in Auflösung nach Skala und Ort durch Verwendung von Waveletvarianzen beschrieben. Schließlich werden zur Modellierung der zeitlichen Variationen des Schwerefeldes zeit- und ortsgebundene Energiespektren zur Detektion lokaler sowie periodischer/saisonaler Strukturen eingeführt.
Im Rahmen des Sonderforschungsbereichs SFB314, Projekt X9 "Lernen und Analogie in technischen Expertensystemen", wurde die Verwendbarkeit von Techniken des fallbasierten Schliessens in wissens- basierten Systemen untersucht. Als prototypische Anwendungsdomäne wurde die Arbeitsplanerstellung rotationssymmetrischer Werkstücke gewählt. Im vorliegenden Beitrag wird ein Modell der Arbeits- planerstellung unter Berücksichtigung der verschiedenen, bisher als unabhängig behandelten Planungsmethoden beschrieben. Auf der Basis einer modelbasierte Wissensakquistion aus in Unternehmen verfügbaren Arbeitsplänen wird ein Ausschnitt der Arbeitsplanerstellung, die Aufspannplanung, detailliert. Die Anwendbarkeit wurde durch eine prototypische Realisierung nachgewiesen.
Das Ziel dieses Projekts war es, anhand von empirischen Untersuchungen klassische statistische Verfahren und aktuelle Methoden des Maschinellen Lernens mit einem Ansatz zu vergleichen, der in der Arbeitsgruppe entworfen und theoretisch analysiert wurde. Implementiert wurden f"unf Verfahren, einige davon in verschiedenen Varianten: FeedForward Neuronale Netze, Entscheidungsbäume, Bayes Entscheidungen, die auf Chow-Expansionen beruhen, Harmonische Analyse und die Methode des N"achsten Nachbarn. Als Referenzmassstab wurden Vorhersagen herangezogen, die den Trend oder den Mittelwert der letzten letzten Beobachtungen vorhersagten. Als Daten standen 16 Zeitreihen von Aktien- und Devisenkursen zur Verf"ugung. Jede der Zeitreihen bestand aus 2000 Daten, von denen die ersten 1500 zum Training und die restlichen 500 für den Vergleich der Verfahren dienten. Dabei zeigte es sich, dass die naiven Referenzverfahren einen recht guten Pr"ufstein darstellten. Die Bayes-Entscheidungen und die Entscheidungsbäume erwiesen sich als besonders stark und übertrafen die Referenzmethoden fast immer. Neuronale Netze und die Methode des n"achsten Nachbarn waren etwa genausogut, während die Harmonische Analyse für kurzfristige Vorhersagen schlechter und für langfristige besser war. Bei Entscheidungsbäumen und Neuronalen Netzen fiel auf, dass kleine B"aume bzw. Netze bessere Ergebnisse lieferten als grosse.
In diesem Beitrag werden konnektionistische Lernverfahren für die wissensbasierte Diagnose technischer Systeme vorgestellt. Es werden zwei Problemstellungen untersucht: die Prognose von Signalverläufen technischer Zustandsgrössen sowie die diagnostische Klassifikation von Systemzuständen und die Ergebnisse der Untersuchungen dargestellt.
Die Bestimmung des Erdgravitationspotentials aus den Meßdaten des Forschungssatelliten CHAMP lässt sich als Operatorgleichung formulieren (SST-Problem). Dieser Ansatz geht davon aus, dass ein geometrischer Orbit des Satelliten CHAMP vorliegt. Mittels numerischer Differentiation unter Einsatz eines geeigneten Denoising Verfahrens kann dann aus dem geometrischen Orbit der Gradient des Potentials längs der Bahn bestimmt werden. Damit sind insbesondere die Radialableitung (und der Flächengradient) auf einem Punktgitter auf der Bahn bekannt. In einem erdfesten System stellt sich dies als eine nahezu vollständige Überdeckung der Erde (bis auf Polar Gaps) mit einem ziemlich dichten Datengitter auf Flughöhe des Satelliten dar. Die Lösung der SST-Operatorgleichung (Bestimmung des Potentials auf der Erdoberfläche aus Kenntnis der Radialableitung auf einem Datengitter auf Flughöhe) ist ein schlecht gestelltes inverses Problem, das mit einer geeigneten Regularisierungstechnik gelöst werden muß. Im vorliegenden Fall wurde eine solche Regularisierung mit Hilfe von nicht-bandlimitierten Regularisierungsskalierungsfunktionen und Regularisierungswavelets umgesetzt. Diese sind stark ortslokalisierend und führen daher auf ein Potentialmodell, welches eine Linearkombination stark ortslokalisierender Funktionen ist. Ein solches Modell kann als Lokalmodell auch aus nur lokalen Daten berechnet werden und bietet daher gegenüber Kugelfunktionsmodellen wie EGM96 erhebliche Vorteile für die moderne Geopotentialbestimmung. Die Diskretisierung und numerische Umsetzung der Berechnung eines solchen Modells erfolgt mit Splines, die hier ebenfalls Linearkombinationen stark ortslokalisierender Funktionen sind. Die großen linearen Gleichungssysteme, die zur Berechnung der glättenden oder interpolierenden Splines gelöst werden müssen, können auf schnelle und effiziente Weise mit dem Schwarzschen alternierenden Algorithmus in Verbindung mit schnellen Summationsverfahren (Fast Multipole Methods) gelöst werden. Eine Kombination des Schwarzschen alternierenden Algorithmus mit solchen schnellen Summationsverfahren ermöglicht eine weitere erhebliche Beschleunigung beim Lösen dieser Gleichungssysteme. Zur Bestimmung von Glättungsparametern (Spline-Smoothing) und Regularisierungsparametern kann die L-Curve Method zum Einsatz kommen.
In den letzten Jahren wurden Methoden des fallbasierten Schliessens häufig in Bereichen verwendet, in denen traditionell symbolische Verfahren zum Einsatz kommen, beispielsweise in der Klassifikation. Damit stellt sich zwangsläufig die Frage nach den Unterschieden bzw. der Mächtigkeit dieser Lernverfahren. Jantke [Jantke, 1992] hat bereits Gemeinsamkeiten von Induktiver Inferenz und fallbasierter Klassifikation untersucht. In dieser Arbeit wollen wir einige Zusammenhänge zwischen der Fallbasis, dem Ähnlichkeitsmass und dem zu erlernenden Begriff verdeutlichen. Zu diesem Zweck wird ein einfacher symbolischer Lernalgorithmus (der Versionenraum nach [Mitchell, 1982]) in eine äquivalente, fallbasiert arbeitende Variante transformiert. Die vorgestellten Ergebnisse bestätigen die Äquivalenz von symbolischen und fallbasierten Ansätzen und zeigen die starke Abhängigkeit zwischen dem im System verwendeten Mass und dem zu lernenden Begriff.
Vigenere-Verschlüsselung
(1999)
An analogue of the classical Riemann-Siegel integral formula for Dirichlet series associated to cusp forms is developed. As an application of the formula, we give a comparatively simple proof of the approximate functional equation for this type of Dirichlet series.
We consider the problem of finding efficient locations of surveillance cameras, where we distinguish
between two different problems. In the first, the whole area must be monitored and the number of cameras
should be as small as possible. In the second, the goal is to maximize the monitored area for a fixed number of
cameras. In both of these problems, restrictions on the ability of the cameras, like limited depth of view or range
of vision are taken into account. We present solution approaches for these problems and report on results of
their implementations applied to an authentic problem. We also consider a bicriteria problem with two objectives:
maximizing the monitored area and minimizing the number of cameras, and solve it for our study case.
Vorgestellt wird ein System basierend auf einem 3D-Scanner nach dem Licht- schnitt-Prinzip mit dem es möglich ist, einen Menschen innerhalb von 1,5 Sekun- den dreidimensional zu erfassen. Mit Hilfe von Evolutionären Algorithmen wird über eine modellbasierte Dateninterpretation die Auswertung der Meßdaten betrie- ben, so daß beliebige Körpermaße ermittelt werden können. Das Ergebnis ist ein individualisiertes CAD-Modells der Person im Rechner. Ein derartiges Modell kann als virtuelle Kleiderpuppe zur Produktion von Maßbekleidung dienen.
Da gerade in der heutigen Zeit viele zusammenarbeitende Softwareentwickler benötigt werden, um immer komplexer werdende Applikationen zu entwerfen, geht der Trend mehr und mehr in die Richtung des räumlich getrennten Arbeitens. Begünstigt wird diese Entwicklung nicht zuletzt durch die Möglichkeiten der Kommunikation und des Datenaustauschs, die durch das Internet geboten werden. Auf dieser Basis sollen Werkzeuge konzipiert und entwickelt werden, die eine effiziente verteilte Softwareentwicklung ermöglichen. Die Nutzung des Internet zu diesem Zweck löst das Verbindungsproblem für sehr große Entfernungen, die Nutzung von Webservern und -browsern wird der Anforderung der Betriebssystemunabhängigkeit und der Realisierung der Verteiltheit im Sinne des Client/Server-Prinzips gerecht. Unter dem Oberbegriff "Software Configuration Management" versteht man die Menge aller Aufgaben, die bei der Produktverwaltung im Bereich der Softwareherstellung anfallen. In dieser Ausarbeitung sollen zunächst die Anforderungen an ein webbasiertes SCM-System formuliert, einige technische Möglichkeiten genannt und verschiedene existierende SCM-Produkte, die eine Web-Schnittstelle bieten auf die Anforderungen überprüft und miteinander verglichen werden.
Gerade in einer Zeit, in der das Internet in nahezu alle Bereiche des menschlichen Lebens vorgedrungen ist und sich nicht zuletzt aufgrund seiner unbegrenzt scheinenden Möglichkeiten zur Beschaffung und zum Austausch von Informationen und zur weltweiten Kommunikation eines sehr starken Zuspruchs erfreut, liegt es nicht nur im Sinne von Rechenzentren und Dienstanbietern, eine Möglichkeit zur Abrechnung der in Anspruch genommenen Ressourcen in die Hand zu bekommen. Die Erschließung neuer Regionen, sowie der Ausbau vorhandener Netze in Richtung einer Bereitstellung höherer Bandbreiten zur Verbesserung der Übertragungsgeschwindigkeiten ist mit immensen Kosten verbunden. Es ist nicht Aufgabe dieser Arbeit zu entscheiden, auf welche Art und Weise die Kosten auf die Benutzer umgelegt oder verteilt werden sollen. Wir wollen hier auch keine Vorschläge zu solchen Überlegungen einbringen, da dergleichen die Domäne anderer Disziplinen, wie beispielsweise der Betriebs- und Volkswirtschaftslehre und der Politik, darstellt. Unsere Aufgabe ist es aber, die informatikspezifischen Probleme der rechnerinternen Erfassung von Accountinginformationen zu beleuchten und so gesammelte Werte den Spezialisten anderer Fachgebiete zur weiteren Verarbeitung zu überlassen. So befasst sich diese Arbeit zunächst mit den grundlegenden Eigenschaften und Modellen des zu betrachtenden Datenverkehrs, um im folgenden Voraussetzungen und Möglichkeiten zur Realisierung einer benutzerorientierten Erfassung und Abrechung der genutzten Netzwerkressourcen aufzuzeigen und herauszuarbeiten.
Die Entwicklung des Zusammenlebens der Menschen geht immer mehr den Weg zur Informations- und Mediengesellschaft. Nicht zuletzt aufgrund der weltweiten Vernetzung ist es uns in minutenschnelle möglich, fast alle erdenklichen Informationen zu Hause auf den Bildschirm geliefert zu bekommen. Es findet sich so jeder zwar in einer gewissen schützenden Anonymität, aber dennoch einer genauso gewollten, wie erschreckenden Transparenz wieder. Jeder klassifiziert in gewisser Weise Informationen, die er preisgibt etwa in öffentliche, persönliche und vertrauliche Nachrichten. Gerade hier müssen Techniken und Methoden bereitstehen, um in dieser anonymen Transparenz Informationen, die nur für spezielle Empfänger gedacht sind vor unbefugtem Zugriff zu schützen und nur denjenigen zugänglich zu machen, die dazu berechtigt sind. Diesen Wunsch hat nicht nur allgemein die Gesellschaft, sondern im speziellen wird die Entwicklung auf diesem Gebiet gerade von staatlichen und militärischen Einrichtungen gefordert und gefördert. So sind häufig eingesetzte Werkzeuge die Methoden der Kryptologie, aber solange es geheime Nachrichten gibt, wird es Angreifer geben, die versuchen, sich unberechtigten Zugang zu diesen Informationen zu verschaffen. Da die ständig wachsende Leistung von EDV-Anlagen das "Knacken" von Verschlüsselungsmethoden begünstigt, muß zu immer sichereren Chiffrierverfahren übergegangen werden. Dieser Umstand macht das Thema Kryptologie für den Moment hochaktuell und auf lange Sicht zu einem zeitlosen Forschungsgebiet der Mathematik und Informatik.