Refine
Year of publication
Document Type
- Master's Thesis (255) (remove)
Has Fulltext
- yes (255)
Keywords
- Organisationsentwicklung (27)
- Erwachsenenbildung (12)
- Schulentwicklung (12)
- Nachhaltigkeit (11)
- Digitalisierung (9)
- Führung (7)
- Organisationskultur (6)
- Schule (6)
- CoMo-Kit (5)
- Organisation (5)
Faculty / Organisational entity
- Distance and Independent Studies Center (DISC) (166)
- Kaiserslautern - Fachbereich Informatik (45)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Mathematik (8)
- Kaiserslautern - Fachbereich Physik (8)
- Kaiserslautern - Fachbereich ARUBI (7)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (3)
- Kaiserslautern - Fachbereich Biologie (1)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
On-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem
(1991)
Dieses Kapitel gliedert sich in drei Teile. Zuerst wird die Vorgehensweise in dieser Diplomarbeit zusammengefaßt. Dann folgen die gewonnenen Schlußfolgerungen mit einer Bewertung der verglichenen Ansätze. Der letzte Teil ist ein Ausblick auf die möglichen Anwendungen der Ergebnisse dieser Arbeit. Methodik Bei der Aufgabe, eine on-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem zu untersuchen, wurden folgende Schritte vorgenommen: " Klassifizierung der bisherigen Ansätze zur Beschleunigung der Kollisionserkennung mit einem Arm. Dabei wurde unterschieden zwischen dem Einsatz-Zeitpunkt und der Methode der Ansätze. " Modifikation des Weltmodells der Kollisionserkennung für den Einsatz von mehreren Roboterarmen. Kollisionsklassen wurden in einer formalen Darstellung eingeführt und ihre Eigenschaften betrachtet. " Untersuchung der Approximation von Objekten (z. B. Armsegmente und Hindernisse) durch Primitive. Dabei wurden Algorithmen zur Berechnung der Approximationen entworfen und implementiert. Unterschiedliche Strategien zur Abstandsberechnung mit Primitiven-Approximationen wurden entwickelt. " Untersuchung und Erweiterung der hierarchischen Modellierung für den Einsatz bei bewegten Objekten (wie z. B. Roboterarmen). Dazu wurden eine on-line Aktualisierung der Geometrie und eine Auswahl der optimalen Baumstruktur eingesetzt. " Implementierung der bisherigen und eigenen Beschleunigungs-Ansätze. Für die Durchführung von Experimenten wurden die Ansätze in ein Simulationssystem eingebunden und das Simulationssystem erweitert. " Vergleich und Bewertung der Beschleunigungs-Ansätze durch Messung von Laufzeiten und Qualität der resultierenden Abstandsvektoren. Untersuchung anderer einflußnehmender Parameter, wie z. B. der Sicherheitsabstand oder die Frequenz (Schrittweite) der Kollisionserkennung. Schlußfolgerungen Die Untersuchung der implementierten Ansätze zur on-line Kollisionserkennung erlaubt folgende Bewertung und Folgerungen: " Die on-line Kollisionserkennung mit Abstandsvektoren für mehrere Arme ist bei der Verwendung der entsprechenden Beschleunigungs-Ansätze möglich. Die Berechnungszeit pro Bewegungsschritt liegt im Bereich von wenigen Millisekunden. " Die eingeführte Unterteilung der Umwelt in Kollisionsklassen schafft einen einfachen Mechanismus zur Kollisionserkennung in Szenen mit mehreren bewegten Objekten. Die Kollisionsklassen ermöglichen eine systematische Kollisionserkennung für ein Mehrarm-Robotersystem. " Der Vergleich der Primitiven-Approximationen zeigt, daß der ausschließliche Einsatz der Bounding-Box als Primitiv zu besseren Ergebnissen führt als der Einsatz von mehreren Primitiven wie z. B. in [Adolphs]. Die Verbesserungen betreffen den Aufwand der Abstandsberechnung und die Qualität des Abstandsvektors. " Schon bei wenigen Objekten empfiehlt sich eine hierarchische Darstellung zur Beschleunigung der Kollisionserkennung, da sie zu sehr schnellen Abstandsberechnungen führt. Vor allem bei Szenen mit vielen Objekten ist eine hierarchische Darstellung unverzichtbar. " Durch das neue Konzept der dynamischen Hierarchien ist eine hierarchische Modellierung auch für bewegte Objekte möglich. Die dynamischen Hierarchien garantieren eine optimale Darstellung und ermöglichen eine relativ genaue Modellierung des Roboterarms. Bei der Kollisionserkennung für mehrere Roboterarme ist durch den Einsatz von dynamischen Hierarchien ein Beschleunigungsfaktor von 100 gegenüber dem einfachen Verfahren erreicht worden. Damit ist eine on-line Anwendung möglich. Ausblick Aufbauend auf den hier erzielten Ergebnissen sind folgende Anwendungen denkbar: " Eine on-line Bahnplanung basierend auf den berechneten Abstandsvektoren ist möglich. Von Punkt zu Punkt geplante Bahnen können mit Hilfe der Abstandsvektoren modifiziert und Ausweichtrajektorien generiert werden. " Die Potential-Feld-Methode zur lokalen Bahnplanung kann aufgrund den on-line berechneten Abstandsvektoren angewendet werden. " Auch exakte Abstände können schnell berechnet werden. Diese Abstandsberechnung wird effizient durch die Kombination der dynamischen Hierarchien mit einer A*-Suche. " Die schnelle Abstandsberechnung kann auch für andere Gebiete eingesetzt werden. Beispiele dafür sind der Aufbau von Konfigurations-Räumen oder die Layout-Planung. " Bei zu handhabenden Objekten, wie z. B. Werkstücke, kann das Konzept der Kollisionsklassen einfach um einen dynamischen Wechsel erweitert werden. Dabei wechselt z. B. ein Werkstück, wenn es von dem Arm gegriffen wird, die Klasse.
In der nichtrelativistischen Schrödinger-Theorie hat sich die nach, H. A. Kramers und L. Brillouin benannte WKB - Näherung eine weitreichende Akzeptanz verschafft. Obwohl diese Methode meist nur als WKB-Methode bezeichnet wird, war von H. Jeffreys zuerst eine solche Näherungsmethode vorgestellt worden. Es liegt nahe, in einer relativistischen Theorie eine entsprechende Näherungsmethode zu diskutieren. Ich habe verschiedene semiklassische Näherungen für die radiale Dirac-Gleichung untersucht. Analytische und numerische Diskussionen der verschiedenen Methoden haben gezeigt, daß die Güte der Näherung wesentlich von der Entkopplung der Radialgleichung abhängt. Speziell für das Coulomb-Potential habe ich eine näherungsfreie Entkopplung entwickelt, welche zu einer WKB-Quantenbedingung führt, die mit der Feinstrukturformel von Sommerfeld übereinstimmt. Für viele physikalisch relevante Potentiale, welche das Coulomb-Potential nur leicht abändern, wird somit eine weitaus größere Genauigkeit als bei herkömmlichen WKB-Näherungen erster Ordnung erreicht. Außerdem habe ich höhere Korrekturen zur WKB-Näherung untersucht.
Grob skizziert soll das System in der Lage sein, aus einer vorgegebenen Konstruktionszeichnung eines Drehteils einen Plan f"ur die maschinelle Fertigung dieses Teils zu erstellen. Ausgehend vom Ansatz des fallbasierten Schliessens besteht die Aufgabe des Systems darin, aus einer Menge bekannter Drehteile, für die bereits ein Fertigungsplan erstellt worden ist, das Teil zu finden, dessen Darstellung zu der des eingegebenen Teils am ähnlichsten ist. Der Plan dieses ähnlichsten Teils ist dann so zu modifizieren und anzupassen, dass damit das vorgegebene Teil gefertigt werden kann. Ein zentrales Problem ist hierbei die Definition des Ähnlichkeitsbegriffes, der auf jeden Fall den fertigungstechnischen Aspekt berücksichtigen muss.
In fallbasierten Systemen ist es notwendig, ein über die normalen Datenbank-Suchaufgaben hinausgehendes Retrieval bereitzustellen. Hier müssen die n zu einem Anfragefall ähnlichsten Fälle aus einer Fallbasis gesucht werden.In dieser Diplomarbeit wird ein solches System zum ähnlichkeitsbasierten Retrieval von Fällen entwickelt. Dieses System übernimmt die Verwaltung der Fälle unter Verwendung der Datenstruktur des k-d-Baumes, hierbei werden die k-d-Bäume so aufgebaut, dass sie in optimaler Weise die sogenannte Best-Match- bzw. Nearest-Neighbour-Suche ermöglichen. Hierbei stand bereits ein existierendes System zur Verfügung, welches diese Suche zwar schon unterstützt, aber noch eine unbefriedigende Performance aufwies.
Die vorliegende Arbeit konzentriert sich auf Analysen unterschiedlicher Lernstrategien für CBL-Systeme anhand einer universellen Testumgebung mit variablen Fallbasen. Keine der untersuchten dynamischen Lernregeln und keine feste Belegung der globalen Konstanten im Ähnlichkeitsmass besitzt im statistischen Mittel signifikante Vorzüge. Dagegen zeigen sich Abhängigkeiten des Lernerfolgs von bestimmten Merkmalen der Fallbasis. Deswegen wird als Synthese ein auto-adaptives Lernschema vorgeschlagen, das die Eigenheiten verschiedener Fallbasen berücksichtigt und durch die Wahl spezifischer Lernstrategien ein deutlich verbessertes Ergebnis zu erzielen vermag.
Planung ist ein vielfach untersuchtes Gebiet im Bereich der Künstlichen Intelligenz. Die hier vorgestellte Arbeit ist in diesem Gebiet angesiedelt: es geht um ein Planungssystem, welches auf die Unterstützung der Arbeitsplanerstellung in der computerintegrierten Fertigung abzielt. Der Bereich der computerintegrierten Fertigung ist allerdings nur als ein spezieller Anwendungsbereich für das System zu sehen.
In dieser Arbeit wird eine Kombinationsmöglichkeit von fallbasiertem und induktivem Schliessen, basierend auf k-d- und Entscheidungsbäumen, entwickelt. Dabei wurde versucht, die Vorteile des induktiven Mechanismus, wie z. B. die sehr effiziente Klassifiz ierung und automatische Generierung, in den fallbasierten Mechanismus zu integrieren. Die Aufgabe zerfällt dabei in zwei Teilaufgaben, die im folgenden zusammengefasst werden.
Aufbau eines Diodenlasers mit externem Resonator zur Amplituden-/Phasen-modulations-Spektroskopie
(1994)
In dieser Diplomarbeit wird die Konstruktion und der Aufbau eines externen Resonators für einen Diodenlaser beschrieben. Es wurde sowohl ein Littrow als auch ein Littman-Resonator aufgebaut. Der Littrow-Resonator besitzt eine justierbare mechanische Synchronisation zwischen Wellenlängenselektion und Resonatorlänge. Damit konnte ein kontinuierlicher Durchstimmbereich ohne Modensprünge über einen Spektralbereich bis 240GHz im nahen Infrarot bei einer Wellenlänge von 780 bis 850nm erreicht werden. Die Eigenschaften dieses Littman-Laser-Systems wurden untersucht und unter anderem mehrere überraschende Strahlverläufe im Resonator durch Mehrfachreflexionen am Endspiegel und Gitter des Resonators gefunden. Die Restreflexion der verwendeten entspiegelten Laserdiode konnte experimentell abgeschätzt werden. Weiterhin wurde eine ausführliche Modellrechnung über die Eigenschaften eines Lasers mit externem Resonator durchgeführt und eine theoretische Erklärung für das beobachtete, asymmetrische Modensprungverhalten des Diodenlasers mit externem Resonator gefunden. Mit diesem Lasersystem wurde das Absorptionsspektrum von deuteriertem Azetylen (C2D2) um 12000 Wellenzahlen aufgenommen.
Diese Diplomarbeit hat zwei Schwerpunkte: Zum einen werden die Gebiete fallbasierte Planung und Arbeitsplanung unter- sucht, bisherige Methoden und Systeme vorgestellt und deren Fähigkeiten und Schwächen herausgearbeitet. Dieser Teil macht etwa die Hälfte der Arbeit aus. Zum anderen wird, basierend auf den Ergebnissen dieser Untersuchungen, ein Konzept für die fallbasierte Arbeits- planung vorgestellt, gegenüber alternativen Ansätzen abgegrenzt und die Möglichkeit der Realisierung anhand einer prototypischen Imple- mentierung aufgezeigt. Während dem ersten Teil vorwiegend eine Literaturarbeit zugrundeliegt, beinhaltet der zweite Teil ausschliesslich eigene Ansätze.
Bei der industriellen Fertigung von rotationssymmetrischen Drehteilen kommt es in hohem Masse auf die Effizienz der verwendeten Fertigungspläne an. Diese können durch eine ungeschickte Wahl der Abfolge der Fertigungsschritte zusätzliche Werkzeug- oder Aufspannungswechsel enthalten, welche die Bearbeitungszeit eines Werkstückes wesentlich verlängern und durch die so bedingte geringere Ausnutzung der Maschinenkapazitäten erhebliche Kosten verursachen. In der vorliegenden Arbeit wird in diesem Rahmen eine Komponente zur Fallauswahl implementiert, deren Steuerung sowohl auf oberflächlicher als auch auf struktureller Ähnlichkeit zwischen zwei Werkstücken beruht. Zielsetzung dieser Zweiteilung ist eine Reduzierung der Anzahl der zu betrachtenden Fallbeispiele durch eine Indizierung der Fallbasis mit (schnellen) Algorithmen aufgrund von syntaktischen Übereinstimmungen bestimmter Attributwerte; anschliessend werden diese (wenigen) Fälle mit Hilfe tiefergreifender Analyseschritte nach maximaler Übereinstimmung mit der Aufgabenstellung durchsucht. Des weiteren wird eine Komponente zur Verfügung gestellt, die hilft, frühere Planungsfehler durch Wahl geeigneter Fallbeispiele zu vermeiden.
Eine Möglichkeit das Planen in Planungssystemen zu realisieren, ist das fallbasierte Planen. Vereinfacht kann darun ter das Lösen von neuen Planungsproblemen anhand von bereits bekannten Plänen aus der Planungsdomäne verstanden werden. Dazu werden Pläne, die in der Vergangenheit ein Planungsproblem gelöst haben, gesammelt und bei der Lösung neuer Planungsprobleme dahin gehend modifiziert, dass sie das aktuelle Planungsproblem lösen. Um eine grössere Wiederverwendbarkeit der bereits bekannten Pläne zu erreichen, kann man nun eine konkrete Problemstellung mit ihrer Lösung aus der konkreten Planungswelt in eine abstraktere Planungswelt durch eine Abstraktion transformieren.
Nicht nur im Bereich der Forschung, sondern auch in der industriellen Anwendung wird die Informationsversorgung - die Bereitstellung der für Arbeitsabläufe benötigten Daten - immer wichtiger. Soll mit mehreren Personen im Team eine Aufgabe gelöst werden, so müssen die dazu benötigten Daten rechtzeitig in der erforderlichen Form zur Verfügung stehen. Die Kommunikation zwischen den Mitarbeitern und die Koordination der anfallenden Tätigkeiten ist mitentscheidend für die Leistung des Teams. Besonders wichtig wird dies, wenn die kooperierenden Personen nicht nur verschiedene Arbeitsplätze haben, beispielsweise verschiedene Bildschirme, sondern diese Arbeitsplätze weit voneinander entfernt sind. So können sich die Arbeitsplätze durchaus in verschiedenen Stockwerken eines Firmengebäudes oder an verschiedenen Orten befinden, jedoch müssen die Mitarbeiter trotzdem eng zusammenarbeiten. Die sich dabei herausbildenden Arbeitsprozesse sind keineswegs statisch, sondern müssen - bedingt durch neue Aufgaben, neue Rahmenbedingungen und neue Erkenntnisse - ständig angepasst werden.
Die Lösung einer Konfigurationsaufgabe innerhalb einer technischen Domäne besteht in der Konstruktion eines komplexen Objektes, das sowohl alle in der Aufgabe gestellten Anforderungen bezüglich seiner Funktionalität erfüllt, als auch den innerhalb der Domäne vorhandenen Restriktionen vollständig genügt. Durch die als bekannt vorausgesetzte Struktur der Anwendungsdomäne wird ein Suchraum aufgespannt, in dem es eine in diesem Sinne korrekte - und wenn möglich besonders gute - Lösung zu finden gilt. Wegen der Grösse des Suchraums wird zu diesem Zweck im allgemeinen ein Verfahren zur Tiefensuche eingesetzt.
CAPlan[Web94] basiert auf dem SNLP-Algorithmus [BW92], einer bekannten Version des Originalalgorithmus von McAllester und Rosenblitt [MR91]. Seit dessen Veröffentlichung hat eine Flut von Papieren die Überlegenheit dieses Planers gegenüber herkömmlichen Planverfahren gezeigt. Diese Überlegenheit liegt einerseits in seinem nur partiell ordnenden least-commitment Ansatz begründet und anderseits in der Systematik der Suche, die einen minimalen Suchraum garantiert.
David Chapman hat 1987 mit seinem Artikel Planning for Conjunctive Goals einen wichtigen Schritt in Richtung der Formalisierung von partiell ordnen der Planung und ihrem Verständnis gemacht. Grundlegendes Konzept von David Chapman ist die Idee modaler Wahrheit in Plänen; sein Modal Truth Criterion (MTC) macht Aussagen über die Gültigkeit einer Aussage in einem partiell geordneten Plan. Kambhampati und Nau zeigten mit ihrem Papier On the Nature of Modal Truth Criteria in Planning einige wesentliche Mängel bzw. begriffliche Ungenauigkeiten an Chapmans Kriterium auf und machten mit ihrem Modal Conditional Truth Criterion Vorschläge für eine Korrektur. Insbesondere bekam die Frage nach der Ausführbarkeit eines Planes hier ein grösseres Gewicht. Ziel dieser Projektarbeit ist es zunächst, das MTC von Chapman sowie die Modifikation darzustellen und, als praktische Aufgabe, die Realisierung des MTC für den Causal Link Planer CAPlan, basierend auf der bestehenden Implementation des Systems.
Aufbau einer domänenunabhängigen Fallbasis und Fallauswahl mit Zielabhängigkeiten in CAPLAN/CBC
(1995)
Das Thema dieser Arbeit ist die Erweiterung von CoMo-Kit um eine Zeitplanungskomponente. Man möchte Informationen über die Dauer der einzelnen Teilaufgaben gewinnen und diese zu Dauern der übergeordneten abstrakten Aufgaben abschätzen. Auf diese Weise kann sich ein Manager über die voraussichtliche Gesamtdauer des Projektes und dessen Fortgang informieren. Dazu werden frühestmögliche und spätestmögliche Anfangs- und Endzeitpunkte der Vorgänge berechnet. Die Differenz zwischen frühesten und spätesten Zeitpunkten gibt dem Projektmanager eine Aussage über den Dispositionsspielraum der einzelnen Vorgänge. Ist kein Spielraum vorhanden, kann man erkennen, daß dieser Vorgang die Projektdauer determiniert und eventuell für Verzögerungen verantwortlich sein kann. Im Rahmen dieser Diplomarbeit ist das Verfahren der Allgemeine Hierarchischen Netzplantechnik entwickelt und als Zeitplanungskomponente in das System CoMo-Kit integriert worden.
Im Rahmen der Arbeit werden verschiedene Ansätze im Bereich Design Rationale untersucht und miteinander verglichen. Darauf aufbauend wird ein Konzept entwickelt, wie Design Rationales in dem Projektplanungs- und Abwicklungswerkzeug CoMo-Kit eingesetzt werden können. Die Realisierung wird beschrieben.
Die Entwicklung und Wartung von Software-Systemen wird ständig komplexer, da die entwickelte Software selbst immer komplexer und umfangreicher wird. Daher bietet sich zur Entlastung der Projektleiter, Projektmanager und weiterer Projektmitarbeiter eine Rechnerunterstützung der Software-Entwicklung und -wartung an. So können sie einen Überblick über den gesamten Prozess bekommen und diesen optimieren. Eine Möglichkeit der Unterstützung liefert die Modellierung des Software-Entwicklungsprozesses. Um einen Software-Entwicklungsprozess modellieren zu können, müssen die notwendigen Basisstrukturen identifiziert und bereitgestellt werden, was Thema dieser Arbeit ist.
Ein umfangreiches Gebiet der Künstlichen Intelligenz beschäftigt sich mit dem Bereich Planung. Im wesentlichen gibt es zwei Planungsansätze, zum einen nicht-hierarchische und zum anderen hierarchische arbeitende Verfahren. Als Beispiel für einen nicht-hierarchischen Ansatz kann SNLP1 genannt werden. Die nachfolgende Ausarbeitung ist auf dem zweiten Gebiet, der hierarchischen Planung, angesiedelt: Der Planungsassistent CAPlan2, der eigentlich auf dem nicht-hierarchischen Planungsansatz SNLP beruht, soll um die Möglichkeiten der hierarchischen Planung erweitert werden.
Problemspezifikation für die Arbeitsplanerstellung rotationssymmetrischer Drehteile mit AutoCAD
(1996)
Um den Anforderungen am industriellen Markt gerecht werden zu können, sind Unternehmer gezwungen, immer komplexere, speziell auf den Kunden abgestimmte Produkte möglichst schnell in kleinen Losgrössen herzustellen. Dabei umfasst die Herstellung eines neuen Produkts eine Vielzahl von Arbeitsschritten. Um den Marktanforderungen zu genügen wird bereits heute ein grosser Teil dieser Arbeitsvorgänge computerunterstützt durchgeführt.
Das Lernen ist für den Menschen ein wichtiger Teil des Entwicklungsprozesses und erlaubt ihm, aus positiven und negativen Erfahrungen Konsequenzen für sein weiteres Verhalten abzuleiten, insbesondere für seine Entscheidungsfindung. Diese Art des Lernens, das Lernen aus Erfahrung, kann jedoch nur stattfinden, wenn diese Erfahrungen erklärt werden können. Auf diesem Ansatz aufbauend, werden seit einigen Jahren Verfahren zur Übertragung erklärungsbasierter Lernprozesse auf Computersysteme untersucht.
In dieser Arbeit wird ein fallbasiertes System entwickelt, das Angaben über existiertende fallbasierte Anwendungen und Werkzeuge verwaltet. Mit diesem System kann ein Entwickler von fallbasierten Systemen sich einen Überblick über den Stand der Technik verschaffen und vor allem Informationen über Systeme erhalten, die dem System, das er selbst entwickeln will, ähnlich sind.
Der Bereich der Workflow-Management-Systeme (WFMS - z.B. [Jab95ab]) wird in jüngerer Zeit in verschiedenen Bereichen der Informatik genauer erforscht. Ziel der Bemu"hungen ist es, die besonderen Anforderungen , die WFMS an Rechner- und Programmsysteme stellen, zu ermitteln und zu befriedigen. In dieser Arbeit untersuchen wir Aspekte des Umplanens ("Replanning" bzw. "Remodeling") während der Abarbeitung eines Workflows. Sie entstand im Rahmen des Projektes CoMo-Kit, im Rahmen dessen Methoden und Werkzeuge entwickelt werden, die die Planung und das Management komplexer Arbeitsabläufe, insbesondere im Entwurfsbereich, unterstützen. Der CoMo-Kit wird seit 1989 am Lehrstuhl für Expertensysteme der Universität Kaiserslautern unter der Leitung von Prof. Dr. M.M. Richter entwickelt.
Das Modell des Intelligenten ist eine Abstraktion von Telefonvermittlungs-systemen und beschreibt auch deren Erweiterungen. Zunächst wird ein einfachesBasissystem spezifiziert, das dann um weitere Leistungsmerkmale, sog. Features, erweitert wird. Im Rahmen dieser Arbeit haben wir ein bereits bestehendes, in Estellespezifiziertes Basissystem um sechs Features erweitert. Dabei konnten wir verschiedene Stile für die Featurespezifikation in Estelle überprüfen. Wir entwerfen Prinzipien füreine verhaltenerhaltende Transformation, die geeignete Ansatzpunkte für neueFeatures schaffen kann. Für das Ergänzen von neuen Rufnummern haben wir eine einfache Methode entwickelt. Wir zeigen zwei Schwächen von Estelle beim Erweitern vonSystemen auf. Schließlich berichten wir über unsere Erfahrungen mit dem im IN-Modellverwendeten Prinzip der Detection Points.
Diese Arbeit beschäftigt sich mit einer Möglichkeit zur Effizienzverbesserung, wobei das SNLP-basierte Planungssystem CAPlan verwendet wird. Dabei werden neue, zu lösende Probleme einer Vorverarbeitung unterzogen. Dort werden bestimmte Eigenschaften ermittelt, ohne jedoch das Problem zu lösen. Anschliessend wird dem Planungssystem das neue Problem mit dem Zusatzwissen in Form der analysierten Eigenschaften übergeben. Das Planungssystem verwendet das Wissen, um effizienter eine Lösung zu finden.
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Die Untersuchung von semiklassischen Näherungen des Zeitentwicklungsoperators in der Quantenmechanik ist sowohl von fundamentalem als auch von didaktischem Interesse. Das fundamentale Interesse ist in der Beschreibung des Zusammenhangs zwischen klassischer Mechanik und Quantenmechanik begründet, das didaktische erklärt sich aus dem anschaulichen Zugang, den die Beschreibung von quantenmechanischen Prozessen durch klassische Größen liefert. Besonders klar wird dieser Zusammenhang, wenn eine Phasenraumdarstellung der Quantenmechanik betrachtet wird. Eine erste semiklassische Näherung für den Propagator im Phasenraum, den sogenannten "coherent state"-Propagator, wurde von Klauder vorgestellt. Weissman motivierte diese Näherung durch die Erweiterung der semiklassischen Korrespondenzrelationen auf den Begriff der kohärenten Variablen. In späteren Veröffentlichungen wird auf eine rigorose Herleitung mittels Pfadintegralmethoden verwiesen, die aber bis zum heutigen Tage nicht verwirklicht wurde. Ein zentraler Punkt dieser Arbeit wird es sein, zum ersten Mal diese alternative Herleitung vollständig zu präsentieren. Die Eigenschaften der semiklassischen Näherung des Phasenraumpropagators wurden für eine Reihe fundamentaler Quantenprozesse untersucht. Ausgehend von der semiklassischen Näherung des Phasenraumpropagators ergibt sich durch eine Ortsraumdarstellung desselben der Herman-Kluk-Propagator. Dieser gehört zur Klasse der Anfangswertdarstellungen ("initial value representations", IVRs), die die sonst bei semiklassischen Näherungen auftretenden Schwierigkeiten wie Kaustiken, Singularitäten und beidseitige Randbedingungen für die zugrundeliegenden klassischen Bahnen umgehen. Dies erlaubt ihre Anwendung auch auf Quantensysteme, deren klassisches Äquivalent chaotische Phasenraumbereiche enthält. Erste Untersuchungen hierzu wurden in unserer Arbeitsgruppe Ende 1997 durchgeführt. Die Frage nach der Klärung grundsätzlicher Eigenschaften des verwendeten Propagators und der verwendeten Methode sowie die Beleuchtung des theoretischen Hintegrunds lieferten die Anregung für diese Arbeit. Zu dieser Arbeit: In dieser Arbeit wird die semiklassische Näherung für den Phasenraumpropagator und hierauf aufbauend der Herman-Kluk-Propagator hergeleitet und ihre Eigenschaften untersucht. Im einzelnen gliedert sich die Arbeit folgendermaßen: In einem ersten, einführenden Kapitel werden kurz die grundlegenden Begriffe aus den drei Gebieten der klassischen Mechanik, der Quantenmechanik und der Semiklassik erläutert. Das zweite Kapitel gibt einen Überblick über die semiklassische Theorie nach Miller und Weissman. Der zentrale Begriff ist hierbei der der Korrespondenzrelation, der einen direkten Zusammenhang zwischen klassischen Größen (erzeugenden Funtionen) und unitären Transformationen in der Quantenmechanik liefert. Ein Spezialfall dieser Korrespondenz ist der Zusammenhang zwischen der Zeitentwicklung eines quantenmechanischen kohärenten Zustands und der Evolution klassischer Bahnen. Im zentralen dritten Abschnitt wird erstmalig eine vollständige Herleitung des Phasenraumpropagators mittels Pfadintegralmethoden gegeben. Aus dieser Herleitung wird klar, daß eines der Probleme der Semiklassik in der Frage liegt, welche Hamiltonfunktion einem gegebenen Hamiltonoperator zuzuordnen ist. Auch der durch die semiklassischen Näherung eingeführte Fehler wird diskutiert. Anschließend wird aus dem "coherent state"-Propagator der Herman-Kluk-Propagator hergeleitet und dessen Eigenschaften besprochen. Das vierte Kapitel beschreibt in Vorgriff auf den letzten Abschnitt die numerische Implementierung des Herman-Kluk-Propagators und verschiedene Methoden zur Gewinnung von Energieeigenwerten eines Quantensystems. Hierzu wird eine phasenraumsensitive Integrationsroutine vorgestellt. Abschließend werden die Ergebnisse der numerischen Anwendung des Propagators auf verschiedene, charakteristische Quantensysteme vorgestellt und sowohl mit der exakten Quantenmechanik, als auch mit anderen semiklassischen Methoden verglichen. Dabei werden sowohl die Stärken, als auch die Schwächen dieser Methode deutlich werden.
Entwurf einer formalen Semantik für Estelle unter Verwendung von TLA mit Prädikatentransformatoren
(1999)
Die formale Beschreibungstechnik Estelle wird in einem internationalen Standarddefiniert. Ein Hauptnutzen einer formalen Semantik für eine Beschreibungs-sprache besteht darin, daß sie die formale Verifikation von Systembeschreibungenermöglicht. Leider ist die im Standard enthaltene Semantikdefinition für Estellenicht formal (und verständlich) genug, um formale Verifikation zu ermöglichen.Daher wird in dieser Arbeit ein Ansatz entwickelt, um die Semantik von Estellevollständig formal und in einer für die Verifikation geeigneten Weise zu definieren. Für diesen Ansatz werden ausführliche Untersuchungen angestellt, insbesondere über die Methoden der Verifikation, die unterstützt werden müssen, und über eine geeignete Darstellung der sogenannten " Transitionen" von Estelle. Um die hieraus resultierenden Forderungen zu erfüllen, wird ein neuer Formalismus entworfen, in dem Lamports temporale Logik der Aktionen und Dijkstras Prädikaten-transformatoren vereinigt werden. Anschließend wird die Definition der gesamten Semantikvon Estelle skizziert und die Definition des " Kerns von Estelle", des sogenannten Ausführungsmodells, in diesem Formalismus vollständig ausgeführt. Es zeigtsich, daß der neue Ansatz die formale Verifikation von Estelle Spezifikationen beimechanischer Unterstützung nun möglich erscheinen läßt. Eine Ausarbeitung derDetails des zum Formalismus gehörigen Schlußsystems und der skizzierten Gesamt-Semantik verbleibt allerdings zukünftigen Arbeiten.
Zur schnellen Kommunikation zwischen Rechnern werden laufzeiteffiziente Implementationen von Protokoll-Spezifikationen benötigt. Die herkömmliche Schichten-Aufteilung verursacht hohe Kosten. In dieser Projektarbeit wurde eine andere Spezifikationsform, die Methode des strukturierten Produktautomaten, am Beispiel der OSI-Schichten 5 und 6 untersucht. Der Aufwand zur Erstellung und Wartung der Spezifikation und die Laufzeiteffizienz der daraus entstandenen Inplementation wurden mit mehreren anderen Spezifikationsformen verglichen und bewertet. Die Methode des strukturierten Produktautomaten erwies sich dabei als ein geeigneter Spezifikationsstil.
Zur Untersuchung des Abflussverhaltens gängiger Befestigungsarten wurden mit Hilfe des Modells KOSMO Niederschlag-Abfluss-Simulationen durchgeführt. Betrachtet wurden hier-bei sowohl Einheitsflächen als auch ganze Einzugsgebiete verschiedener städtebaulicher Struktur. Die Berechnungen erfolgten unter Vorgabe empfohlener Verlustparameter zur Benetzung und zur Muldenauffüllung sowie angepasster Parameterwerte zur Beschreibung der Versickerung. Die Abflusssimulationen wurden für ein weitreichendes Spektrum bemessungsrelevanter Niederschlagsbelastungen vollzogen. Es wurden Einzelregen konstanter und variabler Intensität unterschiedlicher Regendauer sowie eine neunmonatige Nieder-schlagsreihe simuliert. Aus der Bilanzierung des Niederschlag-Abfluss-Prozesses wurden die verschiedenen Abflussbeiwerte der unterschiedlichen Flächenarten ermittelt. Die Modellsimulationen haben gezeigt, dass eine signifikante Abhängigkeit der rechneri-schen Abflussbeiwerte von der zugrunde gelegten Niederschlagsbelastung besteht, die mit zunehmender Versickerungsfähigkeit der Flächen ansteigt. Während die weitestgehend undurchlässigen Flächentypen recht konstante Werte aufweisen, sind die Abflussbeiwerte der durchlässig befestigten Flächen großen niederschlagsbedingten Schwankungen von bis zu 0,5 unterlegen. Hierbei spielen sowohl die Regenintensität als auch die Regendauer und der zeitliche Verlauf des Regens eine Rolle. Die Berechnungsergebnisse für den mittleren Abflussbeiwert, den Endabflussbeiwert sowie den Spitzenabflussbeiwert zeigten für die Simulation von Einzelereignissen unter Berück-sichtigung der belastungsbezogenen Abhängigkeit eine gute Übereinstimmung mit den Richtwerten. Den Berechnungen des mittleren Abflussbeiwertes und des Endabflussbeiwertes wurden hierbei wesentlich geringere Parameterwerte zur Versickerung zugrunde gelegt als für den Spitzenabflussbeiwert, für den die Richtwerte nur mit deutlich höher angesetzten Infiltrationsleistungen bestätigt werden konnten. Diese Versickerungsleistungen liegen zwar noch deutlich unter den von Borgwardt und Muth in neueren Untersuchungen festgestellten Werten und sind somit wissenschaftlich begründet. Dennoch erscheint es fraglich, ob das Versickerungsvermögen durchlässig befestigter Flächen tatsächlich derart hoch ist. Diese Frage kann jedoch anhand der vorliegenden Untersuchung nicht geklärt werden. Des Weiteren wurde festgestellt, dass die Langzeitsimulation von Niederschlagsreihen mit den an Einzelereignisse angepassten Modellparametern sehr geringe Ergebniswerte für den mittleren Abflussbeiwert und teilweise auch für den Endabflussbeiwert der durchlässigen Flächenbefestigungen liefert. Hier stellt sich die Frage, ob der Abflussbeitrag von diesen Flächen im Jahresmittel tatsächlich derart gering ausfällt. Dies wäre aufgrund der Abhängigkeit der Abflussbeiwerte von der Regenbelastung durchaus plausibel, da ein Großteil der jährlichen Niederschlagsereignisse nur geringe Intensitäten aufweist. Der Ansatz geringerer Parameterwerte zur Versickerung erscheint im Hinblick auf die in der Literatur genannten Untersuchungsergebnisse nicht sinnvoll. Darüber hinaus trat hinsichtlich der Endabflussbeiwerte die Problematik auf, dass sich aus der Definitionsgleichung für stark durchlässige Flächenbefestigungen unzutreffenden Werte ergeben. Die Langzeitsimulation von Einzugsgebieten mit einem hohen Anteil versickerungsintensiver Flächen muss daher als problematisch beurteilt werden. Betrachtungen zur Genauigkeit der durchgeführten Untersuchungen (hier nicht aufgeführt) haben gezeigt, dass zahlreiche gebiets- und modellspezifische Faktoren Einfluss auf die Zuverlässigkeit der Berechnungsergebnisse haben. Die rechnerischen Abflussbeiwerte weisen insbesondere hinsichtlich der Parameterwerte im Versickerungsansatz nach Horton eine starke Sensitivität auf, die bei der Anwendung von Abflussmodellen zur Berechnung des Oberflächenabflusses berücksichtigt werden muss. Aufgrund der im Rahmen dieser Arbeit durchgeführten Modellberechnungen kann die Kompatibilität von Berechnungen des Oberflächenabflusses durch Abflusssimulation mit den empfohlenen Standardwerten der einschlägigen Literatur grundsätzlich festgestellt werden. Durch die Anwendung gängiger Modellansätze zur Beschreibung der Abflussbildung unter Ansatz angepasster Parameterwerte können insbesondere bei der Simulation von Einzelereignissen weitgehend übereinstimmende Ergebnisse erzielt werden. Es ist jedoch zu beachten, dass die Simulationsergebnisse entscheidend von der angesetzten Niederschlagsbelastung bestimmt werden, so dass die Anwendung von Berechnungsmodellen nur bezogen auf bestimmte Niederschlagsbelastungen erfolgen kann. Darüber hinaus empfiehlt es sich dringendst, das eingesetzte Modell vorab unter Berück-sichtigung der gebietsspezifischen Gegebenheiten bezüglich der angesetzten Parameterwerte zu eichen. Die Anwendung von Abfluss- und Schmutzfrachtmodellen setzt daher stets voraus, dass die abflussrelevanten Randbedingungen sorgfältig erfasst und bei der Abflusssimulation ausreichend berücksichtigt werden. Die Anwendung von Abflussmo-dellen zur Berechnung des Oberflächenabflusses ist insbesondere im Hinblick auf eine differenzierte Betrachtung der Teilflächen und der Berücksichtigung des Versickerungsbei-trages durchlässiger Befestigungsarten sinnvoll, während diesbezüglich die Angaben des ATV-Arbeitsblattes A 118 nicht ausreichend sind. Des Weiteren machten die Untersuchungen deutlich, dass der derzeitige Kenntnisstand bezüglich des Infiltrationsvermögens durchlässig befestigter Flächen nicht ausreicht. Die vorzugebenden Modellparameter zur Versickerung sind bislang noch mit größeren Unsicherheiten behaftet, die sich unmittelbar auf die Zuverlässigkeit der Berechnungsergebnisse niederschlagen. Hier werden langfristige und großflächig angelegte Freilandmessungen empfohlen, die zur Erarbeitung von Versickerungswerten als Eingangsgrößen in die Abflussberechnungen und zur Festlegung von Abflussbeiwerten dienen können.
Diese Arbeit widmete sich der Aufgabe, quantitative Abschätzungen für Emissionsspektren eines geladenen Teilchens in starken äußeren Feldern zu liefern. Es wurde hierzu in Kapitel 2 der Weg beschritten, zuerst das System mit klassischer Dynamik zu beschreiben, wobei man unter Umständen aus den klassischen Hamilton'schen Bewegungsgleichungen analytische Ausdrücke ableiten kann, und mit diesen Ergebnissen die Grenzen abzustecken, innerhalb derer sich das Quantensystem entwickeln kann. Ähnlich wie bei dem in der Einleitung erwähnten Modell, das die Cutoff-Frequenz für ein Atomelektron aus semiklassischen Überlegungen ableitet, konnten hier für ein Bloch-Teilchen zwei Cutoff-Gesetze abgeleitet werden. Sie gingen aus Näherungen der Hamilton'schen Bewegungsgleichungen hervor, wenn die Bewegung entweder durch das Stark-Feld oder das zeitliche Wechselfeld beherrscht wird, und stimmten mit den numerischen Ergebnissen der klassischen Dynamik gut überein. Darüber hinaus konnten sie sogar die quantenmechanischen Resultate bestätigen, was von Bedeutung ist, da die Ableitung quantitativer Ausdrücke bei der Quantendynamik solcher zeitabhängiger Systeme sehr große Schwierigkeiten bereitet und meist nur numerisch - nicht analytisch - möglich ist. Im zweiten Teil der Arbeit (Kapitel 3) wurde mit dem Zwei-Niveau-System ein quantenmechanisches System behandelt, das aufgrund seiner einfacheren Stuktur analytische Ausdrücke zulässt. Hier wurde aus der Formel für den Erwartungwert des Dipolmoments ein Ausdruck abgeleitet, der die Größe des Plateaus im HHG-Spektrum bestimmt. Außerdem konnte man bei der näherungsweisen Berechnung des Spektrums mittels stationärer Phase zeigen, dass die Fluktuationen im Bereich des Plateaus durch die Überlagerung der Beiträge der beiden stationären Punkte verursacht wird.
Elektronen in einem kristallinen Festkörper oder, allgemeiner formuliert, Teilchen in einem räumlich periodischen Potential bilden ein System, das schon seit den Anfängen der Quantenmechanik von fundamentalem Interesse ist. Ein wichtiges physikalisches Problem ist dabei die Berechnung der quantenmechanischen Zustände solcher Teilchen, die zusätzlich einem homogenen elektrischen Feld ausgesetzt sind. Die exakte Lösung dieses Problems ist jedoch selbst für eindimensionale Systeme nicht möglich, da der Versuch einer analytischen Berechnung auf unüberwindliche mathematische Probleme stößt. Diese versuchte Wannier 1960 zu umgehen, indem er die nach ihm benannten Wannierzustände einführte. Mit seiner Veröffentlichung stieß er eine jahrzehntelange Diskussion an. Vor allem die Begriffe Blochoszillationen, Zener-Tunneln und Wannier-Stark-Quantisierung standen im Mittelpunkt einiger Kontroversen. Ein physikalisch wichtiges Ergebnis der Diskussion ist die Erkenntnis, daß es sich bei den Eigenzuständen des betrachteten Systems um Resonanzen, d.h. metastabile Zustände, handelt, die sich auf eine ganz bestimmte Art und Weise anordnen lassen. Jede Resonanzenergie ist nämlich Teil einer Folge von äquidistanten Energieeigenwerten, den sogenannten Wannier-Stark-Leitern. Die Wannier-Stark-Quantisierung wurde zuvor lange Zeit in Frage gestellt, denn Zak zeigte, daß der Hamiltonoperator des Systems ein kontinuierliches Spektrum besitzt und widersprach damit der Aussage, das Systeme habe diskrete Energieeigenwerte. Tatsächlich ist das Spektrum, wenn man nur die reelle Achse betrachtet, kontinuierlich. Die Diskretisierung ergibt sich erst, wenn man zur Betrachtung der komplexen Ebene übergeht. Den ersten experimentellen Hinweis auf die Existenz von Wannier-Stark-Leitern fand man in Versuchen zur optischen Absorption in einem Festkörperkristall. In jüngster Zeit wurde das Interesse an diesem Gebiet der Physik durch Experimente mit Halbleiter-Übergittern und optischen Gittern erneut geweckt, denn man findet hier weitere Realisierungen des untersuchten Hamiltonoperators. Insbesondere erweisen sich neutrale Atome in stehenden Laserwellen als geeignete Studienobjekte. Die Untersuchungen mit Hilfe dieser Experimente haben den Vorteil, daß sie nicht wie Versuche mit Elektronen in Festkörpern durch spezifische Probleme wie Gitterfehler, Verunreinigungen, Phonon-Elektron-Wechselwirkung, Elektron-Elektron-Wechselwirkung, etc. gestört werden. Genauer gesagt, viele theoretische Aussagen über das System lassen sich erst durch das Fehlen der festkörpereigenen Störeinflüsse experimentell überprüfen. Andererseits lösen die neuen Ergebnisse der Experimentalphysik eine Weiterentwicklung der zugehörigen Theorie aus. Den Ausgangspunkt der Untersuchungen zu dieser Thematik in unserer Arbeitsgruppe bildete die Entwicklung einer effizienten Methode zur Berechnung von Wannierzuständen. Anschließend wurden verschiedene Aspekte des Wannier-Stark-Systems betrachtet, u.a. die Auswirkungen eines zusätzlichen zeitperiodischen äußeren Feldes, wie es beispielsweise im Experiment auftaucht. Die vorliegende Arbeit soll in diesem Zusammenhang klären, wie die Lebensdauer der Wannier-Stark-Resonanzen durch den periodischen Antrieb beeinflußt wird.
Das Idealbild der europäischen Stadt mit ihrer dicht gewachsenen Baustruktur und ihren öffentlichen Räumen steht als Synonym für 'Urbanität' und beeinflußt bis zum heutigen Tag das planerische Denken und Handeln. Eng verbunden damit tauchen immer wieder Assoziationen zu Agora und Forum auf, die als Archetypen des 'Öffentlichen' schlechthin, den Mythos einer sich dort artikulierenden und konstituierenden, idealen und demokratischen Stadtgesellschaft transportieren. Zu Beginn des 21. Jahrhunderts stellt sich jedoch die Frage, ob sich die tradierten und erprobten Denkmodelle und Bilder des öffentlichen Raumes aufgrund der rasanten gesellschaftlichen und informationstechnologischen Veränderungen, überlebt haben. Haben die typischen Ideen von Stadt, die auf dem öffentlichen Raum beruhen nur noch rein symbolische Bedeutung? Verlagern sie sich mehr und mehr in den virtuellen Raum? 'Die Stadt der kurzen Wege' mit ihrer räumlichen Mischung ist als 'Marktplatz' für den Austausch von Informationen und Waren nicht mehr in der bekannten Weise relevant und gesellschaftlich bestimmend. Die Stadt als einheitliches und homogenes Gebilde existiert nicht mehr. Stattdessen ist sie durch Fragmentierung und Zersplitterung gekennzeichnet, wie u.a. die Diagnosen von Touraine ['Die Stadt - ein überholter Entwurf', 1996], Koolhaas ['Generic City', 1997], Sieverts ['Die Zwischenstadt', 1999] und Augé ['Orte und Nicht-Orte', 1998] zeigen. Synchron dazu entstehen mit dem Cyberspace oder 'Virtual Cities' [Rötzer, 1997] neue Formen von öffentlichem Raum und Öffentlichkeit - Parallelräume zur realen Welt. Welche Auswirkungen diese neuen Räume auf das Leben der Menschen und die Stadt haben werden, kann noch nicht abgesehen werden. In der realen Welt werden die Planungsspielräume der Kommunen immer kleiner; die Wechselwirkungen, die u.a. durch Globalisierung, Privatisierung und Deregulierung öffentlicher Aufgaben ausgelöst werden, immer komplexer. Neben den international zu beobachtenden Entwicklungen [Shopping-Mall, New Urbanism, Gated Community], die sich länderübergreifend in leicht abgewandelten Varianten durchzusetzen scheinen, üben auch soziokulturelle Gesellschaftstrends großen Einfluß auf den öffentlichen Raum aus. Der öffentliche Raum als Bindeglied zwischen dem 'Öffentlichen' und dem 'Privaten' ist zunehmend dem Druck der 'Erlebnis- und Konsumgesellschaft' ausgesetzt und kann deshalb seine gesamtgesellschaftliche Funktion für die Stadt nur noch eingeschränkt wahrnehmen. Die individualisierte und mobile Gesellschaft mit ihren gewandelten und diversifizierten Lebensentwürfen und Wertvorstellungen stellt das tradierte Verständnis des öffentlichen Raums zusätzlich in Frage. Das Bild des öffentlichen Raumes als ein Bereich der Gesellschaft des 21. Jahrhunderts kann nicht mehr mit einem mythisierenden Agora-Begriff begegnet werden. Neue Wege und eine Überprüfung der aktuellen Entwicklungen sind dafür unerlässlich. Gleichzeitig müssen jedoch auch die geschichtlichen Gegebenheiten berücksichtigt werden, um aus ihnen zu lernen.
In dieser Arbeit wurde die Streutheorie in Stark-Systemen auf das im Rahmen der Untersuchung von Halbleiter-Übergittern vorgeschlagene periodische Rechteck-Potential angewendet. Das Verhalten der Resonanzenergien als Funktion verschiedener Parameter wurde untersucht. Hierbei trat das Phänomen der Paarung von Linienbreiten auf, welches durch Betrachtung der Bandstruktur des korrespondierenden feldfreien Hamiltonoperators und durch Modellierung mittels eines Matrixmodells für Wannier-Stark-Leitern geklärt werden konnte. Im letzten Abschnitt wurden die Untersuchungen auf die Beschreibung von Absorptionsspektren von Halbeiter-Übergittern ausgedehnt. Es wurde mittels zeitabhängiger Störungsrechnung eine Formel zur Berechnung des Absorptionsspektrums hergeleitet. Wird das periodische Potential in Halbleiter-Übergittern durch ein geglättetes Rechteck-Potential beschrieben, so können die spektroskopisch bestimmten Linienbreiten durch unsere Theorie gut beschrieben werden. Dies führt zu dem Schluss, dass das periodische Potential der Realität nicht wie anfänglich vermutet durch ein Rechteck-Potential beschrieben werden sollte sondern durch eine geglättete Version desselben. Trotz dieser interessanten Ergebnisse bleiben noch einige Fragen ungeklärt. So ist z.B. ungeklärt, ob es möglich ist die Parameter des Matrixmodells aus semiklassischen oder quantenmechanischen Berechnungen zu bestimmen, so dass das Modell es erlaubt die Resonanzenergien ab initio zu berechnen Im Rahmen dieser Arbeit wurde das Phänomen der Paarung der Lebensdauern untersucht. Hier wäre es interessant nach den Symmetrien der dazugehörigen Wellenfunktionen zu fragen. Es ist zu hoffen, dass dies Gegenstand zukünftiger Untersuchungen sein wird.
Die Geschichte zeigt, dass der städtische öffentliche Raum schon immer ein Ort gewesen ist, der von vielseitigen Interaktionen lebt und von ihnen geformt wird. Besonders die Bildung von Öffentlichkeit und Urbanität entsteht durch ein Zusammenkommen von verschiedensten Austauchprozessen. Seit Aufkommen der digitalen Medien ist jedoch die Art der menschlichen Interaktion deutlich erweitert und komplexer geworden, sodass sie Befürchtungen auslösten, der reale öffentliche Raum verliere als Interaktionsort an Bedeutung. Unabhängigkeit von Ort und Zeit, entlokalisierte und individualisierte Zeitstrukturen zerfasern den Rhythmus der Stadt. Jene droht ungemütlicher und gefährlicher zu werden. Das Netz wurde zum neuen ‚öffentlicheren’ Raum im Sinne einer aktiven kritischen bürgerlichen Öffentlichkeit erhoben.
Mit der Mobilisierung der digitalen Technologien wird es jedoch möglich, zurück in den öffentlichen Raum zu gehen und sich die neuen Medien als kommunikationsfördernd, identitäts- und gemeinschaftsproduzierend zu Hilfe zu nehmen, um ein neues integrierendes und identitätsstiftendes Interaktionsfeld für eine demokratische Gesellschaft zu kreieren - im besonderen als Gegenentwicklung zur weiteren Kommerzialisierung und Reizüberfrachtung des öffentlichen Raums. Die interaktive Kunst mit ihrer Lebensnähe, den kommunikativen Ansätzen und dem reflektierenden Umgang mit den modernen Machttechnologien ist dementsprechend besonders prädestiniert, mit dem städtischen öffentlichen Raum verknüpft zu werden.
Ziel der Arbeit ist es nun, aus dem Feld der Interaktiven Kunst neue Ansätze für eine Wiederbelebung der Öffentlichkeitsfunktion des Stadtraumes aufzuzeigen, so zum Beispiel Katalysatoren für eine direkte Mensch-Mensch-Interaktion oder eine neue Art von Involvie- rung in die Gestaltung des öffentlichen Raumes. In seiner neuen Interaktivität kann der Raum selbst zu einer Art Austauschmedium werden.
Aus den theoretischen Überlegungen, den Fragebögen und der Analyse gesammelter interaktiver Projekte, die bewusst in den öffentlichen Raum gehen, haben sich schließlich folgende fünf Kategorien herauskristallisiert. Sie bilden Ansatzpunkte für einen Schritt in Richtung Realisierung eines zeitgemäßen Interaktionsfeldes.
• Interaktionsförderung zur angstfreien Konfrontation und zum Kontakt mit Fremden
• Förderung der Öffentlichkeitsbildung durch Kritik, Diskussion und Reflektion der Gesellschaft
• Förderung der sozialen Interaktion und Verortung in der lokalen Nachbarschaft
• Wahrnehmung der gesellschaftlichen Entwicklung durch Technologie reflektierende, sinnliche Systemerfahrung
• Aktivierung zur bewussten Teilnahme an der Gestaltung des öffentlichen Raums
Die Homepage, die sich aus der CD-Rom zur Diplomarbeit entwickelt hat, stellt diese interaktiven Medienprojekte vor. Sie verdeutlicht anhand der Analyse und Kategorisierung der Projekte, wie nun die Neuen Medien alternativ genutzt werden können, um zur Reaktivierung und positiven Veränderung des Stadtraumes beizutragen.
In einer offenen Liste können weitere Projekte eintragen werden. Mit der Zeit kann sich so ein umfangreiches Archiv entwickeln, mit Beispielen, die zu neuen Ansätzen im Umgang der Stadtplanung mit dem öffentlichen Raum anregen.
www.interactionfield.de
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.
Diese Arbeit befasst sich mit der Quantendynamik in gekippten periodischen Strukturen, den so genannten Wannier-Stark-Systemen. Eine wichtige experimentelle Realisierung eines solchen Systems ist die Dynamik ultrakalter Atome in optischen Gittern unter dem Einfluß einer externen Kraft, z.B. der Gravitation. Zunächst wird die Dynamik eines einzelnen quantenmechanischen Teilchens in zweidimensionalen Wannier-Stark-Systemen analysiert. Dieses Teilchen zeigt Lissajous-artige Oszillationen, deren Dynamik sehr sensitiv von der Richtung der externen Kraft abhängt. Im zweiten Teil der Arbeit wird die Dynamik eines Bose-Einstein-Kondensats im Rahmen eine mean-field-Näherung (Gross-Pitaevskii-Gleichung) untersucht. Neue Phänomene wie eine Zusammenbruch und Wiederaufleben der Oszillationen können mittels einer Entwicklung nach Wannier-Stark-Funktionen in einem einfachen Modell erklärt werden. Schließlich werden die Eigenschaften von gebundenen und Resonanz-zuständen der Gross-Pitaevskii-Gleichung für zwei einfache Modellsysteme (delta-Potential und delta-shell-Potential) untersucht.
Im Rahmen dieser Diplomarbeit werden die Konzepte zur Unterstützung von datenbankorientierten Software-Produktlinien durch domänenspezifische Sprachen am Beispiel von Versionierungssystemen untersucht. Ziel dieser Arbeit ist es, die zeitlichen Kosten, die durch die Nutzung einer domänenspezifischen Sprache entstehen, zu bestimmen. Dabei werden unterschiedliche Datenbankschemata verwendet, um zu untersuchen, welcher Zusammenhang zwischen der Komplexität des Datenbankschemas und der Übersetzung einer domänenspezifischen Anweisung in eine Reihe von herkömmlichen SQL-Anweisungen besteht. Um die zeitlichen Kosten für die Reduktion zu bestimmen, werden Leistungsuntersuchungen durchgeführt. Grundlage für diese Leistungsuntersuchungen sind domänenspezifische Anweisungen, die von einem speziell für diesen Zweck entwickelten Generator erzeugt wurden. Diese generierten domänenspezifischen Anweisungen werden mit den unterschiedlichen Datenbanktreibern auf dem passenden Datenbankschema ausgeführt.
Music Information Retrieval (MIR) is an interdisciplinary research area that has the goal to improve the way music is accessible through information systems. One important part of MIR is the research for algorithms to extract meaningful information (called feature data) from music audio signals. Feature data can for example be used for content based genre classification of music pieces. This masters thesis contributes in three ways to the current state of the art: • First, an overview of many of the features that are being used in MIR applications is given. These methods – called “descriptors” or “features” in this thesis – are discussed in depth, giving a literature review and for most of them illustrations. • Second, a large part of the described features are implemented in a uniform framework, called T-Toolbox which is programmed in the Matlab environment. It also allows to do classification experiments and descriptor visualisation. For classification, an interface to the machine-learning environment WEKA is provided. • Third, preliminary evaluations are done investigating how well these methods are suited for automatically classifying music according to categorizations such as genre, mood, and perceived complexity. This evaluation is done using the descriptors implemented in the T-Toolbox, and several state-of-the-art machine learning algorithms. It turns out that – in the experimental setup of this thesis – the treated descriptors are not capable to reliably discriminate between the classes of most examined categorizations; but there is an indication that these results could be improved by developing more elaborate techniques.
Die Diplomarbeit beschäftigt sich mit den Möglichkeiten und Grenzen der Einbeziehung der Bürger in Planungsprozesse. Es werden planungswissenschaftliche und sozialwissenschaftliche Aspekte der Thematik betrachtet. Dabei wird einerseits der aktuelle Forschungsstand zusammengefasst und anderseits werden neue, weitergehende Fragestellungen aufgegriffen. So wird insbesondere untersucht, welche unterschiedlichen Beweggründe die Akteure in Beteiligungsprozessen haben, welche Anforderungen (Mindestvoraussetzungen, Empfehlungen, Qualitätsziele) an Beteiligungsprozesse zu stellen sind und welche Konsequenzen (u.a. auch der Aufwand und Ertrag von Beteiligung) sich ergeben. Anhand eines Praxisbeispiels, eine naturnahe Schulgeländegestaltung unter Einbeziehung von Lehrern, Eltern und Schülern, werden diese theoretischen Überlegungen einer kritischen Überprüfung unterzogen.
Das Ziel dieser Arbeit ist es, ein Framework und einen funktionsfähigen Prototypen für eine Middleware zu entwickeln, die es ermöglicht, Berechnungen verteilt in einem Peer-to-Peer-Netz auszuführen. Dabei sollen verschiedene Arten der Berechnung unterstützt werden. Eine Art der Berechnung sind Aufträge, die massiv parallel berechnet werden können, d.h. solche, die in unabhängige Teilaufträge zerlegt werden können und ohne gegenseitige Kommunikation auskommen. Diese Aufträge können entweder so parametrisiert sein, dass jeder Teilauftrag einen anderen Satz Parameter erhält (z.B. Fraktalberechnung), oder zufallsbasiert, so dass jeder Teilauftrag mit den gleichen Ausgangswerten berechnet wird und unterschiedliche Ergebnisse resultieren. Eine andere Art der Berechnung setzt voraus, dass Knoten, die am gleichen Auftrag arbeiten, auch miteinander kooperieren und durch Nachrichten beispielsweise Teillösungen austauschen (z.B. verteilte evolutionäre Algorithmen). Alle Knoten in diesem Netz sollen gleichberechtigt sein, d.h. jedem Knoten soll es möglich sein, eigene Anwendungen und Aufgaben im Netz zu verteilen. Den verteilten Anwendungen soll zudem die Möglichkeit gegeben werden, mit anderen Knoten, die an der gleichen Aufgabe arbeiten, kommunizieren zu können. Alle benötigten Informationen zur Berechnung eines Auftrags (d.h. Parameter, ausführbarer Code der Anwendung, Anzahl der zu berechnenden Fälle) sollen den rechnenden Knoten durch Middlewarefunktionen zur Verfügung gestellt werden, ebenso soll der Rücktransport der Ergebnisse zum Initiator durch die Middleware erfolgen. Der Nutzer soll also an seinem Arbeitsplatz seine verteilte Anwendung starten können und die Ergebnisse schließlich wieder auf seinem Rechner vorfinden. Die Implementierung soll möglichst modular angelegt sein und nicht auf ein konkretes P2P-Protokoll beschränkt sein, sondern einen leichten Austausch bzw. eine nutzergesteuerte Auswahl von verschiedenen Protokollen ermöglichen. Im Rahmen dieses Prototypen soll ein epidemisches P2P-Protokoll realisiert werden.