Refine
Year of publication
Document Type
- Master's Thesis (255) (remove)
Has Fulltext
- yes (255)
Keywords
- Organisationsentwicklung (27)
- Erwachsenenbildung (12)
- Schulentwicklung (12)
- Nachhaltigkeit (11)
- Digitalisierung (9)
- Führung (7)
- Organisationskultur (6)
- Schule (6)
- CoMo-Kit (5)
- Organisation (5)
Faculty / Organisational entity
- Distance and Independent Studies Center (DISC) (166)
- Kaiserslautern - Fachbereich Informatik (45)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Mathematik (8)
- Kaiserslautern - Fachbereich Physik (8)
- Kaiserslautern - Fachbereich ARUBI (7)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (3)
- Kaiserslautern - Fachbereich Biologie (1)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
On-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem
(1991)
Dieses Kapitel gliedert sich in drei Teile. Zuerst wird die Vorgehensweise in dieser Diplomarbeit zusammengefaßt. Dann folgen die gewonnenen Schlußfolgerungen mit einer Bewertung der verglichenen Ansätze. Der letzte Teil ist ein Ausblick auf die möglichen Anwendungen der Ergebnisse dieser Arbeit. Methodik Bei der Aufgabe, eine on-line Kollisionserkennung mit hierarchisch modellierten Hindernissen für ein Mehrarm-Robotersystem zu untersuchen, wurden folgende Schritte vorgenommen: " Klassifizierung der bisherigen Ansätze zur Beschleunigung der Kollisionserkennung mit einem Arm. Dabei wurde unterschieden zwischen dem Einsatz-Zeitpunkt und der Methode der Ansätze. " Modifikation des Weltmodells der Kollisionserkennung für den Einsatz von mehreren Roboterarmen. Kollisionsklassen wurden in einer formalen Darstellung eingeführt und ihre Eigenschaften betrachtet. " Untersuchung der Approximation von Objekten (z. B. Armsegmente und Hindernisse) durch Primitive. Dabei wurden Algorithmen zur Berechnung der Approximationen entworfen und implementiert. Unterschiedliche Strategien zur Abstandsberechnung mit Primitiven-Approximationen wurden entwickelt. " Untersuchung und Erweiterung der hierarchischen Modellierung für den Einsatz bei bewegten Objekten (wie z. B. Roboterarmen). Dazu wurden eine on-line Aktualisierung der Geometrie und eine Auswahl der optimalen Baumstruktur eingesetzt. " Implementierung der bisherigen und eigenen Beschleunigungs-Ansätze. Für die Durchführung von Experimenten wurden die Ansätze in ein Simulationssystem eingebunden und das Simulationssystem erweitert. " Vergleich und Bewertung der Beschleunigungs-Ansätze durch Messung von Laufzeiten und Qualität der resultierenden Abstandsvektoren. Untersuchung anderer einflußnehmender Parameter, wie z. B. der Sicherheitsabstand oder die Frequenz (Schrittweite) der Kollisionserkennung. Schlußfolgerungen Die Untersuchung der implementierten Ansätze zur on-line Kollisionserkennung erlaubt folgende Bewertung und Folgerungen: " Die on-line Kollisionserkennung mit Abstandsvektoren für mehrere Arme ist bei der Verwendung der entsprechenden Beschleunigungs-Ansätze möglich. Die Berechnungszeit pro Bewegungsschritt liegt im Bereich von wenigen Millisekunden. " Die eingeführte Unterteilung der Umwelt in Kollisionsklassen schafft einen einfachen Mechanismus zur Kollisionserkennung in Szenen mit mehreren bewegten Objekten. Die Kollisionsklassen ermöglichen eine systematische Kollisionserkennung für ein Mehrarm-Robotersystem. " Der Vergleich der Primitiven-Approximationen zeigt, daß der ausschließliche Einsatz der Bounding-Box als Primitiv zu besseren Ergebnissen führt als der Einsatz von mehreren Primitiven wie z. B. in [Adolphs]. Die Verbesserungen betreffen den Aufwand der Abstandsberechnung und die Qualität des Abstandsvektors. " Schon bei wenigen Objekten empfiehlt sich eine hierarchische Darstellung zur Beschleunigung der Kollisionserkennung, da sie zu sehr schnellen Abstandsberechnungen führt. Vor allem bei Szenen mit vielen Objekten ist eine hierarchische Darstellung unverzichtbar. " Durch das neue Konzept der dynamischen Hierarchien ist eine hierarchische Modellierung auch für bewegte Objekte möglich. Die dynamischen Hierarchien garantieren eine optimale Darstellung und ermöglichen eine relativ genaue Modellierung des Roboterarms. Bei der Kollisionserkennung für mehrere Roboterarme ist durch den Einsatz von dynamischen Hierarchien ein Beschleunigungsfaktor von 100 gegenüber dem einfachen Verfahren erreicht worden. Damit ist eine on-line Anwendung möglich. Ausblick Aufbauend auf den hier erzielten Ergebnissen sind folgende Anwendungen denkbar: " Eine on-line Bahnplanung basierend auf den berechneten Abstandsvektoren ist möglich. Von Punkt zu Punkt geplante Bahnen können mit Hilfe der Abstandsvektoren modifiziert und Ausweichtrajektorien generiert werden. " Die Potential-Feld-Methode zur lokalen Bahnplanung kann aufgrund den on-line berechneten Abstandsvektoren angewendet werden. " Auch exakte Abstände können schnell berechnet werden. Diese Abstandsberechnung wird effizient durch die Kombination der dynamischen Hierarchien mit einer A*-Suche. " Die schnelle Abstandsberechnung kann auch für andere Gebiete eingesetzt werden. Beispiele dafür sind der Aufbau von Konfigurations-Räumen oder die Layout-Planung. " Bei zu handhabenden Objekten, wie z. B. Werkstücke, kann das Konzept der Kollisionsklassen einfach um einen dynamischen Wechsel erweitert werden. Dabei wechselt z. B. ein Werkstück, wenn es von dem Arm gegriffen wird, die Klasse.
In der nichtrelativistischen Schrödinger-Theorie hat sich die nach, H. A. Kramers und L. Brillouin benannte WKB - Näherung eine weitreichende Akzeptanz verschafft. Obwohl diese Methode meist nur als WKB-Methode bezeichnet wird, war von H. Jeffreys zuerst eine solche Näherungsmethode vorgestellt worden. Es liegt nahe, in einer relativistischen Theorie eine entsprechende Näherungsmethode zu diskutieren. Ich habe verschiedene semiklassische Näherungen für die radiale Dirac-Gleichung untersucht. Analytische und numerische Diskussionen der verschiedenen Methoden haben gezeigt, daß die Güte der Näherung wesentlich von der Entkopplung der Radialgleichung abhängt. Speziell für das Coulomb-Potential habe ich eine näherungsfreie Entkopplung entwickelt, welche zu einer WKB-Quantenbedingung führt, die mit der Feinstrukturformel von Sommerfeld übereinstimmt. Für viele physikalisch relevante Potentiale, welche das Coulomb-Potential nur leicht abändern, wird somit eine weitaus größere Genauigkeit als bei herkömmlichen WKB-Näherungen erster Ordnung erreicht. Außerdem habe ich höhere Korrekturen zur WKB-Näherung untersucht.
Grob skizziert soll das System in der Lage sein, aus einer vorgegebenen Konstruktionszeichnung eines Drehteils einen Plan f"ur die maschinelle Fertigung dieses Teils zu erstellen. Ausgehend vom Ansatz des fallbasierten Schliessens besteht die Aufgabe des Systems darin, aus einer Menge bekannter Drehteile, für die bereits ein Fertigungsplan erstellt worden ist, das Teil zu finden, dessen Darstellung zu der des eingegebenen Teils am ähnlichsten ist. Der Plan dieses ähnlichsten Teils ist dann so zu modifizieren und anzupassen, dass damit das vorgegebene Teil gefertigt werden kann. Ein zentrales Problem ist hierbei die Definition des Ähnlichkeitsbegriffes, der auf jeden Fall den fertigungstechnischen Aspekt berücksichtigen muss.
In fallbasierten Systemen ist es notwendig, ein über die normalen Datenbank-Suchaufgaben hinausgehendes Retrieval bereitzustellen. Hier müssen die n zu einem Anfragefall ähnlichsten Fälle aus einer Fallbasis gesucht werden.In dieser Diplomarbeit wird ein solches System zum ähnlichkeitsbasierten Retrieval von Fällen entwickelt. Dieses System übernimmt die Verwaltung der Fälle unter Verwendung der Datenstruktur des k-d-Baumes, hierbei werden die k-d-Bäume so aufgebaut, dass sie in optimaler Weise die sogenannte Best-Match- bzw. Nearest-Neighbour-Suche ermöglichen. Hierbei stand bereits ein existierendes System zur Verfügung, welches diese Suche zwar schon unterstützt, aber noch eine unbefriedigende Performance aufwies.
Die vorliegende Arbeit konzentriert sich auf Analysen unterschiedlicher Lernstrategien für CBL-Systeme anhand einer universellen Testumgebung mit variablen Fallbasen. Keine der untersuchten dynamischen Lernregeln und keine feste Belegung der globalen Konstanten im Ähnlichkeitsmass besitzt im statistischen Mittel signifikante Vorzüge. Dagegen zeigen sich Abhängigkeiten des Lernerfolgs von bestimmten Merkmalen der Fallbasis. Deswegen wird als Synthese ein auto-adaptives Lernschema vorgeschlagen, das die Eigenheiten verschiedener Fallbasen berücksichtigt und durch die Wahl spezifischer Lernstrategien ein deutlich verbessertes Ergebnis zu erzielen vermag.
Planung ist ein vielfach untersuchtes Gebiet im Bereich der Künstlichen Intelligenz. Die hier vorgestellte Arbeit ist in diesem Gebiet angesiedelt: es geht um ein Planungssystem, welches auf die Unterstützung der Arbeitsplanerstellung in der computerintegrierten Fertigung abzielt. Der Bereich der computerintegrierten Fertigung ist allerdings nur als ein spezieller Anwendungsbereich für das System zu sehen.
In dieser Arbeit wird eine Kombinationsmöglichkeit von fallbasiertem und induktivem Schliessen, basierend auf k-d- und Entscheidungsbäumen, entwickelt. Dabei wurde versucht, die Vorteile des induktiven Mechanismus, wie z. B. die sehr effiziente Klassifiz ierung und automatische Generierung, in den fallbasierten Mechanismus zu integrieren. Die Aufgabe zerfällt dabei in zwei Teilaufgaben, die im folgenden zusammengefasst werden.
Aufbau eines Diodenlasers mit externem Resonator zur Amplituden-/Phasen-modulations-Spektroskopie
(1994)
In dieser Diplomarbeit wird die Konstruktion und der Aufbau eines externen Resonators für einen Diodenlaser beschrieben. Es wurde sowohl ein Littrow als auch ein Littman-Resonator aufgebaut. Der Littrow-Resonator besitzt eine justierbare mechanische Synchronisation zwischen Wellenlängenselektion und Resonatorlänge. Damit konnte ein kontinuierlicher Durchstimmbereich ohne Modensprünge über einen Spektralbereich bis 240GHz im nahen Infrarot bei einer Wellenlänge von 780 bis 850nm erreicht werden. Die Eigenschaften dieses Littman-Laser-Systems wurden untersucht und unter anderem mehrere überraschende Strahlverläufe im Resonator durch Mehrfachreflexionen am Endspiegel und Gitter des Resonators gefunden. Die Restreflexion der verwendeten entspiegelten Laserdiode konnte experimentell abgeschätzt werden. Weiterhin wurde eine ausführliche Modellrechnung über die Eigenschaften eines Lasers mit externem Resonator durchgeführt und eine theoretische Erklärung für das beobachtete, asymmetrische Modensprungverhalten des Diodenlasers mit externem Resonator gefunden. Mit diesem Lasersystem wurde das Absorptionsspektrum von deuteriertem Azetylen (C2D2) um 12000 Wellenzahlen aufgenommen.
Diese Diplomarbeit hat zwei Schwerpunkte: Zum einen werden die Gebiete fallbasierte Planung und Arbeitsplanung unter- sucht, bisherige Methoden und Systeme vorgestellt und deren Fähigkeiten und Schwächen herausgearbeitet. Dieser Teil macht etwa die Hälfte der Arbeit aus. Zum anderen wird, basierend auf den Ergebnissen dieser Untersuchungen, ein Konzept für die fallbasierte Arbeits- planung vorgestellt, gegenüber alternativen Ansätzen abgegrenzt und die Möglichkeit der Realisierung anhand einer prototypischen Imple- mentierung aufgezeigt. Während dem ersten Teil vorwiegend eine Literaturarbeit zugrundeliegt, beinhaltet der zweite Teil ausschliesslich eigene Ansätze.
Bei der industriellen Fertigung von rotationssymmetrischen Drehteilen kommt es in hohem Masse auf die Effizienz der verwendeten Fertigungspläne an. Diese können durch eine ungeschickte Wahl der Abfolge der Fertigungsschritte zusätzliche Werkzeug- oder Aufspannungswechsel enthalten, welche die Bearbeitungszeit eines Werkstückes wesentlich verlängern und durch die so bedingte geringere Ausnutzung der Maschinenkapazitäten erhebliche Kosten verursachen. In der vorliegenden Arbeit wird in diesem Rahmen eine Komponente zur Fallauswahl implementiert, deren Steuerung sowohl auf oberflächlicher als auch auf struktureller Ähnlichkeit zwischen zwei Werkstücken beruht. Zielsetzung dieser Zweiteilung ist eine Reduzierung der Anzahl der zu betrachtenden Fallbeispiele durch eine Indizierung der Fallbasis mit (schnellen) Algorithmen aufgrund von syntaktischen Übereinstimmungen bestimmter Attributwerte; anschliessend werden diese (wenigen) Fälle mit Hilfe tiefergreifender Analyseschritte nach maximaler Übereinstimmung mit der Aufgabenstellung durchsucht. Des weiteren wird eine Komponente zur Verfügung gestellt, die hilft, frühere Planungsfehler durch Wahl geeigneter Fallbeispiele zu vermeiden.
Eine Möglichkeit das Planen in Planungssystemen zu realisieren, ist das fallbasierte Planen. Vereinfacht kann darun ter das Lösen von neuen Planungsproblemen anhand von bereits bekannten Plänen aus der Planungsdomäne verstanden werden. Dazu werden Pläne, die in der Vergangenheit ein Planungsproblem gelöst haben, gesammelt und bei der Lösung neuer Planungsprobleme dahin gehend modifiziert, dass sie das aktuelle Planungsproblem lösen. Um eine grössere Wiederverwendbarkeit der bereits bekannten Pläne zu erreichen, kann man nun eine konkrete Problemstellung mit ihrer Lösung aus der konkreten Planungswelt in eine abstraktere Planungswelt durch eine Abstraktion transformieren.
Nicht nur im Bereich der Forschung, sondern auch in der industriellen Anwendung wird die Informationsversorgung - die Bereitstellung der für Arbeitsabläufe benötigten Daten - immer wichtiger. Soll mit mehreren Personen im Team eine Aufgabe gelöst werden, so müssen die dazu benötigten Daten rechtzeitig in der erforderlichen Form zur Verfügung stehen. Die Kommunikation zwischen den Mitarbeitern und die Koordination der anfallenden Tätigkeiten ist mitentscheidend für die Leistung des Teams. Besonders wichtig wird dies, wenn die kooperierenden Personen nicht nur verschiedene Arbeitsplätze haben, beispielsweise verschiedene Bildschirme, sondern diese Arbeitsplätze weit voneinander entfernt sind. So können sich die Arbeitsplätze durchaus in verschiedenen Stockwerken eines Firmengebäudes oder an verschiedenen Orten befinden, jedoch müssen die Mitarbeiter trotzdem eng zusammenarbeiten. Die sich dabei herausbildenden Arbeitsprozesse sind keineswegs statisch, sondern müssen - bedingt durch neue Aufgaben, neue Rahmenbedingungen und neue Erkenntnisse - ständig angepasst werden.
Die Lösung einer Konfigurationsaufgabe innerhalb einer technischen Domäne besteht in der Konstruktion eines komplexen Objektes, das sowohl alle in der Aufgabe gestellten Anforderungen bezüglich seiner Funktionalität erfüllt, als auch den innerhalb der Domäne vorhandenen Restriktionen vollständig genügt. Durch die als bekannt vorausgesetzte Struktur der Anwendungsdomäne wird ein Suchraum aufgespannt, in dem es eine in diesem Sinne korrekte - und wenn möglich besonders gute - Lösung zu finden gilt. Wegen der Grösse des Suchraums wird zu diesem Zweck im allgemeinen ein Verfahren zur Tiefensuche eingesetzt.
CAPlan[Web94] basiert auf dem SNLP-Algorithmus [BW92], einer bekannten Version des Originalalgorithmus von McAllester und Rosenblitt [MR91]. Seit dessen Veröffentlichung hat eine Flut von Papieren die Überlegenheit dieses Planers gegenüber herkömmlichen Planverfahren gezeigt. Diese Überlegenheit liegt einerseits in seinem nur partiell ordnenden least-commitment Ansatz begründet und anderseits in der Systematik der Suche, die einen minimalen Suchraum garantiert.
David Chapman hat 1987 mit seinem Artikel Planning for Conjunctive Goals einen wichtigen Schritt in Richtung der Formalisierung von partiell ordnen der Planung und ihrem Verständnis gemacht. Grundlegendes Konzept von David Chapman ist die Idee modaler Wahrheit in Plänen; sein Modal Truth Criterion (MTC) macht Aussagen über die Gültigkeit einer Aussage in einem partiell geordneten Plan. Kambhampati und Nau zeigten mit ihrem Papier On the Nature of Modal Truth Criteria in Planning einige wesentliche Mängel bzw. begriffliche Ungenauigkeiten an Chapmans Kriterium auf und machten mit ihrem Modal Conditional Truth Criterion Vorschläge für eine Korrektur. Insbesondere bekam die Frage nach der Ausführbarkeit eines Planes hier ein grösseres Gewicht. Ziel dieser Projektarbeit ist es zunächst, das MTC von Chapman sowie die Modifikation darzustellen und, als praktische Aufgabe, die Realisierung des MTC für den Causal Link Planer CAPlan, basierend auf der bestehenden Implementation des Systems.
Aufbau einer domänenunabhängigen Fallbasis und Fallauswahl mit Zielabhängigkeiten in CAPLAN/CBC
(1995)
Das Thema dieser Arbeit ist die Erweiterung von CoMo-Kit um eine Zeitplanungskomponente. Man möchte Informationen über die Dauer der einzelnen Teilaufgaben gewinnen und diese zu Dauern der übergeordneten abstrakten Aufgaben abschätzen. Auf diese Weise kann sich ein Manager über die voraussichtliche Gesamtdauer des Projektes und dessen Fortgang informieren. Dazu werden frühestmögliche und spätestmögliche Anfangs- und Endzeitpunkte der Vorgänge berechnet. Die Differenz zwischen frühesten und spätesten Zeitpunkten gibt dem Projektmanager eine Aussage über den Dispositionsspielraum der einzelnen Vorgänge. Ist kein Spielraum vorhanden, kann man erkennen, daß dieser Vorgang die Projektdauer determiniert und eventuell für Verzögerungen verantwortlich sein kann. Im Rahmen dieser Diplomarbeit ist das Verfahren der Allgemeine Hierarchischen Netzplantechnik entwickelt und als Zeitplanungskomponente in das System CoMo-Kit integriert worden.
Im Rahmen der Arbeit werden verschiedene Ansätze im Bereich Design Rationale untersucht und miteinander verglichen. Darauf aufbauend wird ein Konzept entwickelt, wie Design Rationales in dem Projektplanungs- und Abwicklungswerkzeug CoMo-Kit eingesetzt werden können. Die Realisierung wird beschrieben.
Die Entwicklung und Wartung von Software-Systemen wird ständig komplexer, da die entwickelte Software selbst immer komplexer und umfangreicher wird. Daher bietet sich zur Entlastung der Projektleiter, Projektmanager und weiterer Projektmitarbeiter eine Rechnerunterstützung der Software-Entwicklung und -wartung an. So können sie einen Überblick über den gesamten Prozess bekommen und diesen optimieren. Eine Möglichkeit der Unterstützung liefert die Modellierung des Software-Entwicklungsprozesses. Um einen Software-Entwicklungsprozess modellieren zu können, müssen die notwendigen Basisstrukturen identifiziert und bereitgestellt werden, was Thema dieser Arbeit ist.
Ein umfangreiches Gebiet der Künstlichen Intelligenz beschäftigt sich mit dem Bereich Planung. Im wesentlichen gibt es zwei Planungsansätze, zum einen nicht-hierarchische und zum anderen hierarchische arbeitende Verfahren. Als Beispiel für einen nicht-hierarchischen Ansatz kann SNLP1 genannt werden. Die nachfolgende Ausarbeitung ist auf dem zweiten Gebiet, der hierarchischen Planung, angesiedelt: Der Planungsassistent CAPlan2, der eigentlich auf dem nicht-hierarchischen Planungsansatz SNLP beruht, soll um die Möglichkeiten der hierarchischen Planung erweitert werden.
Problemspezifikation für die Arbeitsplanerstellung rotationssymmetrischer Drehteile mit AutoCAD
(1996)
Um den Anforderungen am industriellen Markt gerecht werden zu können, sind Unternehmer gezwungen, immer komplexere, speziell auf den Kunden abgestimmte Produkte möglichst schnell in kleinen Losgrössen herzustellen. Dabei umfasst die Herstellung eines neuen Produkts eine Vielzahl von Arbeitsschritten. Um den Marktanforderungen zu genügen wird bereits heute ein grosser Teil dieser Arbeitsvorgänge computerunterstützt durchgeführt.
Das Lernen ist für den Menschen ein wichtiger Teil des Entwicklungsprozesses und erlaubt ihm, aus positiven und negativen Erfahrungen Konsequenzen für sein weiteres Verhalten abzuleiten, insbesondere für seine Entscheidungsfindung. Diese Art des Lernens, das Lernen aus Erfahrung, kann jedoch nur stattfinden, wenn diese Erfahrungen erklärt werden können. Auf diesem Ansatz aufbauend, werden seit einigen Jahren Verfahren zur Übertragung erklärungsbasierter Lernprozesse auf Computersysteme untersucht.
In dieser Arbeit wird ein fallbasiertes System entwickelt, das Angaben über existiertende fallbasierte Anwendungen und Werkzeuge verwaltet. Mit diesem System kann ein Entwickler von fallbasierten Systemen sich einen Überblick über den Stand der Technik verschaffen und vor allem Informationen über Systeme erhalten, die dem System, das er selbst entwickeln will, ähnlich sind.
Der Bereich der Workflow-Management-Systeme (WFMS - z.B. [Jab95ab]) wird in jüngerer Zeit in verschiedenen Bereichen der Informatik genauer erforscht. Ziel der Bemu"hungen ist es, die besonderen Anforderungen , die WFMS an Rechner- und Programmsysteme stellen, zu ermitteln und zu befriedigen. In dieser Arbeit untersuchen wir Aspekte des Umplanens ("Replanning" bzw. "Remodeling") während der Abarbeitung eines Workflows. Sie entstand im Rahmen des Projektes CoMo-Kit, im Rahmen dessen Methoden und Werkzeuge entwickelt werden, die die Planung und das Management komplexer Arbeitsabläufe, insbesondere im Entwurfsbereich, unterstützen. Der CoMo-Kit wird seit 1989 am Lehrstuhl für Expertensysteme der Universität Kaiserslautern unter der Leitung von Prof. Dr. M.M. Richter entwickelt.
Das Modell des Intelligenten ist eine Abstraktion von Telefonvermittlungs-systemen und beschreibt auch deren Erweiterungen. Zunächst wird ein einfachesBasissystem spezifiziert, das dann um weitere Leistungsmerkmale, sog. Features, erweitert wird. Im Rahmen dieser Arbeit haben wir ein bereits bestehendes, in Estellespezifiziertes Basissystem um sechs Features erweitert. Dabei konnten wir verschiedene Stile für die Featurespezifikation in Estelle überprüfen. Wir entwerfen Prinzipien füreine verhaltenerhaltende Transformation, die geeignete Ansatzpunkte für neueFeatures schaffen kann. Für das Ergänzen von neuen Rufnummern haben wir eine einfache Methode entwickelt. Wir zeigen zwei Schwächen von Estelle beim Erweitern vonSystemen auf. Schließlich berichten wir über unsere Erfahrungen mit dem im IN-Modellverwendeten Prinzip der Detection Points.
Diese Arbeit beschäftigt sich mit einer Möglichkeit zur Effizienzverbesserung, wobei das SNLP-basierte Planungssystem CAPlan verwendet wird. Dabei werden neue, zu lösende Probleme einer Vorverarbeitung unterzogen. Dort werden bestimmte Eigenschaften ermittelt, ohne jedoch das Problem zu lösen. Anschliessend wird dem Planungssystem das neue Problem mit dem Zusatzwissen in Form der analysierten Eigenschaften übergeben. Das Planungssystem verwendet das Wissen, um effizienter eine Lösung zu finden.
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Die Untersuchung von semiklassischen Näherungen des Zeitentwicklungsoperators in der Quantenmechanik ist sowohl von fundamentalem als auch von didaktischem Interesse. Das fundamentale Interesse ist in der Beschreibung des Zusammenhangs zwischen klassischer Mechanik und Quantenmechanik begründet, das didaktische erklärt sich aus dem anschaulichen Zugang, den die Beschreibung von quantenmechanischen Prozessen durch klassische Größen liefert. Besonders klar wird dieser Zusammenhang, wenn eine Phasenraumdarstellung der Quantenmechanik betrachtet wird. Eine erste semiklassische Näherung für den Propagator im Phasenraum, den sogenannten "coherent state"-Propagator, wurde von Klauder vorgestellt. Weissman motivierte diese Näherung durch die Erweiterung der semiklassischen Korrespondenzrelationen auf den Begriff der kohärenten Variablen. In späteren Veröffentlichungen wird auf eine rigorose Herleitung mittels Pfadintegralmethoden verwiesen, die aber bis zum heutigen Tage nicht verwirklicht wurde. Ein zentraler Punkt dieser Arbeit wird es sein, zum ersten Mal diese alternative Herleitung vollständig zu präsentieren. Die Eigenschaften der semiklassischen Näherung des Phasenraumpropagators wurden für eine Reihe fundamentaler Quantenprozesse untersucht. Ausgehend von der semiklassischen Näherung des Phasenraumpropagators ergibt sich durch eine Ortsraumdarstellung desselben der Herman-Kluk-Propagator. Dieser gehört zur Klasse der Anfangswertdarstellungen ("initial value representations", IVRs), die die sonst bei semiklassischen Näherungen auftretenden Schwierigkeiten wie Kaustiken, Singularitäten und beidseitige Randbedingungen für die zugrundeliegenden klassischen Bahnen umgehen. Dies erlaubt ihre Anwendung auch auf Quantensysteme, deren klassisches Äquivalent chaotische Phasenraumbereiche enthält. Erste Untersuchungen hierzu wurden in unserer Arbeitsgruppe Ende 1997 durchgeführt. Die Frage nach der Klärung grundsätzlicher Eigenschaften des verwendeten Propagators und der verwendeten Methode sowie die Beleuchtung des theoretischen Hintegrunds lieferten die Anregung für diese Arbeit. Zu dieser Arbeit: In dieser Arbeit wird die semiklassische Näherung für den Phasenraumpropagator und hierauf aufbauend der Herman-Kluk-Propagator hergeleitet und ihre Eigenschaften untersucht. Im einzelnen gliedert sich die Arbeit folgendermaßen: In einem ersten, einführenden Kapitel werden kurz die grundlegenden Begriffe aus den drei Gebieten der klassischen Mechanik, der Quantenmechanik und der Semiklassik erläutert. Das zweite Kapitel gibt einen Überblick über die semiklassische Theorie nach Miller und Weissman. Der zentrale Begriff ist hierbei der der Korrespondenzrelation, der einen direkten Zusammenhang zwischen klassischen Größen (erzeugenden Funtionen) und unitären Transformationen in der Quantenmechanik liefert. Ein Spezialfall dieser Korrespondenz ist der Zusammenhang zwischen der Zeitentwicklung eines quantenmechanischen kohärenten Zustands und der Evolution klassischer Bahnen. Im zentralen dritten Abschnitt wird erstmalig eine vollständige Herleitung des Phasenraumpropagators mittels Pfadintegralmethoden gegeben. Aus dieser Herleitung wird klar, daß eines der Probleme der Semiklassik in der Frage liegt, welche Hamiltonfunktion einem gegebenen Hamiltonoperator zuzuordnen ist. Auch der durch die semiklassischen Näherung eingeführte Fehler wird diskutiert. Anschließend wird aus dem "coherent state"-Propagator der Herman-Kluk-Propagator hergeleitet und dessen Eigenschaften besprochen. Das vierte Kapitel beschreibt in Vorgriff auf den letzten Abschnitt die numerische Implementierung des Herman-Kluk-Propagators und verschiedene Methoden zur Gewinnung von Energieeigenwerten eines Quantensystems. Hierzu wird eine phasenraumsensitive Integrationsroutine vorgestellt. Abschließend werden die Ergebnisse der numerischen Anwendung des Propagators auf verschiedene, charakteristische Quantensysteme vorgestellt und sowohl mit der exakten Quantenmechanik, als auch mit anderen semiklassischen Methoden verglichen. Dabei werden sowohl die Stärken, als auch die Schwächen dieser Methode deutlich werden.
Entwurf einer formalen Semantik für Estelle unter Verwendung von TLA mit Prädikatentransformatoren
(1999)
Die formale Beschreibungstechnik Estelle wird in einem internationalen Standarddefiniert. Ein Hauptnutzen einer formalen Semantik für eine Beschreibungs-sprache besteht darin, daß sie die formale Verifikation von Systembeschreibungenermöglicht. Leider ist die im Standard enthaltene Semantikdefinition für Estellenicht formal (und verständlich) genug, um formale Verifikation zu ermöglichen.Daher wird in dieser Arbeit ein Ansatz entwickelt, um die Semantik von Estellevollständig formal und in einer für die Verifikation geeigneten Weise zu definieren. Für diesen Ansatz werden ausführliche Untersuchungen angestellt, insbesondere über die Methoden der Verifikation, die unterstützt werden müssen, und über eine geeignete Darstellung der sogenannten " Transitionen" von Estelle. Um die hieraus resultierenden Forderungen zu erfüllen, wird ein neuer Formalismus entworfen, in dem Lamports temporale Logik der Aktionen und Dijkstras Prädikaten-transformatoren vereinigt werden. Anschließend wird die Definition der gesamten Semantikvon Estelle skizziert und die Definition des " Kerns von Estelle", des sogenannten Ausführungsmodells, in diesem Formalismus vollständig ausgeführt. Es zeigtsich, daß der neue Ansatz die formale Verifikation von Estelle Spezifikationen beimechanischer Unterstützung nun möglich erscheinen läßt. Eine Ausarbeitung derDetails des zum Formalismus gehörigen Schlußsystems und der skizzierten Gesamt-Semantik verbleibt allerdings zukünftigen Arbeiten.
Zur schnellen Kommunikation zwischen Rechnern werden laufzeiteffiziente Implementationen von Protokoll-Spezifikationen benötigt. Die herkömmliche Schichten-Aufteilung verursacht hohe Kosten. In dieser Projektarbeit wurde eine andere Spezifikationsform, die Methode des strukturierten Produktautomaten, am Beispiel der OSI-Schichten 5 und 6 untersucht. Der Aufwand zur Erstellung und Wartung der Spezifikation und die Laufzeiteffizienz der daraus entstandenen Inplementation wurden mit mehreren anderen Spezifikationsformen verglichen und bewertet. Die Methode des strukturierten Produktautomaten erwies sich dabei als ein geeigneter Spezifikationsstil.
Zur Untersuchung des Abflussverhaltens gängiger Befestigungsarten wurden mit Hilfe des Modells KOSMO Niederschlag-Abfluss-Simulationen durchgeführt. Betrachtet wurden hier-bei sowohl Einheitsflächen als auch ganze Einzugsgebiete verschiedener städtebaulicher Struktur. Die Berechnungen erfolgten unter Vorgabe empfohlener Verlustparameter zur Benetzung und zur Muldenauffüllung sowie angepasster Parameterwerte zur Beschreibung der Versickerung. Die Abflusssimulationen wurden für ein weitreichendes Spektrum bemessungsrelevanter Niederschlagsbelastungen vollzogen. Es wurden Einzelregen konstanter und variabler Intensität unterschiedlicher Regendauer sowie eine neunmonatige Nieder-schlagsreihe simuliert. Aus der Bilanzierung des Niederschlag-Abfluss-Prozesses wurden die verschiedenen Abflussbeiwerte der unterschiedlichen Flächenarten ermittelt. Die Modellsimulationen haben gezeigt, dass eine signifikante Abhängigkeit der rechneri-schen Abflussbeiwerte von der zugrunde gelegten Niederschlagsbelastung besteht, die mit zunehmender Versickerungsfähigkeit der Flächen ansteigt. Während die weitestgehend undurchlässigen Flächentypen recht konstante Werte aufweisen, sind die Abflussbeiwerte der durchlässig befestigten Flächen großen niederschlagsbedingten Schwankungen von bis zu 0,5 unterlegen. Hierbei spielen sowohl die Regenintensität als auch die Regendauer und der zeitliche Verlauf des Regens eine Rolle. Die Berechnungsergebnisse für den mittleren Abflussbeiwert, den Endabflussbeiwert sowie den Spitzenabflussbeiwert zeigten für die Simulation von Einzelereignissen unter Berück-sichtigung der belastungsbezogenen Abhängigkeit eine gute Übereinstimmung mit den Richtwerten. Den Berechnungen des mittleren Abflussbeiwertes und des Endabflussbeiwertes wurden hierbei wesentlich geringere Parameterwerte zur Versickerung zugrunde gelegt als für den Spitzenabflussbeiwert, für den die Richtwerte nur mit deutlich höher angesetzten Infiltrationsleistungen bestätigt werden konnten. Diese Versickerungsleistungen liegen zwar noch deutlich unter den von Borgwardt und Muth in neueren Untersuchungen festgestellten Werten und sind somit wissenschaftlich begründet. Dennoch erscheint es fraglich, ob das Versickerungsvermögen durchlässig befestigter Flächen tatsächlich derart hoch ist. Diese Frage kann jedoch anhand der vorliegenden Untersuchung nicht geklärt werden. Des Weiteren wurde festgestellt, dass die Langzeitsimulation von Niederschlagsreihen mit den an Einzelereignisse angepassten Modellparametern sehr geringe Ergebniswerte für den mittleren Abflussbeiwert und teilweise auch für den Endabflussbeiwert der durchlässigen Flächenbefestigungen liefert. Hier stellt sich die Frage, ob der Abflussbeitrag von diesen Flächen im Jahresmittel tatsächlich derart gering ausfällt. Dies wäre aufgrund der Abhängigkeit der Abflussbeiwerte von der Regenbelastung durchaus plausibel, da ein Großteil der jährlichen Niederschlagsereignisse nur geringe Intensitäten aufweist. Der Ansatz geringerer Parameterwerte zur Versickerung erscheint im Hinblick auf die in der Literatur genannten Untersuchungsergebnisse nicht sinnvoll. Darüber hinaus trat hinsichtlich der Endabflussbeiwerte die Problematik auf, dass sich aus der Definitionsgleichung für stark durchlässige Flächenbefestigungen unzutreffenden Werte ergeben. Die Langzeitsimulation von Einzugsgebieten mit einem hohen Anteil versickerungsintensiver Flächen muss daher als problematisch beurteilt werden. Betrachtungen zur Genauigkeit der durchgeführten Untersuchungen (hier nicht aufgeführt) haben gezeigt, dass zahlreiche gebiets- und modellspezifische Faktoren Einfluss auf die Zuverlässigkeit der Berechnungsergebnisse haben. Die rechnerischen Abflussbeiwerte weisen insbesondere hinsichtlich der Parameterwerte im Versickerungsansatz nach Horton eine starke Sensitivität auf, die bei der Anwendung von Abflussmodellen zur Berechnung des Oberflächenabflusses berücksichtigt werden muss. Aufgrund der im Rahmen dieser Arbeit durchgeführten Modellberechnungen kann die Kompatibilität von Berechnungen des Oberflächenabflusses durch Abflusssimulation mit den empfohlenen Standardwerten der einschlägigen Literatur grundsätzlich festgestellt werden. Durch die Anwendung gängiger Modellansätze zur Beschreibung der Abflussbildung unter Ansatz angepasster Parameterwerte können insbesondere bei der Simulation von Einzelereignissen weitgehend übereinstimmende Ergebnisse erzielt werden. Es ist jedoch zu beachten, dass die Simulationsergebnisse entscheidend von der angesetzten Niederschlagsbelastung bestimmt werden, so dass die Anwendung von Berechnungsmodellen nur bezogen auf bestimmte Niederschlagsbelastungen erfolgen kann. Darüber hinaus empfiehlt es sich dringendst, das eingesetzte Modell vorab unter Berück-sichtigung der gebietsspezifischen Gegebenheiten bezüglich der angesetzten Parameterwerte zu eichen. Die Anwendung von Abfluss- und Schmutzfrachtmodellen setzt daher stets voraus, dass die abflussrelevanten Randbedingungen sorgfältig erfasst und bei der Abflusssimulation ausreichend berücksichtigt werden. Die Anwendung von Abflussmo-dellen zur Berechnung des Oberflächenabflusses ist insbesondere im Hinblick auf eine differenzierte Betrachtung der Teilflächen und der Berücksichtigung des Versickerungsbei-trages durchlässiger Befestigungsarten sinnvoll, während diesbezüglich die Angaben des ATV-Arbeitsblattes A 118 nicht ausreichend sind. Des Weiteren machten die Untersuchungen deutlich, dass der derzeitige Kenntnisstand bezüglich des Infiltrationsvermögens durchlässig befestigter Flächen nicht ausreicht. Die vorzugebenden Modellparameter zur Versickerung sind bislang noch mit größeren Unsicherheiten behaftet, die sich unmittelbar auf die Zuverlässigkeit der Berechnungsergebnisse niederschlagen. Hier werden langfristige und großflächig angelegte Freilandmessungen empfohlen, die zur Erarbeitung von Versickerungswerten als Eingangsgrößen in die Abflussberechnungen und zur Festlegung von Abflussbeiwerten dienen können.
Diese Arbeit widmete sich der Aufgabe, quantitative Abschätzungen für Emissionsspektren eines geladenen Teilchens in starken äußeren Feldern zu liefern. Es wurde hierzu in Kapitel 2 der Weg beschritten, zuerst das System mit klassischer Dynamik zu beschreiben, wobei man unter Umständen aus den klassischen Hamilton'schen Bewegungsgleichungen analytische Ausdrücke ableiten kann, und mit diesen Ergebnissen die Grenzen abzustecken, innerhalb derer sich das Quantensystem entwickeln kann. Ähnlich wie bei dem in der Einleitung erwähnten Modell, das die Cutoff-Frequenz für ein Atomelektron aus semiklassischen Überlegungen ableitet, konnten hier für ein Bloch-Teilchen zwei Cutoff-Gesetze abgeleitet werden. Sie gingen aus Näherungen der Hamilton'schen Bewegungsgleichungen hervor, wenn die Bewegung entweder durch das Stark-Feld oder das zeitliche Wechselfeld beherrscht wird, und stimmten mit den numerischen Ergebnissen der klassischen Dynamik gut überein. Darüber hinaus konnten sie sogar die quantenmechanischen Resultate bestätigen, was von Bedeutung ist, da die Ableitung quantitativer Ausdrücke bei der Quantendynamik solcher zeitabhängiger Systeme sehr große Schwierigkeiten bereitet und meist nur numerisch - nicht analytisch - möglich ist. Im zweiten Teil der Arbeit (Kapitel 3) wurde mit dem Zwei-Niveau-System ein quantenmechanisches System behandelt, das aufgrund seiner einfacheren Stuktur analytische Ausdrücke zulässt. Hier wurde aus der Formel für den Erwartungwert des Dipolmoments ein Ausdruck abgeleitet, der die Größe des Plateaus im HHG-Spektrum bestimmt. Außerdem konnte man bei der näherungsweisen Berechnung des Spektrums mittels stationärer Phase zeigen, dass die Fluktuationen im Bereich des Plateaus durch die Überlagerung der Beiträge der beiden stationären Punkte verursacht wird.
Elektronen in einem kristallinen Festkörper oder, allgemeiner formuliert, Teilchen in einem räumlich periodischen Potential bilden ein System, das schon seit den Anfängen der Quantenmechanik von fundamentalem Interesse ist. Ein wichtiges physikalisches Problem ist dabei die Berechnung der quantenmechanischen Zustände solcher Teilchen, die zusätzlich einem homogenen elektrischen Feld ausgesetzt sind. Die exakte Lösung dieses Problems ist jedoch selbst für eindimensionale Systeme nicht möglich, da der Versuch einer analytischen Berechnung auf unüberwindliche mathematische Probleme stößt. Diese versuchte Wannier 1960 zu umgehen, indem er die nach ihm benannten Wannierzustände einführte. Mit seiner Veröffentlichung stieß er eine jahrzehntelange Diskussion an. Vor allem die Begriffe Blochoszillationen, Zener-Tunneln und Wannier-Stark-Quantisierung standen im Mittelpunkt einiger Kontroversen. Ein physikalisch wichtiges Ergebnis der Diskussion ist die Erkenntnis, daß es sich bei den Eigenzuständen des betrachteten Systems um Resonanzen, d.h. metastabile Zustände, handelt, die sich auf eine ganz bestimmte Art und Weise anordnen lassen. Jede Resonanzenergie ist nämlich Teil einer Folge von äquidistanten Energieeigenwerten, den sogenannten Wannier-Stark-Leitern. Die Wannier-Stark-Quantisierung wurde zuvor lange Zeit in Frage gestellt, denn Zak zeigte, daß der Hamiltonoperator des Systems ein kontinuierliches Spektrum besitzt und widersprach damit der Aussage, das Systeme habe diskrete Energieeigenwerte. Tatsächlich ist das Spektrum, wenn man nur die reelle Achse betrachtet, kontinuierlich. Die Diskretisierung ergibt sich erst, wenn man zur Betrachtung der komplexen Ebene übergeht. Den ersten experimentellen Hinweis auf die Existenz von Wannier-Stark-Leitern fand man in Versuchen zur optischen Absorption in einem Festkörperkristall. In jüngster Zeit wurde das Interesse an diesem Gebiet der Physik durch Experimente mit Halbleiter-Übergittern und optischen Gittern erneut geweckt, denn man findet hier weitere Realisierungen des untersuchten Hamiltonoperators. Insbesondere erweisen sich neutrale Atome in stehenden Laserwellen als geeignete Studienobjekte. Die Untersuchungen mit Hilfe dieser Experimente haben den Vorteil, daß sie nicht wie Versuche mit Elektronen in Festkörpern durch spezifische Probleme wie Gitterfehler, Verunreinigungen, Phonon-Elektron-Wechselwirkung, Elektron-Elektron-Wechselwirkung, etc. gestört werden. Genauer gesagt, viele theoretische Aussagen über das System lassen sich erst durch das Fehlen der festkörpereigenen Störeinflüsse experimentell überprüfen. Andererseits lösen die neuen Ergebnisse der Experimentalphysik eine Weiterentwicklung der zugehörigen Theorie aus. Den Ausgangspunkt der Untersuchungen zu dieser Thematik in unserer Arbeitsgruppe bildete die Entwicklung einer effizienten Methode zur Berechnung von Wannierzuständen. Anschließend wurden verschiedene Aspekte des Wannier-Stark-Systems betrachtet, u.a. die Auswirkungen eines zusätzlichen zeitperiodischen äußeren Feldes, wie es beispielsweise im Experiment auftaucht. Die vorliegende Arbeit soll in diesem Zusammenhang klären, wie die Lebensdauer der Wannier-Stark-Resonanzen durch den periodischen Antrieb beeinflußt wird.
Das Idealbild der europäischen Stadt mit ihrer dicht gewachsenen Baustruktur und ihren öffentlichen Räumen steht als Synonym für 'Urbanität' und beeinflußt bis zum heutigen Tag das planerische Denken und Handeln. Eng verbunden damit tauchen immer wieder Assoziationen zu Agora und Forum auf, die als Archetypen des 'Öffentlichen' schlechthin, den Mythos einer sich dort artikulierenden und konstituierenden, idealen und demokratischen Stadtgesellschaft transportieren. Zu Beginn des 21. Jahrhunderts stellt sich jedoch die Frage, ob sich die tradierten und erprobten Denkmodelle und Bilder des öffentlichen Raumes aufgrund der rasanten gesellschaftlichen und informationstechnologischen Veränderungen, überlebt haben. Haben die typischen Ideen von Stadt, die auf dem öffentlichen Raum beruhen nur noch rein symbolische Bedeutung? Verlagern sie sich mehr und mehr in den virtuellen Raum? 'Die Stadt der kurzen Wege' mit ihrer räumlichen Mischung ist als 'Marktplatz' für den Austausch von Informationen und Waren nicht mehr in der bekannten Weise relevant und gesellschaftlich bestimmend. Die Stadt als einheitliches und homogenes Gebilde existiert nicht mehr. Stattdessen ist sie durch Fragmentierung und Zersplitterung gekennzeichnet, wie u.a. die Diagnosen von Touraine ['Die Stadt - ein überholter Entwurf', 1996], Koolhaas ['Generic City', 1997], Sieverts ['Die Zwischenstadt', 1999] und Augé ['Orte und Nicht-Orte', 1998] zeigen. Synchron dazu entstehen mit dem Cyberspace oder 'Virtual Cities' [Rötzer, 1997] neue Formen von öffentlichem Raum und Öffentlichkeit - Parallelräume zur realen Welt. Welche Auswirkungen diese neuen Räume auf das Leben der Menschen und die Stadt haben werden, kann noch nicht abgesehen werden. In der realen Welt werden die Planungsspielräume der Kommunen immer kleiner; die Wechselwirkungen, die u.a. durch Globalisierung, Privatisierung und Deregulierung öffentlicher Aufgaben ausgelöst werden, immer komplexer. Neben den international zu beobachtenden Entwicklungen [Shopping-Mall, New Urbanism, Gated Community], die sich länderübergreifend in leicht abgewandelten Varianten durchzusetzen scheinen, üben auch soziokulturelle Gesellschaftstrends großen Einfluß auf den öffentlichen Raum aus. Der öffentliche Raum als Bindeglied zwischen dem 'Öffentlichen' und dem 'Privaten' ist zunehmend dem Druck der 'Erlebnis- und Konsumgesellschaft' ausgesetzt und kann deshalb seine gesamtgesellschaftliche Funktion für die Stadt nur noch eingeschränkt wahrnehmen. Die individualisierte und mobile Gesellschaft mit ihren gewandelten und diversifizierten Lebensentwürfen und Wertvorstellungen stellt das tradierte Verständnis des öffentlichen Raums zusätzlich in Frage. Das Bild des öffentlichen Raumes als ein Bereich der Gesellschaft des 21. Jahrhunderts kann nicht mehr mit einem mythisierenden Agora-Begriff begegnet werden. Neue Wege und eine Überprüfung der aktuellen Entwicklungen sind dafür unerlässlich. Gleichzeitig müssen jedoch auch die geschichtlichen Gegebenheiten berücksichtigt werden, um aus ihnen zu lernen.
In dieser Arbeit wurde die Streutheorie in Stark-Systemen auf das im Rahmen der Untersuchung von Halbleiter-Übergittern vorgeschlagene periodische Rechteck-Potential angewendet. Das Verhalten der Resonanzenergien als Funktion verschiedener Parameter wurde untersucht. Hierbei trat das Phänomen der Paarung von Linienbreiten auf, welches durch Betrachtung der Bandstruktur des korrespondierenden feldfreien Hamiltonoperators und durch Modellierung mittels eines Matrixmodells für Wannier-Stark-Leitern geklärt werden konnte. Im letzten Abschnitt wurden die Untersuchungen auf die Beschreibung von Absorptionsspektren von Halbeiter-Übergittern ausgedehnt. Es wurde mittels zeitabhängiger Störungsrechnung eine Formel zur Berechnung des Absorptionsspektrums hergeleitet. Wird das periodische Potential in Halbleiter-Übergittern durch ein geglättetes Rechteck-Potential beschrieben, so können die spektroskopisch bestimmten Linienbreiten durch unsere Theorie gut beschrieben werden. Dies führt zu dem Schluss, dass das periodische Potential der Realität nicht wie anfänglich vermutet durch ein Rechteck-Potential beschrieben werden sollte sondern durch eine geglättete Version desselben. Trotz dieser interessanten Ergebnisse bleiben noch einige Fragen ungeklärt. So ist z.B. ungeklärt, ob es möglich ist die Parameter des Matrixmodells aus semiklassischen oder quantenmechanischen Berechnungen zu bestimmen, so dass das Modell es erlaubt die Resonanzenergien ab initio zu berechnen Im Rahmen dieser Arbeit wurde das Phänomen der Paarung der Lebensdauern untersucht. Hier wäre es interessant nach den Symmetrien der dazugehörigen Wellenfunktionen zu fragen. Es ist zu hoffen, dass dies Gegenstand zukünftiger Untersuchungen sein wird.
Die Geschichte zeigt, dass der städtische öffentliche Raum schon immer ein Ort gewesen ist, der von vielseitigen Interaktionen lebt und von ihnen geformt wird. Besonders die Bildung von Öffentlichkeit und Urbanität entsteht durch ein Zusammenkommen von verschiedensten Austauchprozessen. Seit Aufkommen der digitalen Medien ist jedoch die Art der menschlichen Interaktion deutlich erweitert und komplexer geworden, sodass sie Befürchtungen auslösten, der reale öffentliche Raum verliere als Interaktionsort an Bedeutung. Unabhängigkeit von Ort und Zeit, entlokalisierte und individualisierte Zeitstrukturen zerfasern den Rhythmus der Stadt. Jene droht ungemütlicher und gefährlicher zu werden. Das Netz wurde zum neuen ‚öffentlicheren’ Raum im Sinne einer aktiven kritischen bürgerlichen Öffentlichkeit erhoben.
Mit der Mobilisierung der digitalen Technologien wird es jedoch möglich, zurück in den öffentlichen Raum zu gehen und sich die neuen Medien als kommunikationsfördernd, identitäts- und gemeinschaftsproduzierend zu Hilfe zu nehmen, um ein neues integrierendes und identitätsstiftendes Interaktionsfeld für eine demokratische Gesellschaft zu kreieren - im besonderen als Gegenentwicklung zur weiteren Kommerzialisierung und Reizüberfrachtung des öffentlichen Raums. Die interaktive Kunst mit ihrer Lebensnähe, den kommunikativen Ansätzen und dem reflektierenden Umgang mit den modernen Machttechnologien ist dementsprechend besonders prädestiniert, mit dem städtischen öffentlichen Raum verknüpft zu werden.
Ziel der Arbeit ist es nun, aus dem Feld der Interaktiven Kunst neue Ansätze für eine Wiederbelebung der Öffentlichkeitsfunktion des Stadtraumes aufzuzeigen, so zum Beispiel Katalysatoren für eine direkte Mensch-Mensch-Interaktion oder eine neue Art von Involvie- rung in die Gestaltung des öffentlichen Raumes. In seiner neuen Interaktivität kann der Raum selbst zu einer Art Austauschmedium werden.
Aus den theoretischen Überlegungen, den Fragebögen und der Analyse gesammelter interaktiver Projekte, die bewusst in den öffentlichen Raum gehen, haben sich schließlich folgende fünf Kategorien herauskristallisiert. Sie bilden Ansatzpunkte für einen Schritt in Richtung Realisierung eines zeitgemäßen Interaktionsfeldes.
• Interaktionsförderung zur angstfreien Konfrontation und zum Kontakt mit Fremden
• Förderung der Öffentlichkeitsbildung durch Kritik, Diskussion und Reflektion der Gesellschaft
• Förderung der sozialen Interaktion und Verortung in der lokalen Nachbarschaft
• Wahrnehmung der gesellschaftlichen Entwicklung durch Technologie reflektierende, sinnliche Systemerfahrung
• Aktivierung zur bewussten Teilnahme an der Gestaltung des öffentlichen Raums
Die Homepage, die sich aus der CD-Rom zur Diplomarbeit entwickelt hat, stellt diese interaktiven Medienprojekte vor. Sie verdeutlicht anhand der Analyse und Kategorisierung der Projekte, wie nun die Neuen Medien alternativ genutzt werden können, um zur Reaktivierung und positiven Veränderung des Stadtraumes beizutragen.
In einer offenen Liste können weitere Projekte eintragen werden. Mit der Zeit kann sich so ein umfangreiches Archiv entwickeln, mit Beispielen, die zu neuen Ansätzen im Umgang der Stadtplanung mit dem öffentlichen Raum anregen.
www.interactionfield.de
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.
Diese Arbeit befasst sich mit der Quantendynamik in gekippten periodischen Strukturen, den so genannten Wannier-Stark-Systemen. Eine wichtige experimentelle Realisierung eines solchen Systems ist die Dynamik ultrakalter Atome in optischen Gittern unter dem Einfluß einer externen Kraft, z.B. der Gravitation. Zunächst wird die Dynamik eines einzelnen quantenmechanischen Teilchens in zweidimensionalen Wannier-Stark-Systemen analysiert. Dieses Teilchen zeigt Lissajous-artige Oszillationen, deren Dynamik sehr sensitiv von der Richtung der externen Kraft abhängt. Im zweiten Teil der Arbeit wird die Dynamik eines Bose-Einstein-Kondensats im Rahmen eine mean-field-Näherung (Gross-Pitaevskii-Gleichung) untersucht. Neue Phänomene wie eine Zusammenbruch und Wiederaufleben der Oszillationen können mittels einer Entwicklung nach Wannier-Stark-Funktionen in einem einfachen Modell erklärt werden. Schließlich werden die Eigenschaften von gebundenen und Resonanz-zuständen der Gross-Pitaevskii-Gleichung für zwei einfache Modellsysteme (delta-Potential und delta-shell-Potential) untersucht.
Im Rahmen dieser Diplomarbeit werden die Konzepte zur Unterstützung von datenbankorientierten Software-Produktlinien durch domänenspezifische Sprachen am Beispiel von Versionierungssystemen untersucht. Ziel dieser Arbeit ist es, die zeitlichen Kosten, die durch die Nutzung einer domänenspezifischen Sprache entstehen, zu bestimmen. Dabei werden unterschiedliche Datenbankschemata verwendet, um zu untersuchen, welcher Zusammenhang zwischen der Komplexität des Datenbankschemas und der Übersetzung einer domänenspezifischen Anweisung in eine Reihe von herkömmlichen SQL-Anweisungen besteht. Um die zeitlichen Kosten für die Reduktion zu bestimmen, werden Leistungsuntersuchungen durchgeführt. Grundlage für diese Leistungsuntersuchungen sind domänenspezifische Anweisungen, die von einem speziell für diesen Zweck entwickelten Generator erzeugt wurden. Diese generierten domänenspezifischen Anweisungen werden mit den unterschiedlichen Datenbanktreibern auf dem passenden Datenbankschema ausgeführt.
Music Information Retrieval (MIR) is an interdisciplinary research area that has the goal to improve the way music is accessible through information systems. One important part of MIR is the research for algorithms to extract meaningful information (called feature data) from music audio signals. Feature data can for example be used for content based genre classification of music pieces. This masters thesis contributes in three ways to the current state of the art: • First, an overview of many of the features that are being used in MIR applications is given. These methods – called “descriptors” or “features” in this thesis – are discussed in depth, giving a literature review and for most of them illustrations. • Second, a large part of the described features are implemented in a uniform framework, called T-Toolbox which is programmed in the Matlab environment. It also allows to do classification experiments and descriptor visualisation. For classification, an interface to the machine-learning environment WEKA is provided. • Third, preliminary evaluations are done investigating how well these methods are suited for automatically classifying music according to categorizations such as genre, mood, and perceived complexity. This evaluation is done using the descriptors implemented in the T-Toolbox, and several state-of-the-art machine learning algorithms. It turns out that – in the experimental setup of this thesis – the treated descriptors are not capable to reliably discriminate between the classes of most examined categorizations; but there is an indication that these results could be improved by developing more elaborate techniques.
Die Diplomarbeit beschäftigt sich mit den Möglichkeiten und Grenzen der Einbeziehung der Bürger in Planungsprozesse. Es werden planungswissenschaftliche und sozialwissenschaftliche Aspekte der Thematik betrachtet. Dabei wird einerseits der aktuelle Forschungsstand zusammengefasst und anderseits werden neue, weitergehende Fragestellungen aufgegriffen. So wird insbesondere untersucht, welche unterschiedlichen Beweggründe die Akteure in Beteiligungsprozessen haben, welche Anforderungen (Mindestvoraussetzungen, Empfehlungen, Qualitätsziele) an Beteiligungsprozesse zu stellen sind und welche Konsequenzen (u.a. auch der Aufwand und Ertrag von Beteiligung) sich ergeben. Anhand eines Praxisbeispiels, eine naturnahe Schulgeländegestaltung unter Einbeziehung von Lehrern, Eltern und Schülern, werden diese theoretischen Überlegungen einer kritischen Überprüfung unterzogen.
Das Ziel dieser Arbeit ist es, ein Framework und einen funktionsfähigen Prototypen für eine Middleware zu entwickeln, die es ermöglicht, Berechnungen verteilt in einem Peer-to-Peer-Netz auszuführen. Dabei sollen verschiedene Arten der Berechnung unterstützt werden. Eine Art der Berechnung sind Aufträge, die massiv parallel berechnet werden können, d.h. solche, die in unabhängige Teilaufträge zerlegt werden können und ohne gegenseitige Kommunikation auskommen. Diese Aufträge können entweder so parametrisiert sein, dass jeder Teilauftrag einen anderen Satz Parameter erhält (z.B. Fraktalberechnung), oder zufallsbasiert, so dass jeder Teilauftrag mit den gleichen Ausgangswerten berechnet wird und unterschiedliche Ergebnisse resultieren. Eine andere Art der Berechnung setzt voraus, dass Knoten, die am gleichen Auftrag arbeiten, auch miteinander kooperieren und durch Nachrichten beispielsweise Teillösungen austauschen (z.B. verteilte evolutionäre Algorithmen). Alle Knoten in diesem Netz sollen gleichberechtigt sein, d.h. jedem Knoten soll es möglich sein, eigene Anwendungen und Aufgaben im Netz zu verteilen. Den verteilten Anwendungen soll zudem die Möglichkeit gegeben werden, mit anderen Knoten, die an der gleichen Aufgabe arbeiten, kommunizieren zu können. Alle benötigten Informationen zur Berechnung eines Auftrags (d.h. Parameter, ausführbarer Code der Anwendung, Anzahl der zu berechnenden Fälle) sollen den rechnenden Knoten durch Middlewarefunktionen zur Verfügung gestellt werden, ebenso soll der Rücktransport der Ergebnisse zum Initiator durch die Middleware erfolgen. Der Nutzer soll also an seinem Arbeitsplatz seine verteilte Anwendung starten können und die Ergebnisse schließlich wieder auf seinem Rechner vorfinden. Die Implementierung soll möglichst modular angelegt sein und nicht auf ein konkretes P2P-Protokoll beschränkt sein, sondern einen leichten Austausch bzw. eine nutzergesteuerte Auswahl von verschiedenen Protokollen ermöglichen. Im Rahmen dieses Prototypen soll ein epidemisches P2P-Protokoll realisiert werden.
Ein typisches Mittelklassefahrzeug hat mittlerweile 100 Computerprozessoren,die miteinander kommunizieren, und bildet damit ein komplexes Softwaresystem. Die steigende Anzahl der miteinander kommunzierenden Funktionen trägt dazu bei, dass die Komplexität der Steurungssoftware immer schwerer zu beherrschen ist. Trotz eines enormen Kostenaufwands zur Entwicklung der entsprechenden Softwarekomponenten sind Softwarefehler bei Fahrzeugen der automobilen Oberklasse eine der am häufigsten angeführten Ursachen in der Pannenstatistik. Die Tatsache, dass die angeführten Funktionalitäten verteilt und parallel auf einer steigenden Anzahl unterschiedlicher Mikrokontroller abgearbeitet werden, birgt zusätzliche Probleme. Es ist jedoch Fakt, dass der Markt nach Funktionalitäten wie ABS, ASR und ESP verlangt, die zu einem wesentlichen Teil aus Software bestehen. Es ist also notwendig, einen alternativen Softwareansatz zu finden, der die Komplexität der Steuerungssoftware beherrschbar werden lässt und dennoch den Anforderungen des automobilen Umfelds, wie zum Beispiel der Verlässlichkeit gerecht wird. Dies wird in dieser Arbeit mit hilfe einer verhaltensbasierten steuerung erreicht.
JSR 170 spezifiziert die Java Content Repository (JCR) Schnittstelle. Diese Schnittstelle wird als Standard im Bereich Web-Anwendungen und Content Management akzeptiert. Sie gliedert sich in Level 1 (lesender Zugriff) and Level 2 (Lese- und Schreibzugriffe) und beschreibt darüber hinaus vier weitere optionale Funktionen. Das in JSR 170 beschriebene hierarchische Datenmodell weist starke Analogie zu XML auf. Jedoch verwenden die meisten JCR-Implementierungen relationale Datenbanken. Durch native XML Datenbanken, wie XTC, können XML-Daten effizient verwaltet werden. Diese Arbeit beschreibt das Design und die Implementierung eines Level 2 JCRs, welches alle Anforderungen an die Persistenz mit Hilfe von DOM und XQuery Operationen auf XML-Dokumenten in XTC erfüllt. Die optionalen FuJSR 170 spezifiziert die Java Content Repository (JCR) Schnittstelle. Diese Schnittstelle wird als Standard im Bereich Web-Anwendungen und Content Management akzeptiert. Sie gliedert sich in Level 1 (lesender Zugriff) und Level 2 (Lese- und Schreibzugriffe) und beschreibt darüber hinaus vier weitere optionale Funktionen. Das in JSR 170 beschriebene hierarchische Datenmodell weist starke Analogie zu XML auf. Jedoch verwenden die meisten JCR-Implementierungen relationale Datenbanken. Durch native XML Datenbanken, wie XTC, können XML-Daten effizient verwaltet werden. Diese Arbeit beschreibt das Design und die Implementierung eines Level 2 JCRs, welches alle Anforderungen an die Persistenz mit Hilfe von DOM und XQuery Operationen auf XML-Dokumenten in XTC erfüllt. Die optionalen Funktionen “Versionierung” und “Transaktionen” werden ebenfalls unterstützt. Um die Implementierung zu testen werden zwei Demo-Anwendungen (Blog & Wiki) entwickelt und Vergleichstests gegen die Referenzimplementierung angestellt.
Nowadays, vehicle control systems such as anti-lock braking systems, electronic stability control, and cruise control systems yield many advantages. The electronic control units that are deployed in this specific application domain are embedded systems that are integrated in larger systems to achieve predefined applications. Embedded systems consist of embedded hardware and a large software part. Model-based development for embedded systems offers significant software-development benefits that are pointed out in this thesis. The vehicle control system Adaptive Cruise Control is developed in this thesis using a model-based software development process for embedded systems. As a modern industrial design tool that is prevalent in this domain, simulink,is used for modeling the environment, the system behavior, for determining controller parameters, and for simulation purposes. Using an appropriate toolchain, the embedded code is automatically generated. The adaptive cruise control system could be successfully implemented and tested within this short timespan using a waterfall model without increments. The vehicle plant and important filters are fully deduced in detail. Therefore, the design of further vehicle control systems needs less effort for development and precise simulation.
Obwohl in mikrobiologischen Hochsicherheitslaboratorien einzelne Methoden des Risikomanagements durch gesetzliche Vorgaben verankert sind bzw. aufgrund von negativen Erfahrungen mit Laborinfektionen und prospektiver Sicherheitsforschung eingeführt wurden, fehlt bisher meist ein systematischer Riskomanagementansatz. Eine Möglichkeit zur Implementierung von „Risikomanagement als Führungsprozess” mittels der neuen, generischen Norm ISO 31000 „Risk management - Principles and guidelines” sollte in dieser Arbeit auf seine Eignung für ein Hochsicherheitslabor betrachtet werden. Dabei zeigte sich am konkreten Beispiel, dass durch die aktuelle Einführung eines QM-Systems die für ein Risikomanagementsystem notwendigen Strukturen prinzipiell vorhanden sind und genutzt werden können, aber dennoch ein erheblicher Schulungsbedarf bei den Mitarbeitern hinsichtlich methodischer Kompetenzen bestehen dürfte. Trotz theoretisch guter Integrierbarkeit des Risikomanagements in das QM-System würde die Einführung ein mittelfristiges, personalintensives Projekt darstellen. Als erfolgskritische Faktoren für die Einführung wurden weiterhin die Unterstützung durch die Leitung des Labors und die Entwicklung einer adäquaten, offenen Risikokultur identifiziert. Die Öffnung einer eher hierarchisch geprägten Organisationskultur würde ebenfalls Zeit kosten und wäre wahrscheinlich nicht ohne externe Beratung zu bewältigen. Erst dann könnte die gewünschte Risikokultur verwirklicht werden. Der grundlegende Wunsch zu einem veränderten Management im Labor ist aber auf allen Ebenen des betrachteten Forschungsinstituts spürbar, auch die Laborleitung unterstützt partizipative Elemente explizit. Das Rahmenwerk für ein Risikomanagementsystem wurde daher entworfen und in seinen Elementen für ein Hochsicherheitslabor betrachtet. Die jeweilige Ausgestaltung sollte durch eine Projektgruppe entwickelt werden. Dies stellt aufgrund der guten Erfahrungen mit Projektarbeit im betrachteten Institut keine relevante Hürde dar. Es erscheint daher möglich, mit der künftigen ISO 31000 (unter Zuhilfenahme verwandter Dokumente), ein Risikomanagementsystem für ein mikrobiologisches Hochsicherheitslabor einzuführen.
In its rather short history robotic research has come a long way in the half century since it started to exist as a noticeable scientic eld. Due to its roots in engineering, computer science, mathematics, and several other 'classical' scientic branches,a grand diversity of methodologies and approaches existed from the very beginning. Hence, the researchers in this eld are in particular used to adopting ideas that originate in other elds. As a fairly logical consequence of this, scientists tended to biology during the 1970s in order to nd approaches that are ideally adapted to the conditions of our natural environment. Doing so allows for introducing principles to robotics that have already shown their great potential by prevailing in a tough evolutionary selection process for millions of years. The variety of these approaches spans from efficient locomotion, to sensor processing methodologies and all the way to control architectures. Thus, the full spectrum of challenges for autonomous interaction with the surroundings while pursuing a task can be covered by such means. A feature that has proven to be amongst the most challenging to recreate is the human ability of biped locomotion. This is mainly caused by the fact that walking,running and so on are highly complex processes involving the need for energy efficient actuation, sophisticated control architectures and algorithms, and an elaborate mechanical design while at the same time posting restrictions concerning stability and weight. However, it is of special interest since our environment is favoring this specic kind of locomotion and thus promises to open up an enormous potential if mastered. More than the mere scientic interest, it is the fascination of understanding and recreating parts of oneself that drives the ongoing eorts in this area of research. The fact that this is not at all an easy task to tackle is not only caused by the highly dynamical processes but also has its roots in the challenging design process. That is because it cannot be limited to just one aspect like e.g. the control architecture, actuation, sensors, or mechanical design alone. Each aspect has to be incorporated into a sound general concept in order to allow for a successful outcome in the end. Since control is in this context inseparably coupled with the mechanics of the system, both has to be dealt with here.
Ever since Mark Weiser’s vision of Ubiquitous Computing the importance of context has increased in the computer science domain. Future Ambient Intelligent Environments will assist humans in their everyday activities, even without them being constantly aware of it. Objects in such environments will have small computers embedded into them which have the ability to predict human needs from the current context and adapt their behavior accordingly. This vision equally applies to future production environments. In modern factories workers and technical staff members are confronted with a multitude of devices from various manufacturers, all with different user interfaces, interaction concepts and degrees of complexity. Production processes are highly dynamic, whole modules can be exchanged or restructured. Both factors force users to continuously change their mental model of the environment. This complicates their workflows and leads to avoidable user errors or slips in judgement. In an Ambient Intelligent Production Environment these challenges have to be approached. The SmartMote is a universal control device for ambient intelligent production environments like the SmartFactoryKL. It copes with the problems mentioned above by integrating all the user interfaces into a single, holistic and mobile device. Following an automated Model-Based User Interface Development (MBUID) process it generates a fully functional graphical user interface from an abstract task-based description of the environment during run-time. This work introduces an approach to integrating context, namely the user’s location, as an adaptation basis into the MBUID process. A Context Model is specified, which stores location information in a formal and precise way. Connected sensors continuously update the model with new values. The model is complemented by a reasoning component which uses an extensible set of rules. These rules are used to derive more abstract context information from basic sensor data and for providing this information to the MBUID process. The feasibility of the approach is shown by using the example of Interaction Zones, which let developers describe different task models depending on the user’s location. Using the context model to determine when a user enters or leaves a zone, the generator can adapt the graphical user interface accordingly. Context-awareness and the potential to adapt to the current context of use are key requirements of applications in ambient intelligent environments. The approach presented here provides a clear procedure and extension scheme for the consideration of additional context types. As context has significant influence on the overall User Experience, this results not only in a better usefulness, but also in an improved usability of the SmartMote.
El tema se desarrolló en dos partes, de las cuales, la primera, Los tratadistas europeos, abordó la situación de los libros de arquitectura editados durante los siglos XV, XVI y principios del XVII en Europa, y tocó también los primeros esfuerzos de teorización del arte edilicio durante la Antigüedad y la Edad Media. Con esta sistematización se logró una visión en conjunto de la evolución de la teoría arquitectónica, redactada en español y elaborada a partir de una bibliografía, en su mayoría publicada en idiomas extranjeros. En la segunda parte, La repercusión en Nueva España, se trató de comprobar la influencia de los textos teóricos importados desde la metrópoli, en la colonia del siglo XVI, a la luz de la circulación de los libros de arquitectura, la formación de los alarifes y las fechas de construcción de los edificios seleccionados. La división en dos secciones obedeció a la enunciación del tema, pues así resultó ser más fácil su tratamiento en una manera clara y ordenada, y se justificó por el logro del objetivo planteado, que para la primera parte era una sistematización de los tratados europeos de arquitectura del Renacimiento y del Manierismo que sirviera de base a futuras investigaciones relacionados con este asunto; y para la segunda, consistía en la comprobación de la aplicación de dichos manuales teóricos en la Nueva España.
Das Futtersuchverhalten von Blattschneiderameisen (BSA) weist zwei Besonderheiten auf, die bislang nicht mit der Theorie des optimalen Nahrungserwerbs in Übereinstimmung gebracht werden konnten: sie (i) verlassen ihre Nahrungspflanzen frühzeitig bevor diese komplett entlaubt sind und (ii) ernten Bäume in beträchtlicher Distanz , obwohl conspezifische Bäume (mit scheinbar gleicher Blattqualität) näher am Nest liegen. Eine mögliche kausale Erklärung bietet die Hypothese induzierter Pflanzenabwehr (induced-defence hypothesis), durch welche die beobachteten Futtersuchmuster als zeitlich und räumlich dynamisches Mosaik aus induzierter, wenig induzierter und nicht induzierter Pflanzenabwehr in Pflanzenindividuen und Pflanzenteilen zu verstehen wären. In diesem Kontext war es das Ziel meiner Diplomarbeit zu klären ob und mit welcher Wirkung herbivorieinduzierte Pflanzenvolatile (HIPVs) von BSA perzipiert werden. Der Fokus lag dabei auf der jeweils spezifischen Rolle der beiden symbiontischen Partner des BSA-Systems (Ameisen und Pilz) und möglichen Interaktionen zwischen ihnen. Im ersten Untersuchungsabschnitt wurden Atta colombica-Arbeiterinnen in olfaktometrischen Wahlexperimenten mit einzelnen Komponenten und dem naturgetreuen Mix der HIPVs der Limabohne (Phaseolus lunatus) konfrontiert. Da hierbei kein Eintrag induzierter Blätter in die Kolonie stattfand, blieb der symbiotische Pilz unbeeinflusst von den HIPVs. Um andererseits spezifisch die Reaktion des Pilzpartners auf die HIPVs der Limabohne zu beurteilen, wurden Wachstumsassays mit Kulturen des Gartenpilzes Leucoagaricus gongylophorus durchgeführt. Zentrale Ergebnisse meiner Untersuchung waren: (1) BSA-Arbeiterinnen zeigten im Olfaktometer keine Reaktion auf verschiedene Konzentrationen der Limabohnen-HIPVs (Abb. 1); (2) Hingegen konnten für eine Reihe von HIPVs antimykotische Eigenschaften auf den symbiotischen Pilz nachgewiesen werden (Abb. 2). Im Lichte dieser Ergebnisse sind viele bisher publizierte Hinweise auf die repellente Wirkung von HIPV-Komponenten auf BSA-Kolonien/Arbeiterinnen (Aigner 2007, Tremmel 2008) nur dann zu verstehen, wenn man sie als eine nachträgliche, vom symbiotischen Pilz vermittelte‚ verzögerte Ablehnung (so genannte delayed rejection hypothesis, sensu Knapp et al 1990) interpretiert. Pilz-inhibierende Substanzen werden dabei zunächst von BSA- Arbeiterinnen in die Kolonie eingetragen und zu einem späteren Zeitpunkt abgelehnt. Die vorliegende Studie kann somit als Unterstützung der induced-defence hypothesis gelten.
Die Kommunale Planungspraxis durchlebt derzeit eine Phase, die von sich verändernden Rahmenbedingungen geprägt ist. Es zeigen sich erste Auswirkungen des demographischen Wandels wie wachsende Leerstände, zugleich ist jedoch nach wie vor eine ungebremste Flächenneuinanspruchnahme zu verzeichnen, die von dem „30 Hektar Ziel“ der nationalen Nachhaltigkeitsstrategie weit entfernt liegt. Begleitet wird diese Entwicklung von einer sich immer mehr verschärfenden Finanzknappheit der Kommunen, die auch zu einer vermehrten Abgabe von Planungsaufgaben, dem Kerngebiet kommunaler Selbstverwaltung, an externe Planungsträger führt. Um bei diesen Prozessen die notwendige Transparenz zu generieren und damit die Akzeptanz der Planung sicherzustellen ist es wichtig, die Bürger frühzeitig zu informieren und zu beteiligen. Hier eröffnet die Visualisierung von Planungen mittels des Computers die Chance, als virtuelle Repräsentation realer Städte oder Planungen, heterogene, raumbezogene Informationen einer breiten Bevölkerungsschicht interaktiv zugänglich zu machen; sie eröffnet somit eine neue Perspektive auf Lebensumwelten, und hilft, diese besser zu verstehen.
This research for this thesis was conducted to develop a framework which supports the automatic configuration of project-specific software development processes by selecting and combining different technologies: the Process Configuration Framework. The research draws attention to the problem that while the research community develops new technologies, the industrial companies continue only using their well-known ones. Because of this, technology transfer takes decades. In addition, there is the fact that there is no solution which solves all problems in a software development project. This leads to a number of technologies which need to be combined for one project.
The framework developed and explained in this research mainly addresses those problems by building a bridge between research and industry as well as by supporting software companies during the selection of the most appropriate technologies combined in a software process. The technology transformation gap is filled by a repository of (new) technologies which are used as a foundation of the Process Configuration Framework. The process is configured by providing SPEM process pattern for each technology, so that the companies can build their process by plugging into each other.
The technologies of the repository were specified in a schema including a technology model, context model, and an impact model. With context and impact it is possible to provide information about a technology, for example, its benefits to quality, cost or schedule. The offering of the process pattern as output of the Process Configuration Framework is performed in several stages:
I Technology Ranking:
1 Ranking based on Application Domain, Project & Impact
2 Ranking based on Environment
3 Ranking based on Static Context
II Technology Combination:
4 Creation of all possible Technology Chains
5 Restriction of the Technology Chains
6 Ranking based on Static and Dynamic Context
7 Extension of the Chains by Quality Assurance
III Process Configuration:
8 Process Component Diagram
9 Extension of the Process Component Diagram
10 Instantiation of the Components by Technologies of the Technology Chain
11 Providing process patterns
12 Creation of the process based on Patterns
The effectiveness and quality of the Process Configuration Framework have additionally been evaluated in a case study. Here, the Technology Chains manually created by experts were compared to the chains automatically created by the framework after it was configured by those experts. This comparison depicted that the framework results are similar and therefore can be used as a recommendation.
We conclude from our research that support during the configuration of a process for software projects is important especially for non-experts. This support is provided by the Process Configuration Framework developed in this research. In addition our research has shown that this framework offers a possibility to speed up the technology transformation gap between the research community and industrial companies.
Hadoop ist ein beliebtes Framework für verteilte Berechnungen über große
Datenmengen (Big Data) mittels MapReduce. Hadoop zu verwenden ist einfach: Der
Entwickler definiert die Eingabedatenquelle und implementiert die beiden
Methoden Map und Reduce. Über die verteilte Berechnung und Fehlerbehandlung muss
er sich dabei keine Gedanken machen, das erledigt das Hadoop-Framework.
Allerdings kann die Analyse von Big Data sehr lange dauern und da sich die
Eingabedaten jede Sekunde ändern, ist es vielleicht nicht immer die beste
Idee, die vollständige Berechnung jedes Mal aufs Neue auf die kompletten
Eingabedaten anzuwenden. Es wäre geschickter, sich das Ergebnis der
vorherigen Berechnung zu betrachten und nur die Deltas zu analysieren, also
Daten, die seit der letzten Berechnung hinzugefügt oder gelöscht wurden. In dem Gebiet der
selbstwartbaren materialisierten Sichten in relationalen Datenbanksystemen gibt
es bereits mehrere Ansätze, die sich mit der Lösung dieses Problems
beschäftigen. Eine Strategie liest nur die Deltas und inkrementiert oder
dekrementiert die Ergebnisse der vorherigen Berechnung. Allerdings ist diese
Inkrement-Operation sehr teuer, deshalb ist es manchmal besser, das komplette
alte Ergebnis zu lesen und es mit den Deltas der Eingabedaten zu kombinieren.
In dieser Masterarbeit wird ein neues Framework namens Marimba vorgestellt,
welches sich genau um diese Probleme der inkrementellen Berechnung kümmert. Einen
Map\-Re\-duce-Job in Marimba zu schreiben ist genau so einfach wie einen Hadoop-Job.
Allerdings werden hier keine Mapper- und Reducer-Klasse implementiert, sondern
eine Translator- und Serializer-Klasse. Der Translator ähnelt dem Mapper: Er
bestimmt, wie die Eingabedaten gelesen und daraus Zwischenwerte berechnet
werden. Der Serializer erzeugt die Ausgabe des Jobs. Wie diese Ausgabe berechnet
wird, gibt der Benutzer durch Implementierung einiger Methoden an, um Werte zu
aggregieren und invertieren.
Vier MapReduce-Jobs, darunter auch das Paradebeispiel für MapReduce WordCount,
wurden im Marimba-Framework implementiert. Das Entwickeln von inkrementellen
Map-Reduce-Jobs ist mit dem Framework extrem einfach geworden. Außerdem konnte
mit Performanztests gezeigt werden, dass die inkrementelle Berechnung deutlich
schneller ist als eine vollständige Neuberechnung.
Ein weiterer unter den vier implementierten Jobs berechnet
Wortauftrittswahrscheinlichkeiten in geschriebenen Sätzen. Dies kann
beispielsweise für Spracherkennung verwendet werden. Wenn ein Wort in einer
gesprochenen SMS nicht richtig verstanden wurde, hilft der Algorithmus zu raten,
welches Wort am wahrscheinlichsten an einer bestimmten Stelle stehen könnte,
abhängig von den vorherigen Wörtern im Satz. Damit dieser Algorithmus auch
brauchbare Ergebnisse liefert, ist die Menge und die Qualität der Eingabedaten
wichtig. Durchaus brauchbare Ergebnisse wurden durch die Verarbeitung von
Millionen von Twitter-Feeds, die deutsche Twitter-Nutzer in den letzten Monaten
geschrieben haben, erreicht.
Recently, a new Quicksort variant due to Yaroslavskiy was chosen as standard sorting
method for Oracle's Java 7 runtime library. The decision for the change was based on
empirical studies showing that on average, the new algorithm is faster than the formerly
used classic Quicksort. Surprisingly, the improvement was achieved by using a dual pivot
approach — an idea that was considered not promising by several theoretical studies in the
past. In this thesis, I try to find the reason for this unexpected success.
My focus is on the precise and detailed average case analysis, aiming at the flavor of
Knuth's series “The Art of Computer Programming”. In particular, I go beyond abstract
measures like counting key comparisons, and try to understand the efficiency of the
algorithms at different levels of abstraction. Whenever possible, precise expected values are
preferred to asymptotic approximations. This rigor ensures that (a) the sorting methods
discussed here are actually usable in practice and (b) that the analysis results contribute to
a sound comparison of the Quicksort variants.
Data usage control is a concept that extends access control to also protect data after it
has been released. Usage control enforcement relies on available information about the
distribution of data in the monitored system. In this thesis we introduce an information
flow tracking approach for JavaScript in order to enable usage control for dynamic content
in web browsers. The proposed model is implemented as a prototype in the JavaScript
engine V8 of the Chromium browser to evaluate the feasibility of the chosen approach.
Buses not arriving on time and then arriving all at once - this phenomenon is known from
busy bus routes and is called bus bunching.
This thesis combines the well studied but so far separate areas of bus-bunching prediction
and dynamic holding strategies, which allow to modulate buses’ dwell times at stops to
eliminate bus bunching. We look at real data of the Dublin Bus route 46A and present
a headway-based predictive-control framework considering all components like data
acquisition, prediction and control strategies. We formulate time headways as time series
and compare several prediction methods for those. Furthermore we present an analytical
model of an artificial bus route and discuss stability properties and dynamic holding
strategies using both data available at the time and predicted headway data. In a numerical
simulation we illustrate the advantages of the presented predictive-control framework
compared to the classical approaches which only use directly available data.
Das Ziel dieser Arbeit besteht darin, aufzuzeigen, wie eine mathematische Modellierung, verbunden mit Simulations- und Ansteuerungsaspekten eines Segways im Mathematikunterricht der gymnasialen Oberstufe als interdisziplinäres Projekt umgesetzt werden kann. Dabei werden sowohl Chancen, im Sinne von erreichbaren mathematischen Kompetenzen, als auch Schwierigkeiten eines solchen Projektes mit einer interdisziplinären Umsetzung geschildert.
Der gewerkschaftliche Bildungsträger ver.di Bildung + Beratung (im Folgenden: ver.di b+b) ist auf die Qualifizierung von gesetzlichen Interessenvertretungen spezialisiert und eng mit der Gewerkschaft ver.di verbunden. Die größte Zielgruppe sind Mitglieder von Betriebsratsgremien. Die Bildungsarbeit von ver.di b+b wird durch die rechtlichen Rahmenbedingungen, einen gewerkschaftspolitischen Anspruch und einen pädagogischen Auftrag beeinflusst: Betriebsratsmitglieder haben nach dem Betriebsverfassungsgesetz (BetrVG) einen Freistellungsanspruch für den Besuch von Schulungen. Damit sie teilnehmen können, müssen die Schulungen verschiedene rechtliche Vorgaben erfüllen. Gewerkschaftliche Bildung versteht sich als politische Bildung, was ebenfalls Einfluss auf die inhaltliche, pädagogische und organisatorische Gestaltung hat. Im Leitbild von ver.di b+b wird der pädagogische Anspruch des Bildungsträgers deutlich: Die Schulungen sollen handlungs- und teilnehmerorientiert sein und die Teilnehmenden persönlich, fachlich, sozial und politisch stärken. Diese drei Aspekte sind zu berücksichtigen, wenn es um die Frage nach den geeigneten Lernformen für Betriebsratsschulungen geht. Bis jetzt bietet ver.di b+b seine Seminare ausschließlich in Form von Präsenzveranstaltungen an. E-Learning-Angebote gibt es nicht. Das steht im Widerspruch zu der allgemeinen gesellschaftlichen Bedeutung des Internets.
Anhand einer empirischen Untersuchung gibt die Arbeit eine Einschätzung zu dem Bedarf von E-Learning-Angeboten im Bereich der gewerkschaftlichen Bildungsarbeit mit Betriebsräten aus Sicht der Teilnehmenden von ver.di b+b.
Urbane Ernährungsstrategien decken eine Bandbreite an Wirkungsfeldern im Gefüge einer Stadt und dem dazugehörigen Nahrungssystem ab. Sie sind unter anderem in der Lage, für sicheren Zugang zu gesunden Lebensmitteln zu sorgen, lokale Wirtschaftskreisläufe zu fördern, relevante Stakeholder zusammen zu führen oder auch negative Umwelteinflüsse einzudämmen. Mithilfe digitaler Lösungen lassen sich effiziente und nachhaltige Ansätze für die raumplanerischen Herausforderungen im Zusammenhang mit urbanen Ernährungsstrategien finden.
Urbane Ernährungsstrategien als auch digitale Methoden repräsentieren wissenschaftliche Forschungsschwerpunkte mit vielfältigen Potentialen, deren Symbiose eine Bandbreite an Multiplikatoreffekten herzustellen vermag. So können entsprechende Strategien wesentlich von digitalen Herangehensweisen wie Echtzeitvisualisierung, Crowdmapping, Online-Verkaufsplattformen, urbane Emotionsmessung etc. profitieren.
Anhand von verschiedenen digitalen Methoden werden in dieser Arbeit die Möglichkeiten für deren Einsatz im Rahmen von urbanen Ernährungsstrategien untersucht und darüber hinaus wird diskutiert, inwieweit ein Mehrwert für letztere entstehen kann.
Die wissenschaftliche Auseinandersetzung mit dieser Thematik ist von besonderer fachlicher Relevanz, da die beiden noch jungen Forschungsdisziplinen in Kombination bislang unzureichende Aufmerksamkeit erhalten haben. Untermauert wird diese Erkenntnis durch die mangelhafte Datenlage zu diesem thematischen Zweiklang.
Mithilfe entsprechender digitaler Lösungsansätze können Planer mit verhältnismäßig geringem Aufwand nachhaltigen Mehrwert bewirken und zielgerichtet qualitativ hochwertige Maßnahmen im Zusammenhang mit urbanen Ernährungsstrategien durchführen. Dies wird zudem durch einen auf die Bedürfnisse der urbanen Ernährungsstrategien und digitalen Methoden abgestimmten Workflow gewährleistet.
Die langfristige Integration der rund 1,2 Millionen Asylsuchenden, die laut BAMF 2015 und 2016 nach Deutschland kamen, stellt große Herausforderungen an die aufnehmende deutsche Gesellschaft. Während sich staatliche Organe gerade in der Ankunftsphase überfordert zeigten, hat die Zivilgesellschaft mit großem Engagement die Aufnahme der Geflüchteten ermöglicht und führt dies in zahllosen Integrationsprojekten fort. Dabei leistet sie einen großen Beitrag zu einer nachhaltigen Entwicklung, über den bisher noch wenig debattiert wurde – nämlich zur sozialen Nachhaltigkeit.
Dafür werden zunächst die wesentlichen Problemstellungen der Flüchtlingsintegration und der Stellenwert des zivilgesellschaftlichen Engagements dargestellt (1). Darauf folgt eine theoretische Begründung von Integration im Kontext sozial nachhaltiger Entwicklung (2). Kapitel (3) zeigt auf, wie speziell neue Formen des zivilgesellschaftlichen Engagements, die Aspekte sozialer Nachhaltigkeit beinhalten, zur Integration von Geflüchteten beitragen können. Abschließend werden konkrete ehrenamtliche Einsatzfelder für Geflüchtete in den Blick genommen, ausführlicher das Nürnberger Befragungsprojekt „Nicht mit leeren Händen“(4). Das abschließende Kapitel versucht zu systematisieren, inwiefern ehrenamtliche Projekte zu nachhaltiger Integration beitragen und welche Rolle der kommunalen Politik dabei zukommt (5). Ein Ausblick (6) zeigt Perspektiven für eine nachhaltige Integration auf.
Ein Flüchtlingscamp als Raum konstituierter Sichtbarkeit: Shatila. 1949 für Vertriebene der nördlichen Palästinensergebiete erbaut, in den südlichen Vororten der libanesischen Hauptstadt Beirut angesiedelt, Ort eines Genozids in den 80er Jahren und, in der Syrienkrise, Symbol von nationalem und internationalem gesellschaftlich-politischen Versagens, visualisiert es den tatsächlichen, aber auch mentalen Kampf der Bewohner mit der oktroyierten und begrenzten Sphäre. Die territoriale, politische und gesellschaftliche Limitierung der (mittlerweile nicht nur) palästinensischen Bevölkerung in Beirut führen zur Grundidee einer kritischen Raumforschung: Der Mikrokosmos des Camps wird als fragiler aber beständiger Ausnahmezustand wahrgenommen und dient als Untersuchungsgegenstand, um gesellschaftliche und kulturelle Prozesse in diskursive Raumbeziehungen zu setzen. Die Grundlage der Untersuchung bildet die von Foucault stark beeinflusste ‚Neue Kulturgeographie‘ und deren zweite Phase der Hinwendung zur Sichtbarkeit und Re-Materialisierung. Es wird dann ein Verbleichen von Strukturen und kartesischen Rastern zugelassen, um den geographischen Raum in unterschiedliche Systeme zu übersetzten, die sich differenzierten wissenschaftlichen Ansätzen bedienen, um so schlussendlich individuelle und kollektive Rückschlüsse über die Bedeutung von Raum in einer anthropogenen Katastrophe zu generieren.
In dieser Arbeit wird das Erhebungsinstrument ‚PriM – Partizipationsbeurteilung für regionale innovative Maßnahmen‘ entwickelt, mit dem die in einer ländlichen Region vorherrschende Partizipation für mediengebundene Dienstleistungen, auf Basis der gegebenen Akzeptanz von digitalen netzfähigen Kommunikationsmedien und der Bereitschaft für freiwilliges soziales Engagement, eingeschätzt und beurteilt werden kann. Hierdurch kann dieses Instrument einen Beitrag für die Entwicklung von innovativen, bürgernahen und regional angepassten Maßnahmen zur Begegnung der Emigration aus dem ländlichen Raum darstellen.
Zur Konzeption des Erhebungsinstruments wird zunächst ein Überblick über ausgewählte Strukturen des ländlichen Raums gegeben. Anschließend wird aus bestehenden Theorien und Modellen zur Technikakzeptanz und zum freiwilligen sozialen Engagement mit Blick auf die Strukturen des ländlichen Raums ein kombiniertes theoretisches Modell abgeleitet, welches eine Beurteilung der Partizipation für mediengebundene Dienstleistungen im ländlichen Raum ermöglichen kann. Aus diesem Modell wird ein Fragebogen in Form eines Self-Administered Questionnaire (SAQ) entwickelt. Anschließend werden die Herangehensweise, die gewonnenen Erkenntnisse und die Resultate kritisch reflektiert.
Abstract
Die Arbeit zur Rolle von Empathie und Objektivität bei der Qualitätsentwicklung in Schule und Unterricht skizziert verschiedene Aspekte des Bildungssystems und betrachtet die Analyseergebnisse eines Onlinefragebogens, um die Frage nach dem Einfluss von Empathie und Objektivität auf die Qualitätsentwicklung in Schule und Unterricht zu klären. Es wird der schulinterne Qualitätsprozess detailliert beschrieben und das System des unterrichtsbezogenen Qualitätsmanagements (UQM nach H. G. Rolff) als zentrales Merkmal für Schulentwicklung identifiziert.
Das Ziel aller Qualitätsentwicklung im Bildungssektor ist die „gute Schule“, die sich den veränderten gesellschaftlichen Herausforderungen stellt und ihre Schüler angemessen auf die Zukunft vorbereitet. Für die Befragten im Forschungsteil ist die Qualitätsentwicklung im Bildungssektor „ein Papiertiger“, „eine Verschwendung von Ressourcen und müsste eher Qualitätshemmung heißen“. Daher wünschen sie sich weniger „Schulinspektionen, didaktische Jahresplanungen, Prozessentwicklungen...“, dafür jedoch „mehr Zeit und Raum für kollegialen Austausch und Beziehungspflege“.
Da Chancengerechtigkeit herrschen soll, damit alle Beteiligten in einer sich beschleunigt wandelnden Gegenwart und der dadurch unsicheren Zukunft ein gelingendes und glückliches Leben führen können und Zufriedenheit erreichen, müsste immer Objektivität und Neutralität gegeben sein, denn die Probanden vermuten hinter Subjektivität Beliebigkeit und ungerechte Emotionalität.
In der Arbeit wird festgestellt, dass die Emotionen, insbesondere die Empathie eine entscheidende Rolle bei dem Erleben und Erdulden von schulischen und gesellschaftlichen Zwängen haben, und so auf die Qualität im Bildungssektor einwirken.
Empathie kann positive wie negative Auswirkungen haben, je nachdem, welches Ziel verfolgt wird. Dabei ist Empathie oft negativ konnotiert und wird direkt mit einer unreflektierten Subjektivität in Verbindung gebracht. Objektivität wird von vielen als Maßstab für Gerechtigkeit gesehen, gilt aber oft nur als Abwesenheit von Emotionalität und Beliebigkeit.
Die sozialen Neurowissenschaften und die Neurobiologie liefern die Beweise, dass Gefühle biologisch angelegt sind und in der ontologischen Entwicklung eindeutig dem Verstand und seiner Entwicklung vorausgehen. Deshalb ist eine Nachrangigkeit der Emotionen objektiv gesehen nicht gegeben.
So löst sich auch der Körper-Geist-Dualismus auf, der die fachlich-inhaltlichen Kompetenzen als den sozial-emotionalen Fähigkeiten vorrangig sieht.
Im Rahmen der Tätigkeit eines selbständigen Unternehmensberaters ergeben sich in der Zusammenarbeit mit seinen Kunden eine Vielzahl von rechtlichen Fragestellungen. Die vorliegende Arbeit betrachtet dabei insbesondere solche Fragen, die im Bereich des Vertragswesens entstehen. Die Erbringung solcher Leistungen im Vertragswesen durch den Unternehmensberater unterliegt dem Rechtsdienstleistungsgesetz. Die vorliegende Arbeit soll dem Unternehmensberater als praxisnahe Hilfestellung bei der Entscheidung unterstützen, welche Tätigkeiten im Vertragswesen er übernehmen darf, und wo er die Grenzen zur unerlaubten Rechtsberatung überschreitet. Es wird zunächst das Rechtdienstleistungsgesetz mit seinen Voraussetzungen vorgestellt und erläutert, um die Grundlage für das Verständnis der Normen zu schaffen. Anschließend wird mit einem beispielhaften Katalog für typische Leistungen im Vertragswesen eine Orientierungshilfe für den Unternehmensberater gegeben. Für den Katalog werden das Rechtsdienstleistungsgesetz und seine bisher in Urteilen und Kommentaren erfolgte Auslegung als Basis herangezogen, zum Teil ergänzt um Entscheidungen zum vorhergehenden Rechtsberatungsgesetz. Ergänzt wird dies um Ausführungen zur Haftung des Unternehmensberaters für seine Rechtsdienstleistungen und zu einer diesbezüglich möglichen Versicherung. Abschließend wird ein kurzer Einblick in die Regelungen anderer europäischer Länder gegeben.
Während generelle
Charakterisierungen medienpädagogischer Kompetenz vorliegen und spezielle Konzepte auf die klassischen Bildungsbereiche abzielen, existieren für Trainer der
betrieblichen Weiterbildung keine Daten zum aktuellen Status ihrer gegenwärtig vorhandenen medienpädagogischen Kompetenzen. Zudem herrscht Unklarheit darüber, welche medienpädagogischen Kompetenzen im Kontext der betrieblichen Weiterbildung benötigt werden und wie diese beschrieben sind. Auf Basis
dieser Ausgangsituation fehlt speziell Führungskräften betrieblicher Weiterbildungsbereiche ein essentielles Fundament, Trainer im Rahmen der Personalentwicklung
gezielt mit Qualifizierungsmaßnahmen zu unterstützen und entsprechend sicherzustellen, dass die Trainerarbeit im Sinne des Unternehmensziels den höchstmöglichen
Professionalisierungsgrad erreicht. Diese Masterarbeit möchte mit der Entwicklung
eines medienpädagogischen Kompetenzmodells eigens für die Gruppe der betrieblichen Trainer einen Baustein zur Fundamentlegung liefern und folgende Kernfrage
beantworten: Welche medienpädagogischen Kompetenzen sollten in der betrieblichen
Weiterbildung tätige Trainer aufweisen, um den aktuellen und zukünftigen
Anforderungen ihres Tätigkeitsbereichs bestmöglich zu entsprechen?
Die Finanzierung der Krankenhäuser stellt eine vielschichtige, komplexe Rechtsmaterie dar, die seit Beginn der Dualen Finanzierung mit Einführung des Krankenhausfinanzierungsgesetzes (KHG) im Jahre 1972 mehreren Strukturreformen unterzogen wurde, mit der Zielsetzung einer wirtschaftlichen Sicherung der Krankenhäuser für eine leistungsfähige und bedarfsgerechte Versorgung der Bevölkerung.
Die ersten strukturierten Umweltschutzbemühungen in deutschen Krankenhäusern hatten ihren Ursprung in den achtziger Jahren und ihre Hochzeit bis Ende der neunziger Jahre, vorwiegend geprägt durch die besonderen Anforderungen an die Abfallentsorgung in den Kliniken. Danach traten die Strukturreformbemühungen zur Kostensenkung im Gesundheitswesen massiv in den Vordergrund. Umweltschutz im Krankenhaus findet aktuell insbesondere wieder Beachtung in der Problematik pharmakologischer Substanzen bei der Verabreichung von Medikamenten und Diagnostika, deren Wirkstoffe bereits heute zunehmend Probleme bei der Trinkwasseraufbereitung verursachen. Auch die kontinuierlich steigenden Energiekosten motivieren Krankenhäuser als Großverbraucher zur Einführung innovativer Energieversorgungskonzepte.
In diesem Zusammenhang stellt sich unweigerlich die Frage nach der Investitionskostenfinanzierung solcher Umweltschutzprojekte. Soweit diese Mittel nicht über die gesetzlich definierte Krankenhausfinanzierung erfolgt, kommt insbesondere die Inanspruchnahme weiterer Fördermittel in Frage. Hierbei sind generell auch die EU-rechtlichen Rahmenbedingungen des Beihilferechts zu beachten.
Zielsetzung dieser Arbeit ist insbesondere die Beantwortung der Frage, inwieweit die Inanspruchnahme staatlicher Fördermittel für Umweltschutzmaßnahmen im Krankenhaus den beihilferechtlichen Tatbestand erfüllt und ob diese als Dienstleistungen im allgemeinen wirtschaftlichen Interesse eingestuft werden können.
Eines der tragenden Elemente der Europäischen Union ist zweifelsohne die Erwartung, dass sich durch einen ausgeprägten und gut funktionierenden europäischen Binnenmarkt ökonomische Vorteile für alle Beteiligten ergeben. Ein grundsätzliches Paradigma ist in diesem Zusammenhang die Annahme, dass einheitliches Recht bei der Erreichung von vorhergenanntem Ziel helfen kann.
Die sogenannte „UGP-Richtlinie“Richtlinie zielt auf eine umfassendere Rechtsvereinheitlichung der Regulierung von unlauteren Geschäftspraktiken ab. Neben dem Ziel, den europäischen Binnenmarkt zu stimulieren, formuliert die Richtlinie als weiteres Ziel ein hohes Verbraucherschutzniveau. Dabei bezieht sich die Regulierungsvorgabe der Richtlinie ausschließlich auf Rechtsfälle für das Verhältnis Unternehmen-Verbraucher.
Der Mitgliedsstaat ist zur Umsetzung der Richtlinien der Europäischen Kommission verpflichtet. Um insbesondere einen hohen Grad an Rechtsvereinheitlichung erreichen zu können, wurde die UGP-Richtlinie seitens der Kommission als vollharmonisierend ausgeführt. Dies bedeutet, dass der mitgliedsstaatliche Gesetzgeber die Richtlinieninhalte in sein nationales Rechtssystem dergestalt umsetzen muss, dass sich weder eine schwächere noch eine strengere Regulierung ergibt, als in der Richtlinie vorgesehen. Während die Kodifizierung von Richtlinien ins nationale Recht schon allgemein meist nicht trivial ist, verschärft sich die Herausforderung bei der besonderen Form der vollharmonisierenden Richtlinien. Insbesondere wird dem Gesetzgeber die Möglichkeit versagt, durch ein Abweichen „nach oben“ eine verbesserte Einpassung in sein Rechtssystem vornehmen zu können. Es verbleibt dem Gesetzgeber daher sehr wenig oder sogar gar kein maßgeblicher Spielraum.
Im Rahmen dieser Arbeit werden die konkreten zentralen Schwierigkeiten und Fragestellungen, welche sich im Rahmen der UGP-Richtlinie und ihrer Umsetzung ergaben, betrachtet und bewertet. Dazu zählen unter anderem die Tatsache, dass eine Einfügung des auf den Verbraucherschutz ausgerichteten Regulierungskonzeptes der UGP-Richtlinie in das „Integrierte Modell“4 des deutschen Lauterkeitsrechts stattfinden musste. Ferner fußt die UGP-Richtlinie auf einer Generalklausel, deren Konkretisierung im Lichte der Richtlinien-konformität weitere Fragen aufwirft. Nicht zuletzt muss auch die Frage gestellt werden, wie es um das resultierende Verbraucherschutzniveau bestellt ist. Während in Ländern wie Deutschland bereits ein vergleichsweise hohes Verbraucherschutzniveau im Lauterkeitsrecht erreicht worden war, führt die „Deckelung“ durch die Vollharmonisierungspflicht hier möglicherweise zu einem Rückschritt; auch diese Fragestellung ist Bestandteil der Diskussion.
Vor der konkreten, am Referenzobjekt der UGP-Richtlinie geführten Diskussion, wird zunächst noch eine allgemeine Betrachtung der Harmonisierungsbestrebungen im Privatrecht vorgenommen. Dabei wird auch die „mildere“ Form der mindestharmonisierenden Richtlinien diskutiert. Einleitend wird noch eine hierauf gerichtete kurze Einführung in den europarechtlichen Kontext gegeben.
In the present master’s thesis we investigate the connection between derivations and
homogeneities of complete analytic algebras. We prove a theorem, which describes a specific set of generators
for the module of derivations of an analytic algebra, which map the maximal ideal of R into itself. It turns out, that this set has a structure similar to a Cartan subalgebra and contains
information regarding multi-homogeneity. In order to prove
this theorem, we extend the notion of grading by Scheja and Wiebe to projective systems and state the connection between multi-gradings and pairwise
commuting diagonalizable derivations. We prove a theorem similar to Cartan’s Conjugacy Theorem in the setup of infinite-dimensional Lie algebras, which arise as projective limits of finite-dimensional Lie algebras. Using this result, we can show that the structure of the aforementioned set of generators is an intrinsic property of the analytic algebra. At the end we state an algorithm, which is theoretically able to compute the maximal multi-homogeneity of a complete analytic algebra.
Mit der Arbeit wurde versucht einen Gestaltungsansatz für emergente Personalentwicklung zu erarbeiten, um Verhaltensänderungen sowie den Aufbau von Handlungskompetenz in Unternehmen schnell und hochwertig sicherzustellen. Ziel hierfür war es, auf Basis der Überlegungen zum emergenten Wandel die Determinanten für schnelle und gleichzeitig nachhaltige PE in weiteren themenverbundenen Theorien festzustellen, um sie anschließend konzeptionell aufzubereiten.
Um sich diesem Ziel anzunähern, verschaffte sich der Verfasser zunächst einen Überblick über das Themenfeld. So konnte festgestellt werden, in welchem Wirkungsgefüge sich Personalentwicklung und emergenter Wandel befinden. Es wurde schnell deutlich, dass Personalentwicklung eng mit dem organisationalen Wandel innerhalb eines komplexen Systems verbunden ist. Auf Basis der Anforderungen durch die sogenannte VUCA Arbeitswelt wurden relevante Begriffe hergeleitet und definiert. Anschließend wurden Kriterien entwickelt, die die Analyse weiterer Literatur auf der Suche nach Determinanten erleichtern. Mithilfe der theoretischen Aufarbeitung zum Themengebiet war es möglich Analyseobjekte zu definieren, die im direkten Zusammenhang mit den Herausforderungen der VUCA-Arbeitswelt stehen und die potenziell auch für emergente PE wichtig erscheinen.
Mittels einer explorativen Literaturanalyse wurden in den Themenbereichen Innovationsmanagement, Improvisation und agiles Lernen, Aspekte für die Gestaltung emergenter Personalentwicklung extrahiert und zusammengetragen. Der so entstandene Pool wurde in einer tabellarischen Gegenüberstellung weiter strukturiert und auf Kernaussagen reduziert, um schließlich einen Gestaltungsansatz ableiten zu können. Die wissenschaftliche Suchbewegung dieser Arbeit stützte sich inhaltlich auf die Bewältigung von Komplexität mittels agiler Handlungsweisen. Der Auftrag emergenter PE sollte hierbei sein, die Wirkung emergenten Wandels aus dem Umfeld einer Organisation abzumildern, indem durch die Ermöglichung emergenter Entwicklungsprozesse die Flexibilitätspotenziale ihrer Zielgruppen gefördert werden.
Durch New Public Management (NPM) und Governance Elemente sind eine Vielzahl von Veränderungsprozessen im Hochschulbereich angestoßen worden. Der Forschungs- und Bildungssektor wird mehr denn je auf Effektivität und Effizienz hin betrachtet. Hochschulleitungen stellen sich dem steigenden Wettbewerb, um die besten Studierenden und um die Zuteilung von Fördermitteln. Durch die Aufstellung von Leitbildern werden hochschuleigene Werte sichtbar und strategische Zielrichtungen formuliert. Es stellt sich die Frage, wie die formulierten Visionen und Missionen in den abgeleiteten Soll-Bildern auch in den Alltagsroutinen realisiert werden können. Dabei werden zunehmend auch veränderte Erwartungen an Führungskräfte und Organisationskultur formuliert. Ausgehend von der Forschungshypothese: Beratung, Coaching und Mentoring sind geeignete Kommunikationsinstrumente für Führungskräfte und Mitarbeitende, wenn Veränderungsprozesse im Hochschulbereich zu gestalten sind, werden Möglichkeiten und Grenzen dieser Instrumente aufgezeigt und ein Projektkonzept entwickelt, wie Leitbildthemen in den Hochschulalltag integriert werden können.
Ziel dieser Arbeit ist es, die aktuelle Problematik und den Stellenwert politischer
Bildung herauszuarbeiten. Kernfragen dieser Arbeit sind:
- Sind Volkshochschulen noch in der Lage – vor dem Hintergrund einer sich stärker
ausprägenden medialen Demokratie – Menschen abseits von „big data“ zu
erreichen?
- Welchen Einfluss haben die zunehmende Finanzschwäche der Kommunen und
der sich daraus ergebende „Sparzwang“ auf Angebote zur politischen Bildung?
- Gibt es einen Rückgang an Angeboten zur politischen Bildung bzw. kann davon
zu Recht gesprochen werden?
- Insofern ein negativer Trend erkennbar, wie kann dem entgegengewirkt werden?
In dieser Arbeit wird ein besonderes Augenmerk auf das Land Nordrhein-Westfalen gelegt.
Die Beziehungen zwischen Kulturbetrieben und Wirtschaftsunternehmen wird in der Forschung bis jetzt von den Perspektiven der Corporate Social Responsibility (CSR) und des Sponsorings aus wirtschaftszentriert theoretisiert.
Im regionalen Kontext (Oberfranken/Bayern), konzentriert auf Theaterbetriebe und die mit ihnen verbundenen Wirtschaftsunternehmen ergänzt die Forschungsarbeit die Erkenntnisse in diesem Bereich qualitativ-empirisch.
Dazu stützt sie sich auf Leitfadeninterviews mit für das Thema repräsentativen Vertretern der jeweiligen Seite. Diese wurden mithilfe der Qualitativen Experteninterviews-Methode von Robert Kaiser ausgewertet.
Es stellt sich heraus, dass die Vorteile für Wirtschaftsunternehmen in der internen Kommunikation (z.B. Mitarbeiterbindung) gleichberechtigt zu denjenigen in der externen Kommunikation (z.B. Imagegewinn) treten. Für die Theater steht die erhöhte Glaubwürdigkeit öffentlicher Unterstützer dank der Kooperation mit den Unternehmen über deren direkten finanziellen Zuwendungen.
Es ist von Interesse für kooperierende Theaterbetriebe und Wirtschaftsunternehmen, eine partnerschaftszentrierte Perspektive einzunehmen. Die Theater könnten aufgrund dieser Einstellung von der Expertise ihrer Partnerunternehmen profitieren, um eigene Organisationsprozesse zu optimieren.
Die Arbeit beschäftigt sich mit der Interkulturellen Kompetenz als pädagogische Schlüsselqualifikation in der Erwachsenenbildung. Es werden verschiedene Modelle zur Interkulturellen Kompetenz dargestellt. Der Erwerb Interkultureller Kompetenz wird erläutert und in den erwachsenenpädagogischen Zusammenhang eingeordnet. Es wird der Forschungsfrage nachgegangen, inwieweit die konstruktivistische
Erwachsenenbildung und der Emotionale Konstruktivismus den Erwerb Interkultureller Kompetenz von Lehrenden der Erwachsenenbildung unterstützen können. Fünf leitfadengestützte Interviews ergänzen die als Literaturarbeit konzipierte Masterarbeit.
Kapitel eins fokussiert auf die Forschungsfragen und Bezugstheorien der vorliegenden Arbeit. In Kapitel zwei geht es um die Darstellung des Anerkennungsbegriffs, Überlegungen zur Entwicklung von Anerkennungsverhältnissen und die drei für diese Arbeit wesentlichen Anerkennungstheorien von Wolfgang Müller-Commichau, Axel Honneth und Werner Nothdurft. Kapitel drei ist der 'Emotionalen Kompetenz' gewidmet und umfasst neben Definitionsversuchen die Beschreibung unterschiedlicher Aspekte emotionaler Kompetenz, die Darstellung der Begriffe Empathie, Verstehensfähigkeit, Introspektions- und Selbstreflexionsfähigkeit – Eigenschaften, die sowohl für die Suche als auch für das Geben von Anerkennung Bedeutung haben und schließt mit Überlegungen zur Förderung emotionaler Kompetenz in Kontexten der Erwachsenenbildung. In Kapitel vier gerät die Kommunikationsfähigkeit/Gesprächskompetenz in den Fokus. Nach einer Beschreibung der Begriffe werden Fragen dazu, wie gelingende Gespräche, wie ein verstehender Dialog aussehen könnte, thematisiert und wie Kommunikationsfähigkeit/ Gesprächskompetenz in erwachsenenpädagogischen Settings weiterentwickelt werden könnte. Kapitel fünf stellt anerkennende pädagogische Beziehungsgestaltungen ins Zentrum der Betrachtung. In den Fokus gelangen wechselseitige Anerkennungsverhältnisse (Beispiel Anerkennungsskulptur) und die bejahende/ ermöglichende bzw. begrenzende Perspektive (Verkennung, Missverstehen, ausbleibende Anerkennung) von Anerkennung. Kapitel sechs bringt eine Zusammenfassung der Ergebnisse, die in ihrer Relevanz für die Gestaltung von Anerkennungsverhältnissen in Kontexten der Erwachsenenbildung dargestellt werden. Am Ende des Kapitels geht es um Überlegungen zu einer Kultur der Anerkennung, um Anerkennung als Haltung. Das Schlusskapitel sieben bringt ein Resümee und einen Ausblick mit neuen Forschungsfragen zum Thema Anerkennung.
Bedeutung des Konzepts außerschulischer Lernorte für die Pflegeausbildung, Kompetenzentwicklung durch das Aufsuchen außerschulischer Lernorte, Anwendung des Konzepts außerschulischer Lernorte auf unterschiedliche pflegerelevante Themen, konkrete Umsetzungsstrategien für das Konzept außerschulischer Lernorte in der Pflegeausbildung
Optimal control of partial differential equations is an important task in applied mathematics where it is used in order to optimize, for example, industrial or medical processes. In this thesis we investigate an optimal control problem with tracking type cost functional for the Cattaneo equation with distributed control, that is, \(\tau y_{tt} + y_t - \Delta y = u\). Our focus is on the theoretical and numerical analysis of the limit process \(\tau \to 0\) where we prove the convergence of solutions of the Cattaneo equation to solutions of the heat equation.
We start by deriving both the Cattaneo and the classical heat equation as well as introducing our notation and some functional analytic background. Afterwards, we prove the well-posedness of the Cattaneo equation for homogeneous Dirichlet boundary conditions, that is, we show the existence and uniqueness of a weak solution together with its continuous dependence on the data. We need this in the following, where we investigate the optimal control problem for the Cattaneo equation: We show the existence and uniqueness of a global minimizer for an optimal control problem with tracking type cost functional and the Cattaneo equation as a constraint. Subsequently, we do an asymptotic analysis for \(\tau \to 0\) for both the forward equation and the aforementioned optimal control problem and show that the solutions of these problems for the Cattaneo equation converge strongly to the ones for the heat equation. Finally, we investigate these problems numerically, where we examine the different behaviour of the models and also consider the limit \(\tau \to 0\), suggesting a linear convergence rate.
Das „Herzstück der Gewährleistung“ in Unternehmenskaufverträgen bilden die Jahresabschlussgarantien, sog. Bilanzgarantien. Dabei sichert der Verkäufer dem Käufer auf der Tatbestandseite von Bilanzgarantien zu, dass der Jahresabschluss des Zielunternehmens in Übereinstimmung mit den gesetzlichen Vorschriften er-stellt wurde. Das Interesse des Verkäufers besteht darin, nach dem Verkauf des Unternehmens frei über den Kaufpreis verfügen zu können, ohne dass es zu einer Haftungsinanspruchnahme durch den Käufer kommt. Die Arbeit beschäftigt sich aus unternehmenspraktischer und juristischer Sicht mit den Rechtsfolgen bei Ein-tritt des Garantiefalls, insbesondere der Bilanzauffüllung im Lichte des Schadens-rechts der §§ 249 ff. BGB.
Informatorische Systeme finden zunehmend Eingang in Bildungseinrichtungen. „Schulen ans Netz“, eine 2012 abgeschlossene Förderinitiative des Bundesministeriums für Bildung und Forschung (BMBF) unter Beteiligung der Deutschen Telekom, ist ein Beispiel dafür. Das Land Rheinland-Pfalz stellt mit moodle@RLP Studienseminaren und Schulen eine kostenlose und wartungsfreundliche Lernplattform zur Verfügung. Neben dem Einsatz zu unterrichtlichen Zwecken legt der Verfasser das Augenmerk auf Möglichkeiten zur Optimierung schulorganisatorischer Arbeitsprozesse, zum Beispiel im Hinblick auf die Raum- und Gerätereservierung oder die Archivierung und Katalogisierung von Dokumenten und Unterrichtsmaterialien. Es werden hierzu notwendige Konfigurationseinstellungen erläutert und auf diese Weise eine virtuelle Organisationsstruktur einer Schule realisiert. Ihre Implementierung ist im Rahmen eines Schulentwicklungsprozesses an der IGS Wörth praktisch erprobt worden. Die hieraus gewonnenen Erkenntnisse bilden eine Basis für eine allgemeine, an der Praxis orientierten und theoretisch fundierten Handreichung zur Implementierung von moodle an Schulen. Insgesamt kommt die Studie zu dem Schluss, dass moodle durchaus eine Reihe an Möglichkeiten zur Verbesserung sowohl unterrichtlicher als auch schulorganisatorischer Aspekte besitzt, die jedoch nur dann zielführend ihre Wirkung entfalten können, wenn Schulentwicklungsprozesse erfolgreich durchgeführt werden. Hier kommt der Schulleitung eine Schlüsselrolle zu.
In Anbetracht leistungsschwacher öffentlicher Institutionen im subsaharischen Afrika formulierte die Weltbank in den neunziger Jahren ein Anforderungsprofil an den Staat und die öffentliche Verwaltung. Sie führte wesentliche Ursachen für die sozialen und ökonomischen Fehlentwicklungen im subsaharischen Afrika auf Defizite im institutionellen Umfeld von Staat und Verwaltung zurück. In der Folgezeit avancierte dieses Anforderungsprofil zum entwicklungspolitischen Leitbild des Good Governance.
Heute bildet das Thema einen elementaren Bereich der internationalen Entwicklungszusammenarbeit und einen zentralen Aspekt der entwicklungspolitischen Auseinandersetzung. Insbesondere die unterschiedlichen Auffassungen darüber, inwiefern Demokratisierungsforderungen mit dem Leitbild des Good Governance verknüpft werden sollten, sind immer wieder Gegenstand der wissenschaftlichen und der politischen Diskussion. Deutlich kommt in diesem Zusammenhang die Streitfrage zum Ausdruck, ob die Entwicklung eines Staates Demokratie voraussetzt oder ob die Demokratie umgekehrt vielmehr ein Ergebnis erfolgreicher Entwicklungsprozesse darstellt. Es ist anzumerken, dass die Entwicklungsforschung diese Frage bislang nicht widerspruchsfrei erklären konnte. Darüber hinaus sprechen zahlreiche Länderbeispiele vielmehr dafür, dass die Staatsform grundsätzlich nicht die entscheidende Variable bildet, um klare Erkenntnisse für die Begründung ökonomischen Wachstums bzw. für die Erfolge der Armutsbekämpfung abzuleiten. Es erscheint zunächst folgerichtig, dass die Weltbank in Bezug auf Good Governance keine Demokratisierungsforderungen stellt.
In der vorliegenden Ausarbeitung wird vor diesem Hintergrund untersucht, inwiefern sich die Staatsform eines Landes auf die Existenz der jeweiligen Prinzipien für Good Governance auswirkt. Anhand zweier ökonomisch erfolgreicher afrikanischer Länder wird analysiert, inwiefern entwicklungsförderliche Good Governance-Strukturen unabhängig von der jeweils vorherrschenden Staatsform existieren können. Methodisch wird dabei das Anforderungsprofil der Weltbank auf die Demokratie Mauritius und auf die Autokratie Ruanda angewendet.
Über 68 Millionen Menschen sind derzeit weltweit auf der Flucht. Flucht ist zwar kein neues Phänomen, 2015 stellte jedoch in Deutschland und Österreich eine Zäsur dar: Nie zuvor suchten so viele Menschen in diesen Ländern Schutz. Die Debatten um geflüchtete Menschen sind seither in Medien und Gesellschaft allgegenwärtig. Darauf hat natürlich der Kinder- und Jugendbuchmarkt reagiert: Von 2015 bis 2017 nahm die Zahl der Neuerscheinungen zum Thema Flucht enorm zu, der Markt boomte. Fast jeder Verlag versuchte etwas dazu zu publizieren. Sogenannte „Fluchtbücher“ standen weit oben auf den Bestsellerlisten.
Kinder- und Jugendbücher transportieren und vermitteln Bilder, Inhalte, Werte und natürlich auch Stereotype – positive wie negative – in einer Gesellschaft. Literatur spielt daher eine wichtige Rolle in der Sozialisation. Zudem kann Kinder- und Jugendliteratur gerade im Aspekt der Fremdheit zu einer Vermittlungsinstanz werden, weil sie das Eintauchen in Fremderfahrungen erlaubt, und kann so im besten Falle zu verbesserter Interkultureller Kommunikation beitragen.
Diese Masterarbeit untersucht ausgewählte Kinder- und Jugendbücher, die in den Jahren 2015 bis 2017 erschienen sind, auf Bild- und Textebene, inwieweit hier Aspekte der Interkulturellen Kommunikation zum Tragen kommen, welche Stereotype reproduziert werden, wie Fremderfahrungen ermöglicht und beschrieben werden. Interkulturelle Kommunikation wird hier also in ihrer künstlerischen Widerspiegelung untersucht.
Cutting-edge cancer therapy involves producing individualized medicine for many patients at the same time. Within this process, most steps can be completed for a certain number of patients simultaneously. Using these resources efficiently may significantly reduce waiting times for the patients and is therefore crucial for saving human lives. However, this involves solving a complex scheduling problem, which can mathematically be modeled as a proportionate flow shop of batching machines (PFB). In this thesis we investigate exact and approximate algorithms for tackling many variants of this problem. Related mathematical models have been studied before in the context of semiconductor manufacturing.
Untersuchungsgegenstand dieser Arbeit ist die Darstellung von wissenschaftlichen Erkenntnissen der Organisationstheorie und der educational governance Forschung über das Entstehen von öffentlichen Verwaltungen sowie deren Ansätze zur Reformierung. Die öffentliche Bildungsverwaltung in Niedersachsen wird an diese Erkenntnisse angelehnt und der Stand der Bildungsreform an den theoretischen Erkenntnissen gemessen. Ebenso wird das Geflecht der unterschiedlichen behördlichen Ebenen näher beleuchtet sowie deren Funktionalitäten bzw. Dysfunktionalitäten analysiert.
Die Arbeit stellt in Form eines Theorie-Praxis-Transfers eine Möglichkeit dar, der zunehmenden Heterogenität in der Schuleingangsphase durch die Bildung jahrgangsgemischter Klassen Rechnung zu tragen. Es werden Voraussetzungen, Mittel, Wege und Stolpersteine dargestellt und besonders die Aufgaben der Schulleitung als Verantwortliche des Schulentwicklungsprozesses dargestellt.
Berufliche Umbrüche sind Teil der Entwicklung eines Menschen. Sie berühren auch seine Persönlichkeit und seine Identität. Wann kann man von gelingender Identitätsentwicklung sprechen? Woran lässt sich diese festmachen? Kann berufsbiografische Diskontinuität einen gelingenden Beitrag zur Identitätsentwicklung darstellen? Und wenn ja, wie? Was bedeutet es, berufliche Umbrüche nicht nur anzunehmen, sondern auch zu gestalten, damit sie einen positiven Beitrag zur Identitätsentwicklung leisten? Welche Faktoren sind dafür förderlich? Und wie sollten diese Erkenntnisse in der erwachsenenbildnerischen Praxis berücksichtigt werden? Die Arbeit nimmt zunächst den Begriff der Identität in den Blick und wendet sich besonders dem Begriff der Anerkennung zu. Nach Betrachtungen zum Zusammenhang von Identität und Erwerbsarbeit sowie einem Überblick über die Phasen von Erwerbsbiografien werden erwachsenenpädagogische Überlegungen angestellt, die für Transitionsprozesse benötigte Kompetenzen ins Zentrum stellen und Konsequenzen für die Arbeit in Einrichtungen der Erwachsenenbildung darstellen.
Trotz der - theoretisch über die konstruktivistische Systemtheorie begründeten und durch die Organisationsforschung empirisch belegten - zentralen Rolle der Prozesse in der Einzelschule für die Gestaltung von Schulentwicklung, werden durch die Bildungspolitik über die Gestaltung der Systemumwelt wesentliche Impulse für diese Entwicklungsprozesse gesetzt, diese rechtlich und im Bereich der Ressourcen ermöglicht oder eben auch auf diesem Wege blockiert.
In der Arbeit wird ein Modell zur Bestimmung wesentlicher Einflussfaktoren auf bildungspolitische Schulreformen im Bereich institutioneller und parteipolitischer Vetospieler, Interessengruppen der Stakeholder, Medien sowie wissenschaftlicher Akteure entwickelt, über das deren Rationalisierungspotential im Sinne einer stärkeren Evidenzbasierung bildungspolitischer Entscheidungen, ihre Einflussstärke und Implementationsstärke bestimmbar werden. Exemplarisch wird dieses Modell im Anschluss auf die institutionelle Neubestimmung der Evidenzbasierung in Baden-Württemberg angewandt.
Erfolgreiches Compliance-Management basiert unverzichtbar auf einer gelebten, authentischen, wertegeleiteten Compliance-Kultur als Teil der Organisationskultur. Organisationskulturen sind zwar von außen nicht instruktiv plan- und steuerbar, doch durch gezielte systemische Interventionen beeinflussbar.
Eine nachhaltige Compliance-Kultur beinhaltet die fortwährende Kommunikation der Organisationsmitglieder über individuelle und organisationale Annahmen, Werte, Denk- und Verhaltensmuster und einer daraus resultierenden gemeinsamen Auffassung über die Bedeutung von Compliance in der Organisation.
Wirksame Interventionen systemischer Beratung setzen an den mentalen Modellen an und nicht an formalen Regeln und Kontrollmechanismen. Compliance-Management das vorwiegend auf Kontrolle und damit auf individuelles Fehlverhalten blickt, ignoriert die organisationalen Kontexte und kann aus systemischer Sicht nicht langfristig erfolgreich sein.
Den Führungskräften kommt bei der Verankerung von Compliance in der Organisation besondere Bedeutung zu.
Für systemische Berater*innen gilt es, dem Klientensystem Musterunterbrechungen und neue Handlungsoptionen durch passende Prozessbegleitung und Interventionssetzung zu ermöglichen. Dabei zielen alle Interventionen auf die Reflexion persönlicher und organisationaler mentaler Modelle und die Entwicklung der eigenständigen und verantwortlichen Handlungsfähigkeit der Organisationsmitglieder auf Basis der gemeinsamen Compliance-Kultur.
Compliance ist ein andauernder Change-Prozess und somit Teil der allgemeinen Veränderungsfähigkeit von Organisationen. Dieser Prozess zur integren Organisation muss sowohl auf personaler wie auf organisationaler Ebene stattfinden. Die Wechselwirkungen haben nicht nur Einfluss auf das Thema Compliance, sondern wirken positiv auf das Gesamtsystem als lernende und reflektierende Organisation.
Die systemische Beratung kann das Compliance-Management bei der Verankerung einer Compliance-Kultur in Organisationen nachhaltig unterstützen, indem Beteiligte in den Veränderungsprozess aktiv mit einbezogen werden, neue Perspektiven eröffnet, implizites Wissen sichtbar gemacht und grundlegende Annahmen reflektiert werden.
In Vergabeverfahren muss nicht zwingend das billigste Angebot den Zuschlag erhalten. Die Wirtschaftlichkeit bestimmt sich vielmehr nach dem besten Preis-Leistungs-Verhältnis. Und hier kann neben dem Preis oder den Kosten die Leistungsstärke (Qualität, Innovation, Nachhaltigkeit, etc.) der Angebote eine wesentliche Rolle als zulässiges Zuschlagskriterium spielen.
Die Arbeit betrachtet neben der Begrifflichkeit des wirtschaftlichsten Angebots die Zulässigkeit, Angemessenheit und die Anwendbarkeit des Zuschlagskriteriums Nachhaltigkeit (umweltbezogene Aspekte, soziale Aspekte) zur Bestimmung des wirtschaftlichsten Angebots. Dabei werden die Anforderungen an die Transparenz und einen wirksamen Wettbewerb untersucht.
Neben der Angemessenheit des Zuschlagskriteriums Nachhaltigkeit und dem Bestimmungsrecht des Auftraggebers wird auch die Messbarkeit und Bewertbarkeit sowie die Bewertungsspielräume der Auftraggeber und die mögliche Verletzung von Bieterrechten betrachtet.
Außerdem wird die Frage untersucht, ob und wie Nachhaltigkeit als Zuschlagskriterium mit den Handlungsprinzipien von Wirtschaftlichkeit und Sparsamkeit des Haushaltsrechts vereinbar sind.
Das zentrale Erkenntnisinteresse der Masterarbeit besteht darin, nachzuvollziehen, wie es dazu kommt, dass sich Menschen im 3. Lebensalter kulturell bilden und engagieren. Genauer sollen Hypothesen dazu abgeleitet werden, welche Voraussetzungen und Umstände begünstigen, dass Ältere an selbsttätigen Angeboten kultureller Bildung teilnehmen. Dieser Frage wird am Beispiel von Teilnehmenden von Alten- bzw. Mehrgenerationstheatergruppen in einer Großstadt in Norddeutschland nachgegangen.
Im ersten Teil der Arbeit werden für die Fragestellung relevante Aspekte zu den Themen Alter und Altern, Bildung im Alter, kulturelle Erwachsenenbildung und Theaterspielen im Alter aufgegriffen und aktuelle Forschungsstände skizziert. Herausforderungen der Lebensphase Alter werden besprochen und in Beziehung gesetzt zu den Themen und Möglichkeiten der (kulturellen) Erwachsenenbildung.
Im zweiten Teil der Arbeit folgt die Darstellung der empirischen Untersuchung, in welcher anhand qualitativer Leitfadeninterviews zur Fragestellung geforscht wurde. Hierzu wurden Teilnehmende im 3. Lebensalter befragt, die sich in Alten- oder Mehrgenerationstheatergruppen betätigen. Methoden und Ablauf der Untersuchung werden beschrieben und die Ergebnisse im Anschluss dargestellt, interpretiert und diskutiert. Die Arbeit schließt mit einem Ausblick und einem resümierenden Fazit.
In dieser Masterarbeit wird die Bedeutung von Haltung im Lehr-Lern-Prozess der Erwachsenenbildung theoriebasierend reflektiert und diskutiert. Zur theoretischen Grundlegung der aufgeworfenen Thematik wurde eine Literaturarbeit erstellt mit der erkenntnisleitenden Fragestellung: Warum bedarf es einer Haltung der Anerkennung in der heilpädagogischen Lehre, die einen Begegnungsraum eröffnet und eine Seins-Werdung im Dialog ermöglicht?
Die Haltung, betrachtet als das Sein des Pädagogen, wird mittels einer historischen Skizzierung entfaltet und philosophisch-anthropologisch grundgelegt.
Daran schließt sich ein Diskurs aus drei unterschiedlichen Perspektiven an: Die erste ist die systemisch-konstruktivistische Bildungstheorie Bezug nehmend zu Niklas Luhmann und Horst Siebert sowie Rolf Arnold aus der Erwachsenenbildung. Die zweite fußt auf der kritischen Subjekttheorie basierend auf Max Horkheimer/Theodor W. Adorno, Axel Honneth und Erhard Meueler als Vertreter der Erwachsenenbildung. Die dritte bezieht sich auf die religions-philosophische Theorie von Romano Guardini und Martin Buber als konzeptionelle Entwickler von Angeboten in der Erwachsenenbildung. Es werden die unterschiedlichen Ausrichtungen verglichen, sodass in den Widersprüchen der Perspektiven die Bedeutung der Haltung in ihrer Vielschichtigkeit sichtbar wird.
Aus diesem Diskurs heraus wurde der Versuch unternommen, einen verstehenden Zugang zum Anerkennungskonzept zu bahnen. Als Referenzpunkt dieser Arbeit wird das von Wolfgang Müller-Commichau entwickelte Konzept für die Erwachsenenbildung herangezogen, theoretisch begründet hergeleitet und ausführlich dargelegt. In einem hermeneutischen Zirkel erforscht er die pädagogischen Spannungsfelder und lässt in einem kreativ-konstruierenden Prozess einen intersubjektiven Begegnungsraum im Lehr-Lern-Prozess entstehen, in dem eine Pendelbewegung zwischen Selbst-Referenz und Fremd-Erwartung ermöglicht wird.
Die wertschätzende und respektvolle Haltung der Anerkennung gilt auch für die Bildungsprozesse in der Heilpädagogik, die in einem abschließenden Kapitel mit Impulsen für die Gestaltung von Lehr-Lern-Prozessen praxisbezogen konkretisiert werden.
Ziele der Bildungsangebote zur Heilpädagogik sind somit die Haltungsbildung und der Erwerb von Handlungskompetenzen. Über die Anerkennung im Dialog wird eine Haltungsbildung auf sozial-emotionaler Ebene angeregt, die vorrangig ist vor jeder kognitiven Theoriebildung, um das Sein der Heilpädagogin auszubilden und den Anforderungen der Praxis gerecht zu werden. Dieses Ergebnis der vorliegenden Masterarbeit schließt mit einem Zitat ab: „Wesenhafte Bildung wurzelt nicht im Wissen, sondern im Sein“ (Romano Guardini).