Masterarbeit
Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit (98) (entfernen)
Schlagworte
- CoMo-Kit (5)
- Case-Based Planning (4)
- Fallbasiertes Schliessen (3)
- Bildung (2)
- Case-Based Reasoning (2)
- Decision Trees (2)
- Entscheidungsbäume (2)
- Erwachsenenbildung (2)
- Fallbasierte Planning (2)
- Governance (2)
Fachbereich / Organisatorische Einheit
Mit der Arbeit wurde versucht einen Gestaltungsansatz für emergente Personalentwicklung zu erarbeiten, um Verhaltensänderungen sowie den Aufbau von Handlungskompetenz in Unternehmen schnell und hochwertig sicherzustellen. Ziel hierfür war es, auf Basis der Überlegungen zum emergenten Wandel die Determinanten für schnelle und gleichzeitig nachhaltige PE in weiteren themenverbundenen Theorien festzustellen, um sie anschließend konzeptionell aufzubereiten.
Um sich diesem Ziel anzunähern, verschaffte sich der Verfasser zunächst einen Überblick über das Themenfeld. So konnte festgestellt werden, in welchem Wirkungsgefüge sich Personalentwicklung und emergenter Wandel befinden. Es wurde schnell deutlich, dass Personalentwicklung eng mit dem organisationalen Wandel innerhalb eines komplexen Systems verbunden ist. Auf Basis der Anforderungen durch die sogenannte VUCA Arbeitswelt wurden relevante Begriffe hergeleitet und definiert. Anschließend wurden Kriterien entwickelt, die die Analyse weiterer Literatur auf der Suche nach Determinanten erleichtern. Mithilfe der theoretischen Aufarbeitung zum Themengebiet war es möglich Analyseobjekte zu definieren, die im direkten Zusammenhang mit den Herausforderungen der VUCA-Arbeitswelt stehen und die potenziell auch für emergente PE wichtig erscheinen.
Mittels einer explorativen Literaturanalyse wurden in den Themenbereichen Innovationsmanagement, Improvisation und agiles Lernen, Aspekte für die Gestaltung emergenter Personalentwicklung extrahiert und zusammengetragen. Der so entstandene Pool wurde in einer tabellarischen Gegenüberstellung weiter strukturiert und auf Kernaussagen reduziert, um schließlich einen Gestaltungsansatz ableiten zu können. Die wissenschaftliche Suchbewegung dieser Arbeit stützte sich inhaltlich auf die Bewältigung von Komplexität mittels agiler Handlungsweisen. Der Auftrag emergenter PE sollte hierbei sein, die Wirkung emergenten Wandels aus dem Umfeld einer Organisation abzumildern, indem durch die Ermöglichung emergenter Entwicklungsprozesse die Flexibilitätspotenziale ihrer Zielgruppen gefördert werden.
Zur Untersuchung des Abflussverhaltens gängiger Befestigungsarten wurden mit Hilfe des Modells KOSMO Niederschlag-Abfluss-Simulationen durchgeführt. Betrachtet wurden hier-bei sowohl Einheitsflächen als auch ganze Einzugsgebiete verschiedener städtebaulicher Struktur. Die Berechnungen erfolgten unter Vorgabe empfohlener Verlustparameter zur Benetzung und zur Muldenauffüllung sowie angepasster Parameterwerte zur Beschreibung der Versickerung. Die Abflusssimulationen wurden für ein weitreichendes Spektrum bemessungsrelevanter Niederschlagsbelastungen vollzogen. Es wurden Einzelregen konstanter und variabler Intensität unterschiedlicher Regendauer sowie eine neunmonatige Nieder-schlagsreihe simuliert. Aus der Bilanzierung des Niederschlag-Abfluss-Prozesses wurden die verschiedenen Abflussbeiwerte der unterschiedlichen Flächenarten ermittelt. Die Modellsimulationen haben gezeigt, dass eine signifikante Abhängigkeit der rechneri-schen Abflussbeiwerte von der zugrunde gelegten Niederschlagsbelastung besteht, die mit zunehmender Versickerungsfähigkeit der Flächen ansteigt. Während die weitestgehend undurchlässigen Flächentypen recht konstante Werte aufweisen, sind die Abflussbeiwerte der durchlässig befestigten Flächen großen niederschlagsbedingten Schwankungen von bis zu 0,5 unterlegen. Hierbei spielen sowohl die Regenintensität als auch die Regendauer und der zeitliche Verlauf des Regens eine Rolle. Die Berechnungsergebnisse für den mittleren Abflussbeiwert, den Endabflussbeiwert sowie den Spitzenabflussbeiwert zeigten für die Simulation von Einzelereignissen unter Berück-sichtigung der belastungsbezogenen Abhängigkeit eine gute Übereinstimmung mit den Richtwerten. Den Berechnungen des mittleren Abflussbeiwertes und des Endabflussbeiwertes wurden hierbei wesentlich geringere Parameterwerte zur Versickerung zugrunde gelegt als für den Spitzenabflussbeiwert, für den die Richtwerte nur mit deutlich höher angesetzten Infiltrationsleistungen bestätigt werden konnten. Diese Versickerungsleistungen liegen zwar noch deutlich unter den von Borgwardt und Muth in neueren Untersuchungen festgestellten Werten und sind somit wissenschaftlich begründet. Dennoch erscheint es fraglich, ob das Versickerungsvermögen durchlässig befestigter Flächen tatsächlich derart hoch ist. Diese Frage kann jedoch anhand der vorliegenden Untersuchung nicht geklärt werden. Des Weiteren wurde festgestellt, dass die Langzeitsimulation von Niederschlagsreihen mit den an Einzelereignisse angepassten Modellparametern sehr geringe Ergebniswerte für den mittleren Abflussbeiwert und teilweise auch für den Endabflussbeiwert der durchlässigen Flächenbefestigungen liefert. Hier stellt sich die Frage, ob der Abflussbeitrag von diesen Flächen im Jahresmittel tatsächlich derart gering ausfällt. Dies wäre aufgrund der Abhängigkeit der Abflussbeiwerte von der Regenbelastung durchaus plausibel, da ein Großteil der jährlichen Niederschlagsereignisse nur geringe Intensitäten aufweist. Der Ansatz geringerer Parameterwerte zur Versickerung erscheint im Hinblick auf die in der Literatur genannten Untersuchungsergebnisse nicht sinnvoll. Darüber hinaus trat hinsichtlich der Endabflussbeiwerte die Problematik auf, dass sich aus der Definitionsgleichung für stark durchlässige Flächenbefestigungen unzutreffenden Werte ergeben. Die Langzeitsimulation von Einzugsgebieten mit einem hohen Anteil versickerungsintensiver Flächen muss daher als problematisch beurteilt werden. Betrachtungen zur Genauigkeit der durchgeführten Untersuchungen (hier nicht aufgeführt) haben gezeigt, dass zahlreiche gebiets- und modellspezifische Faktoren Einfluss auf die Zuverlässigkeit der Berechnungsergebnisse haben. Die rechnerischen Abflussbeiwerte weisen insbesondere hinsichtlich der Parameterwerte im Versickerungsansatz nach Horton eine starke Sensitivität auf, die bei der Anwendung von Abflussmodellen zur Berechnung des Oberflächenabflusses berücksichtigt werden muss. Aufgrund der im Rahmen dieser Arbeit durchgeführten Modellberechnungen kann die Kompatibilität von Berechnungen des Oberflächenabflusses durch Abflusssimulation mit den empfohlenen Standardwerten der einschlägigen Literatur grundsätzlich festgestellt werden. Durch die Anwendung gängiger Modellansätze zur Beschreibung der Abflussbildung unter Ansatz angepasster Parameterwerte können insbesondere bei der Simulation von Einzelereignissen weitgehend übereinstimmende Ergebnisse erzielt werden. Es ist jedoch zu beachten, dass die Simulationsergebnisse entscheidend von der angesetzten Niederschlagsbelastung bestimmt werden, so dass die Anwendung von Berechnungsmodellen nur bezogen auf bestimmte Niederschlagsbelastungen erfolgen kann. Darüber hinaus empfiehlt es sich dringendst, das eingesetzte Modell vorab unter Berück-sichtigung der gebietsspezifischen Gegebenheiten bezüglich der angesetzten Parameterwerte zu eichen. Die Anwendung von Abfluss- und Schmutzfrachtmodellen setzt daher stets voraus, dass die abflussrelevanten Randbedingungen sorgfältig erfasst und bei der Abflusssimulation ausreichend berücksichtigt werden. Die Anwendung von Abflussmo-dellen zur Berechnung des Oberflächenabflusses ist insbesondere im Hinblick auf eine differenzierte Betrachtung der Teilflächen und der Berücksichtigung des Versickerungsbei-trages durchlässiger Befestigungsarten sinnvoll, während diesbezüglich die Angaben des ATV-Arbeitsblattes A 118 nicht ausreichend sind. Des Weiteren machten die Untersuchungen deutlich, dass der derzeitige Kenntnisstand bezüglich des Infiltrationsvermögens durchlässig befestigter Flächen nicht ausreicht. Die vorzugebenden Modellparameter zur Versickerung sind bislang noch mit größeren Unsicherheiten behaftet, die sich unmittelbar auf die Zuverlässigkeit der Berechnungsergebnisse niederschlagen. Hier werden langfristige und großflächig angelegte Freilandmessungen empfohlen, die zur Erarbeitung von Versickerungswerten als Eingangsgrößen in die Abflussberechnungen und zur Festlegung von Abflussbeiwerten dienen können.
Das Thema dieser Arbeit ist die Erweiterung von CoMo-Kit um eine Zeitplanungskomponente. Man möchte Informationen über die Dauer der einzelnen Teilaufgaben gewinnen und diese zu Dauern der übergeordneten abstrakten Aufgaben abschätzen. Auf diese Weise kann sich ein Manager über die voraussichtliche Gesamtdauer des Projektes und dessen Fortgang informieren. Dazu werden frühestmögliche und spätestmögliche Anfangs- und Endzeitpunkte der Vorgänge berechnet. Die Differenz zwischen frühesten und spätesten Zeitpunkten gibt dem Projektmanager eine Aussage über den Dispositionsspielraum der einzelnen Vorgänge. Ist kein Spielraum vorhanden, kann man erkennen, daß dieser Vorgang die Projektdauer determiniert und eventuell für Verzögerungen verantwortlich sein kann. Im Rahmen dieser Diplomarbeit ist das Verfahren der Allgemeine Hierarchischen Netzplantechnik entwickelt und als Zeitplanungskomponente in das System CoMo-Kit integriert worden.
Die Arbeit fokussiert sich auf die Frage, ob unter bestimmten individuellen Bedingungen der Lehrkräfte und unter Berücksichtigung der organisationalen Bedingungen, die Implementierung von iPads zu einer Veränderung der Lehr- und Lernprozesse führt, die einen problemorientierten, schülerzentrierten Unterricht favorisieren. Zuerst werden die Potentiale der Informations- und Kommunikationstechnik beschrieben, das „iPad“ vorgestellt und die verschiedenen Unterrichtsformen definiert. Danach werden die einzelnen Bedingungsfaktoren für den iPad-Einsatz auf Individuallevel sowie auf der Ebene der Organisation Schule aufgezählt, die Begrifflichkeiten geklärt und jeweils ein Bezug zur praktischen Umsetzung hergestellt. Anhand der Literatur zu theoretischen und empirischen Arbeiten wird versucht, eine Antwort auf die Frage zu finden, welche Bedingungen für eine qualitativ hochwertige Implementierung von iPads notwendig sind. Abschließend werden diese Innovationsbedingungen kritisch reflektiert und die wichtigsten Erkenntnisse herausgestellt, um den Prozess einer iPad-Implementierung an einer Grundschule anzuregen und Empfehlungen zu einem iPad-Konzept zu geben.
Eines der tragenden Elemente der Europäischen Union ist zweifelsohne die Erwartung, dass sich durch einen ausgeprägten und gut funktionierenden europäischen Binnenmarkt ökonomische Vorteile für alle Beteiligten ergeben. Ein grundsätzliches Paradigma ist in diesem Zusammenhang die Annahme, dass einheitliches Recht bei der Erreichung von vorhergenanntem Ziel helfen kann.
Die sogenannte „UGP-Richtlinie“Richtlinie zielt auf eine umfassendere Rechtsvereinheitlichung der Regulierung von unlauteren Geschäftspraktiken ab. Neben dem Ziel, den europäischen Binnenmarkt zu stimulieren, formuliert die Richtlinie als weiteres Ziel ein hohes Verbraucherschutzniveau. Dabei bezieht sich die Regulierungsvorgabe der Richtlinie ausschließlich auf Rechtsfälle für das Verhältnis Unternehmen-Verbraucher.
Der Mitgliedsstaat ist zur Umsetzung der Richtlinien der Europäischen Kommission verpflichtet. Um insbesondere einen hohen Grad an Rechtsvereinheitlichung erreichen zu können, wurde die UGP-Richtlinie seitens der Kommission als vollharmonisierend ausgeführt. Dies bedeutet, dass der mitgliedsstaatliche Gesetzgeber die Richtlinieninhalte in sein nationales Rechtssystem dergestalt umsetzen muss, dass sich weder eine schwächere noch eine strengere Regulierung ergibt, als in der Richtlinie vorgesehen. Während die Kodifizierung von Richtlinien ins nationale Recht schon allgemein meist nicht trivial ist, verschärft sich die Herausforderung bei der besonderen Form der vollharmonisierenden Richtlinien. Insbesondere wird dem Gesetzgeber die Möglichkeit versagt, durch ein Abweichen „nach oben“ eine verbesserte Einpassung in sein Rechtssystem vornehmen zu können. Es verbleibt dem Gesetzgeber daher sehr wenig oder sogar gar kein maßgeblicher Spielraum.
Im Rahmen dieser Arbeit werden die konkreten zentralen Schwierigkeiten und Fragestellungen, welche sich im Rahmen der UGP-Richtlinie und ihrer Umsetzung ergaben, betrachtet und bewertet. Dazu zählen unter anderem die Tatsache, dass eine Einfügung des auf den Verbraucherschutz ausgerichteten Regulierungskonzeptes der UGP-Richtlinie in das „Integrierte Modell“4 des deutschen Lauterkeitsrechts stattfinden musste. Ferner fußt die UGP-Richtlinie auf einer Generalklausel, deren Konkretisierung im Lichte der Richtlinien-konformität weitere Fragen aufwirft. Nicht zuletzt muss auch die Frage gestellt werden, wie es um das resultierende Verbraucherschutzniveau bestellt ist. Während in Ländern wie Deutschland bereits ein vergleichsweise hohes Verbraucherschutzniveau im Lauterkeitsrecht erreicht worden war, führt die „Deckelung“ durch die Vollharmonisierungspflicht hier möglicherweise zu einem Rückschritt; auch diese Fragestellung ist Bestandteil der Diskussion.
Vor der konkreten, am Referenzobjekt der UGP-Richtlinie geführten Diskussion, wird zunächst noch eine allgemeine Betrachtung der Harmonisierungsbestrebungen im Privatrecht vorgenommen. Dabei wird auch die „mildere“ Form der mindestharmonisierenden Richtlinien diskutiert. Einleitend wird noch eine hierauf gerichtete kurze Einführung in den europarechtlichen Kontext gegeben.
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Urbane Ernährungsstrategien decken eine Bandbreite an Wirkungsfeldern im Gefüge einer Stadt und dem dazugehörigen Nahrungssystem ab. Sie sind unter anderem in der Lage, für sicheren Zugang zu gesunden Lebensmitteln zu sorgen, lokale Wirtschaftskreisläufe zu fördern, relevante Stakeholder zusammen zu führen oder auch negative Umwelteinflüsse einzudämmen. Mithilfe digitaler Lösungen lassen sich effiziente und nachhaltige Ansätze für die raumplanerischen Herausforderungen im Zusammenhang mit urbanen Ernährungsstrategien finden.
Urbane Ernährungsstrategien als auch digitale Methoden repräsentieren wissenschaftliche Forschungsschwerpunkte mit vielfältigen Potentialen, deren Symbiose eine Bandbreite an Multiplikatoreffekten herzustellen vermag. So können entsprechende Strategien wesentlich von digitalen Herangehensweisen wie Echtzeitvisualisierung, Crowdmapping, Online-Verkaufsplattformen, urbane Emotionsmessung etc. profitieren.
Anhand von verschiedenen digitalen Methoden werden in dieser Arbeit die Möglichkeiten für deren Einsatz im Rahmen von urbanen Ernährungsstrategien untersucht und darüber hinaus wird diskutiert, inwieweit ein Mehrwert für letztere entstehen kann.
Die wissenschaftliche Auseinandersetzung mit dieser Thematik ist von besonderer fachlicher Relevanz, da die beiden noch jungen Forschungsdisziplinen in Kombination bislang unzureichende Aufmerksamkeit erhalten haben. Untermauert wird diese Erkenntnis durch die mangelhafte Datenlage zu diesem thematischen Zweiklang.
Mithilfe entsprechender digitaler Lösungsansätze können Planer mit verhältnismäßig geringem Aufwand nachhaltigen Mehrwert bewirken und zielgerichtet qualitativ hochwertige Maßnahmen im Zusammenhang mit urbanen Ernährungsstrategien durchführen. Dies wird zudem durch einen auf die Bedürfnisse der urbanen Ernährungsstrategien und digitalen Methoden abgestimmten Workflow gewährleistet.
Elektronen in einem kristallinen Festkörper oder, allgemeiner formuliert, Teilchen in einem räumlich periodischen Potential bilden ein System, das schon seit den Anfängen der Quantenmechanik von fundamentalem Interesse ist. Ein wichtiges physikalisches Problem ist dabei die Berechnung der quantenmechanischen Zustände solcher Teilchen, die zusätzlich einem homogenen elektrischen Feld ausgesetzt sind. Die exakte Lösung dieses Problems ist jedoch selbst für eindimensionale Systeme nicht möglich, da der Versuch einer analytischen Berechnung auf unüberwindliche mathematische Probleme stößt. Diese versuchte Wannier 1960 zu umgehen, indem er die nach ihm benannten Wannierzustände einführte. Mit seiner Veröffentlichung stieß er eine jahrzehntelange Diskussion an. Vor allem die Begriffe Blochoszillationen, Zener-Tunneln und Wannier-Stark-Quantisierung standen im Mittelpunkt einiger Kontroversen. Ein physikalisch wichtiges Ergebnis der Diskussion ist die Erkenntnis, daß es sich bei den Eigenzuständen des betrachteten Systems um Resonanzen, d.h. metastabile Zustände, handelt, die sich auf eine ganz bestimmte Art und Weise anordnen lassen. Jede Resonanzenergie ist nämlich Teil einer Folge von äquidistanten Energieeigenwerten, den sogenannten Wannier-Stark-Leitern. Die Wannier-Stark-Quantisierung wurde zuvor lange Zeit in Frage gestellt, denn Zak zeigte, daß der Hamiltonoperator des Systems ein kontinuierliches Spektrum besitzt und widersprach damit der Aussage, das Systeme habe diskrete Energieeigenwerte. Tatsächlich ist das Spektrum, wenn man nur die reelle Achse betrachtet, kontinuierlich. Die Diskretisierung ergibt sich erst, wenn man zur Betrachtung der komplexen Ebene übergeht. Den ersten experimentellen Hinweis auf die Existenz von Wannier-Stark-Leitern fand man in Versuchen zur optischen Absorption in einem Festkörperkristall. In jüngster Zeit wurde das Interesse an diesem Gebiet der Physik durch Experimente mit Halbleiter-Übergittern und optischen Gittern erneut geweckt, denn man findet hier weitere Realisierungen des untersuchten Hamiltonoperators. Insbesondere erweisen sich neutrale Atome in stehenden Laserwellen als geeignete Studienobjekte. Die Untersuchungen mit Hilfe dieser Experimente haben den Vorteil, daß sie nicht wie Versuche mit Elektronen in Festkörpern durch spezifische Probleme wie Gitterfehler, Verunreinigungen, Phonon-Elektron-Wechselwirkung, Elektron-Elektron-Wechselwirkung, etc. gestört werden. Genauer gesagt, viele theoretische Aussagen über das System lassen sich erst durch das Fehlen der festkörpereigenen Störeinflüsse experimentell überprüfen. Andererseits lösen die neuen Ergebnisse der Experimentalphysik eine Weiterentwicklung der zugehörigen Theorie aus. Den Ausgangspunkt der Untersuchungen zu dieser Thematik in unserer Arbeitsgruppe bildete die Entwicklung einer effizienten Methode zur Berechnung von Wannierzuständen. Anschließend wurden verschiedene Aspekte des Wannier-Stark-Systems betrachtet, u.a. die Auswirkungen eines zusätzlichen zeitperiodischen äußeren Feldes, wie es beispielsweise im Experiment auftaucht. Die vorliegende Arbeit soll in diesem Zusammenhang klären, wie die Lebensdauer der Wannier-Stark-Resonanzen durch den periodischen Antrieb beeinflußt wird.