The 10 most recently published documents
Lewin hat mit seinen Arbeiten und insbesondere mit seinem Drei-Phasen-Modell zur Korrektur eines technischen zugunsten eines sozialen Verständnisses von Organisationen beigetragen und die Kommunikation wieder in die Organisation eingeführt. Lewin wird aufgrund seines wissenschaftlichen Einflusses als einer der Gründungsväter der Organisationsentwicklung (OE) bezeichnet. Es stellt sich somit die Frage, inwiefern diese Konzepte heute noch immer Relevanz haben und hilfreich bei der Bewältigung der Herausforderung der digitalen Transformation sein können. Im Mittelpunkt dieser Arbeit steht nicht die digitale Transformation mit Blick auf die Fachlichkeit, z.B. im betriebswirtschaftlichen oder technologischen Sinne. Es geht vielmehr um eine ganzheitliche Betrachtung auf allen Handlungsfeldern mit besonderem Fokus auf die Organisationsentwicklung, damit die Mitglieder einer Organisation die Herausforderung der digitalen Transformation bewältigen können. In der Literatur gibt es eine Vielzahl von phasenbasierten Change-Modellen. Dagegen scheint die Auseinandersetzung mit der digitalen Transformation im Sinne eines ganzheitlichen Wandels aus Organisationsentwicklungsperspektive noch am Anfang zu stehen
Auf Basis des beschriebenen Theorie- und Praxisdefizits ist die Kernfrage dieser Arbeit, was Lewins Drei-Phasen-Modell in der digitalen Transformation aus der Perspektive der Organisationsentwicklung leisten kann. Im Zentrum steht die Frage, wie Organisationen das Drei-Phasen-Modell von Kurt Lewin bewusst nutzen können, um den organisatorischen Wandel im Zuge der digitalen Transformation bestmöglich zu bewältigen. Ziel dieser Arbeit ist die Entwicklung eines Praxis-Modells, welches als Modellbaukasten für jegliche Organisationen verstanden werden kann, um einen bewussten Ein- und Umstieg in die jeweilige Phase des Wandels zu gestalten und dafür passende Organisationsentwicklungs-Methoden und Werkzeuge zu identifizieren.
In recent years, business intelligence applications become more real-time and traditional data warehouse tables become fresher as they are continuously refreshed by streaming ETL jobs within seconds. Besides, a new type of federated system emerged that unifies domain-specific computation engines to address a wide range of complex analytical applications, which needs streaming ETL to migrate data across computation systems.
From daily-sales reports to up-to-the-second cross-/up-sell campaign activities, we observed various latency and freshness requirements set in these analytical applications. Hence, streaming ETL jobs with regular batches are not flexible enough to fit in such a mixed workload. Jobs with small batches can cause resource overprovision for queries with low freshness needs while jobs with large batches would starve queries with high freshness needs. Therefore, we argue that ETL jobs should be self-adaptive to varying SLA demands by setting appropriate batches as needed.
The major contributions are summarized as follows.
• We defined a consistency model for “On-Demand ETL” which addresses correct batches for queries to see consistent states. Furthermore, we proposed an “Incremental ETL Pipeline” which reduces the performance impact of on-demand ETL processing.
• A distributed, incremental ETL pipeline (called HBelt) was introduced in distributed warehouse systems. HBelt aims at providing consistent, distributed snapshot maintenance for concurrent table scans across different analytics jobs.
• We addressed the elasticity property for incremental ETL pipeline to guarantee that ETL jobs with batches of varying sizes can be finished within strict deadlines. Hence, we proposed Elastic Queue Middleware and HBaqueue which replace memory-based data exchange queues with a scalable distributed store - HBase.
• We also implemented lazy maintenance logic in the extraction and the loading phases to make these two phases workload-aware. Besides, we discuss how our “On-Demand ETL” thinking can be exploited in analytic flows running on heterogeneous execution engines.
Das neue Berufsbild der Notfallsanitäterin/ des Notfallsanitäters hat die Rettungsdienstschulen vor ganz neue Herausforderungen gestellt. In der vorliegenden Arbeit wird ein Konzept für die curriculare Präzisierung der Notfallsanitäterausbildung vorgestellt. Dabei wird der Fragestellung nachgegangen, in wieweit die im Rahmenlehrplan NRW vorgegebenen Inhalte curricular umgesetzt werden können, damit die gesetzlich geforderte Handlungskompetenz praxisnah und kompetenzorientiert im Sinne eines Spiralcurriculums erreicht werden kann.
Nach einer Erläuterung des Berufsbildes beschäftigt sich die Arbeit mit dem Kompetenzbegriff und den Begriffen der Handlungs- und Lernfeldorientierung sowie der Umsetzung dieser didaktischen Grundsätze in das Curriculum. Am Ende der Arbeit wird auf die Implementation des Curriculums als Maßnahme der Schulentwicklung eingegangen. Dafür werden Aspekte eines Change-Managements in Rettungsdienstschulen von Feuerwehren unter Berücksichtigung der Systemtheorie diskutiert.
Durch die Zielsetzung des Projekts, in einem ganzheitlichen Ansatz Bleibefaktoren für Zuwanderer in ländlichen
Räumen zu untersuchen und geeignete Lösungsansätze für deren Integration zu entwickeln, wird eine bisher in
dieser Form kaum betrachtete Forschungslücke adressiert. Diese Nische zeichnet sich dadurch aus, dass im
Vorhaben miteinander verbundene, jedoch bisher meist disziplinär bearbeitete Fragestellungen der
Integrationsforschung, der Stadtplanung und der zukunftsfähigen Kommunalentwicklung bzw. kommunalen
Nachhaltigkeit unter besonderer Berücksichtigung von demografischen Herausforderungen vereint werden.
Diese inhaltliche Verschränkung spiegelt sich zudem auch in der interdisziplinären Vorgehensweise im Projekt
wider. So werden die Fragestellungen des Vorhabens aus der Perspektive von und mit
methodischen Zugängen aus den Sozial-, Wirtschafts- und Planungswissenschaften bearbeitet.
Der von Beginn an starke und unmittelbare Einbezug der Kommunalpartner und weiterer praxisnaher Akteure
stellt sicher, dass von Anfang an unterschiedliche wissenschaftliche und nicht-wissenschaftliche Perspektiven
sowie Praxiswissen in den Forschungsprozess integriert werden, um ein gemeinsames Problemverständnis und
eine hohe Relevanz der Ergebnisse für die kommunale Praxis sicherzustellen.
Zuwanderung an sich ist kein neues Phänomen in der Geschichte der Bundesrepublik, was sich in einer Vielfalt
von Studien und Publikationen zu den Einflussfaktoren auf die Integration von verschiedenen Migrantengruppen
(z.B. von „Gastarbeitern“ und ihren Familien, Aussiedlern und Spätaussiedlern aus Osteuropa, humanitären
Migranten bzw. Flüchtlingen, Migranten in erster und zweiter Generation) widerspiegelt. Darüber hinaus
existieren Studien zu einzelnen Aspekten der Integration wie der Teilhabe am Arbeitsmarkt, dem Schulsystem,
der Integration in den Wohnungsmarkt oder auch standortbezogene Fallstudien. Diese Untersuchungen
betrachten jedoch die allgemeine Integration von Zuwanderern, ohne auf die Besonderheiten von kleinstädtisch
und ländlich geprägten Kommunen einzugehen. Diese Thematik wird in einer Studie der Schader Stiftung
aufgegriffen, in der neben den Herausforderungen und Rahmenbedingungen in den Kommunen einige Aspekte
bzw. Handlungsoptionen der Integration aufgezeigt werden.
Die besonderen Herausforderungen des demografischen Wandels für Kommunen sind ebenfalls Gegenstand
zahlreicher Publikationen. Kleinstädtische und ländlich geprägte Kommunen sind besonders stark von diesem
Megatrend betroffen, so dass in vielen Fällen auch deren Zukunftsfähigkeit bedroht sein kann. Durch die
Integration von Zuwanderern im ländlichen Raum können sich für die Kommunen Potenziale ergeben, die
negativen Auswirkungen des Trends zum Teil aufzufangen.
Aus einer stadtplanerischen Perspektive sind in Kommunen mit demografischen Herausforderungen im Sinne
einer (stark) schrumpfenden Bevölkerung signifikante Anlässe zur baulichen Wiedernutzung von Brachflächen,
zum Schließen von Baulücken oder zur Nachverdichtung im Bestand gegeben: Potentielle volkswirtschaftlichen
Folgen sind zu erwarten, wenn sozialräumlich homogene Wohnungsbestände durch den Attraktivitäts- und
Imageverlust von benachbarten Teilräumen mit hohen Wohnungsleerständen betroffen sind. Zudem gilt es, den
betriebswirtschaftlichen (Kostenfaktoren) und städtebaulichen Auswirkungen entgegenzusteuern, um den
potentiellen baulichen Verfall sowie stadtstrukturelle, funktionale und soziale Missstände zu verhindern.
Eine effiziente Nutzung innerörtlicher Flächenressourcen, sowohl durch die Wiedernutzung von Brachflächen
als auch durch die Reaktivierung von Wohnungsleerständen, ermöglicht es den Kommunen, die
Neuinanspruchnahme von Siedlungs- und Verkehrsflächen zu reduzieren. Hierdurch kann den im Rahmen der
Nationalen Nachhaltigkeitsstrategie formulierten Zielvorgaben der Reduzierung zusätzlicher
Flächeninanspruchnahme Rechnung getragen werden. Ein sparsamer Umgang mit Grund und Boden und die
Begrenzung der Bodenversiegelung ist als städtebauliche Aufgabe durch die Bodenschutzklausel gemäß §1a
Abs. 2 BauGB bestimmt. In Anpassung an die örtlichen und städtebaulichen Gegebenheiten sind anstelle der
Neuausweisung von Bauflächen Möglichkeiten der innerörtlichen Entwicklung zu nutzen. Bei der
Inanspruchnahme unbebauter Flächen ist darüber hinaus eine flächensparende Bauweise zu bevorzugen. Durch
entsprechende Darstellungen und Festsetzungen in den Bauleitplänen kann dies erreicht werden, indem
beispielsweise auf Darstellungen von (Neu-) Bauflächen in Flächennutzungsplänen verzichtet oder indem
Höchstmaße der baulichen Nutzung für Wohnbaugrundstücke in Bebauungsplänen festgesetzt werden (§ 9
Abs. 1 Nr. 3 BauGB).
Anstelle der Neuausweisung von Wohngebieten in siedlungsstrukturellen Randlagen stellt die Innenentwicklung
für den Erhalt lebendiger Zentren und zur Begrenzung der Flächenneuinanspruchnahme einen wichtigen Beitrag
zur nachhaltigen städtebaulichen Entwicklung im Sinne des §1 Abs. 5 BauGB dar. Als Voraussetzungen für die
erfolgreiche Wiedernutzung innerörtlicher Flächen und baulicher Potentiale sind Kenntnisse der vorhandenen
Innenentwicklungspotenziale und ihre Verfügbarkeit erforderlich.
In einem geografischen Informationssystem (GIS) lassen sich nach dem gegenwärtigen Stand von Wissenschaft
und Technik Brachflächen, Baulücken und Leerstände zentral erfassen. Zur Erhebung und Verwaltung von
Wohnungsleerständen in einem kommunalen Leerstandskataster lassen sich im Wesentlichen folgende
Methoden und Datenquellen nutzen: Die Analyse von Ver- und Entsorgerdaten (Strom/Wasser) stellen neben
der Erhebung durch Ortsbegehungen (Inaugenscheinnahme von außen durch geschultes Personal), den
Befragungen von Eigentümern, den statistischen Schätzverfahren (Wohnungsfortschreibung und Melderegister)
bzw. den Befragungen kommunaler Funktionsträger (Ortsvorsteher, Bürgermeister) methodische Zugänge dar.
Zur Verifizierung der Daten erfolgt eine Kombination der genannten Methoden. Dabei werden die ermittelten
Leerstände mittels der Stromzählermethode durch zusätzliche Befragung von
Wohnungsunternehmen/Eigentümern oder Ortsvorstehern ergänzt und plausibilisiert, quantitative Daten
(zählerbasierte Methoden) werden durch qualitative Erhebungen (Befragungen) ergänzt. Da der Zugang
zu diesen kommunalen Datenbeständen erschwert war, bediente sich die Forschungsgruppe der SeniorForschungsprofessur Stadtplanung an zugänglichen öffentlichen Daten (Zensus-Erhebungen zu den
Wohnungsleerständen aus dem Jahr 2011) sowie kommerziell erwerbbaren Daten aus der Marktforschung
(microm Geo-Milieus®), da diese empirisch abgesichert sind und im Kontext der Kommunalentwicklung vielfältig
eingesetzt werden (z.B. Beteiligungsverfahren, Wohnbaulandentwicklung).
Electret filters are electrostatically charged nonwovens which are commonly used in aerosol filtration to remove fine particles from gases. It is known that the charge and thus also the filtration efficiency can degrade over time. Thus, many testing standards require to remove the charge by treatment with liquid isopropanol (IPA) or IPA-saturated air. However, the parameters influencing this discharge have not been completely clarified yet. The aim of this work was, on the one hand, to experimentally investigate the influence of the IPA treatment on different electret filters and, on the other hand, to show the optimization potential of electret filters with respect to efficiency and long-term stability by numerical simulations. The experiments revealed that the air permeability is a central influencing parameter. Small pores lead to a reduced discharge efficiency using liquid IPA, while both treatment methods are suitable for larger pores. The simulations showed that a homogeneous charge distribution within the filter depth is advantageous for the initial performance. In contrast, charge penetrating deeper in the filter medium delays the charge decay and thus increases the operating time, with the trade-off of a lower initial performance
An Schulen, so ist es uns bekannt, arbeitet jeder Lehrende für sich. Nur ungerne gibt man seine Arbeitsblätter seiner Kollegin oder seinem Kollegen weiter. Am liebsten würde jeder Lehrende seinen Klassenraum abschließen, so dass man keinen Einblick gewähren kann. So sieht die aktuelle Situation in den Schulen aus. Experten und Pädagogen erklären jedoch, dass eine gute und gesunde Schule nur durch eine gute Teamfähigkeit funktionieren kann. Auf einmal stoßen zwei Formen der menschlichen Beziehung aufeinander und der Lehrende soll vom Einzelkämpfer zum Teamplayer werden. Doch damit sich diese Fähigkeit innerhalb der Schulen entwickeln kann, sind viele Aspekte näher zu betrachten, die einen wesentlichen Einfluss auf eine Teamkultur haben. Und wenn man von einer Kultur redet, dann muss man bei der Bestandsaufnahme beginnen, Teams entwickeln und eine Kultur fördern.
Das Problem ist also offensichtlich: Wie kann sich ein Einmannteam zu einem Mehrmannteam entwickeln, welche Wirkung haben Teams auf eine Schule und welche Ursachen bringen sie mit sich.
Scaling up conventional processor architectures cannot translate the ever-increasing number of transistors into comparable application performance. Although the trend is to shift from single-core to multi-core architectures, utilizing these multiple cores is not a trivial task for many applications due to thread synchronization and weak memory consistency issues. This is especially true for applications in real-time embedded systems since timing analysis becomes more complicated due to contention on shared resources. One inherent reason for the limited use of instruction-level parallelism (ILP) by conventional processors is the use of registers. Therefore, some recent processors bypass register usage by directly communicating values from producer processing units to consumer processing units. In widely used superscalar processors, this direct instruction communication is organized by hardware at runtime, adversely affecting its scalability. The exposed datapath architectures provide a scalable alternative by allowing compilers to move values directly from output ports to the input ports of processing units. Though exposed datapath architectures have already been studied in great detail, they still use registers for executing programs, thus limiting the amount of ILP they can exploit. This limitation stems from a drawback in their execution paradigm, code generator, or both.
This thesis considers a novel exposed datapath architecture named Synchronous Control Asynchronous Dataflow (SCAD) that follows a hybrid control-flow dataflow execution paradigm. The SCAD architecture employs first-in-first-out (FIFO) buffers at the output and input ports of processing units. It is programmed by move instructions that transport values from the head of output buffers to the tail of input buffers. Thus, direct instruction communication is facilitated by the architecture. The processing unit triggers the execution of an operation when operand values are available at the heads of its input buffers. We propose a code generation technique for SCAD processors inspired by classical queue machines that completely eliminates the use of registers. On this basis, we first generate optimal code by using satisfiability (SAT) solvers after establishing that optimal code generation is hard. Heuristics based on a novel buffer interference analysis are then developed to compile larger programs. The experimental results demonstrate the efficacy of the execution paradigm of SCAD using our queue-oriented code generation technique.
Mixed-mode chromatography (MMC), which combines features of ion exchange chromatography (IEC) and hydrophobic interaction chromatography (HIC), is an interesting method for protein separation and purification. The design of MMC processes is challenging as adsorption equilibria are influenced by many parameters, including ionic strength and the presence of different salts in solution. Systematic studies on the influence of those parameters in MMC are rare. Therefore, in the present work, the influence of four salts, namely, sodium chloride, sodium sulfate, ammonium chloride, and ammonium sulfate, on the adsorption of lysozyme on the mixed-mode resin Toyopearl MX-Trp-650M at pH 7.0 and 25°C was studied systematically in equilibrium adsorption experiments for ionic strengths between 0 mM and 3000 mM. For all salts, a noticeable adsorption strength was observed over the entire range of studied ionic strengths. An exponential decay of the loading of the resin with increasing ionic strength was found until approx. 1000 mM. For higher ionic strengths, the loading was found to be practically independent of the ionic strength. At constant ionic strength, the highest lysozyme loadings were observed for ammonium sulfate, the lowest for sodium chloride. A mathematical model was developed that correctly describes the influence of the ionic strength as well as the influence of the studied salts. The model is the first that enables the prediction of adsorption isotherms of proteins on mixed-mode resins in a wide range of technically interesting conditions, accounting for the influence of the ionic strength and four salts of practical relevance.
Diversität und die Entwicklung einer Kompetenz mit deren Umgang bilden ein wichtiges Fundament eines respektvollen Zusammenlebens in der heutigen multikulturellen Gesellschaft. Die vorliegende Arbeit soll aufzeigen, warum beides in der Erwachsenenpädagogik eine hohe Relevanz gewinnt und welchen Einfluss Diversitätskompetenz auf den Lehr-Lern-Prozess und damit auf die Erfolgschancen von Aus- und Weiterbildungsteilnehmenden in der betrieblichen Bildung ausüben kann.
Es wird dargestellt, warum eine Erwachsenenpädagogik der Anerkennung als Brücke sowohl zwischen Theorie und Praxis als auch zwischen Lehrenden und Lernenden dient und in welcher Weise eine anerkennende Interaktion in vielerlei Hinsicht das Grundgerüst für einen diversitätskompetenten Umgang konstituiert.
Diversity and the development of its competence are forming an important foundation of a respectful coexistence in a multicultural society. The present thesis shall show why both are important in a pedagogical context and in which way the outcome of participants in apprenticeship or further education can increase.
It shows why an adult education of recognition can build a bridge between theory and practice or teachers and learners. It is also demonstrated how recognition constitutes a basic structure for living together with competence of diversity.