Refine
Year of publication
- 2017 (139) (remove)
Document Type
- Doctoral Thesis (84)
- Periodical Part (15)
- Working Paper (13)
- Master's Thesis (9)
- Article (5)
- Preprint (3)
- Bachelor Thesis (2)
- Part of a Book (2)
- Habilitation (2)
- Conference Proceeding (1)
Has Fulltext
- yes (139)
Keywords
- Angebotsentwicklung (5)
- Bedarfserschließung (5)
- Hochschulforschung (5)
- Wissenschaftliche Weiterbildung (4)
- Erwachsenenbildung (3)
- Schule (3)
- E-HRM (2)
- MINT (2)
- Mathematische Modellierung (2)
- Pflegewissenschaft (2)
- sensor fusion (2)
- virtual HRM (2)
- web-based HRM (2)
- wissenschaftliche Weiterbildung (2)
- A/D conversion (1)
- ADAS (1)
- AFDX (1)
- Ableitungsfreie Optimierung (1)
- Accountability (1)
- Achslage (1)
- Anion recognition (1)
- Ausnahmezustand (1)
- Automation (1)
- Backlog (1)
- Bedarf (1)
- Beihilfe (1)
- Beliebigkeit (1)
- Beschränkte Krümmung (1)
- Betriebliche Gesundheitsförderung (1)
- Betriebliche Weiterbildung (1)
- Betriebsfestigkeit (1)
- Bildsegmentierung (1)
- Bildung (1)
- Bildungssektor (1)
- Bildungstheorie (1)
- Blue Collar Worker (1)
- Buffer (1)
- CFRP (1)
- Censoring (1)
- Change Point Analysis (1)
- Change Point Test (1)
- Change-point Analysis (1)
- Change-point estimator (1)
- Change-point test (1)
- Click chemistry (1)
- Control Engineering (1)
- DGR (1)
- Data Modeling (1)
- Datenbanken (1)
- Differenzierbare Mannigfaltigkeit (1)
- Digitale Medien (1)
- Diskursanalyse (1)
- Dualismus (1)
- EU (1)
- Effizienter Algorithmus (1)
- Ehrenamt (1)
- Eisen(II)-Komplexe (1)
- Electronic Human Resource Management (1)
- Elektromobilität (1)
- Elektronische Medien (1)
- Emotion (1)
- Empathie (1)
- Energienetz (1)
- Energiespeicher (1)
- Engagement (1)
- Ernährungsstrategie (1)
- Ernährungssystem (1)
- Fahrgemeinschaft (1)
- Faltenbildung (1)
- Faulgas (1)
- Faulgasverwertung (1)
- Faulung (1)
- Finanzierung (1)
- Finanzmathematik (1)
- Firmware (1)
- Flexibilität (1)
- Flüchtlingscamp (1)
- Food system (1)
- Formal Verification (1)
- Formale Beschreibungstechnik (1)
- Formale Methode (1)
- Forschung (1)
- Fragebogen (1)
- Frischbetondruck (1)
- Förderprogramm (1)
- Fügetechnik (1)
- GIS (1)
- Gamma-Konvergenz (1)
- Geflüchtete (1)
- Gefühl (1)
- Gesundheit (1)
- Gesundheitsberufe (1)
- Gesundheitsförderung / Unternehmen (1)
- Gesundheitsverhalten (1)
- Governance (1)
- Hadamard manifold (1)
- Hadamard space (1)
- Hadamard-Mannigfaltigkeit (1)
- Hadamard-Raum (1)
- Handwerker (1)
- Hardware/Software co-verification (1)
- Hardwareverifikation (1)
- Hazard Functions (1)
- Heterotopie (1)
- Hochleistungsbeton (1)
- Hochschuldidaktik (1)
- Hochschule (1)
- Hyperspektraler Sensor (1)
- Incremental recomputation (1)
- Infrarotspektroskopie (1)
- Innovation (1)
- Innovationsbewertung (1)
- Integration (1)
- Keilzinkenverbindung (1)
- Kirchenmanagement (1)
- Kirchenreform (1)
- Kommunikation (1)
- Kompetenzmodell (1)
- Konjugierte Dualität (1)
- Konsequenzen (1)
- Konvergenz (1)
- Kraftfahrzeugindustrie (1)
- Krankenhaus (1)
- Kullback-Leibler divergence (1)
- Körperliche Arbeit (1)
- LIDAR (1)
- Lastkollektive (1)
- Lehre (1)
- Literature Review (1)
- Location Based Service (1)
- Lokalisierung (1)
- Luftfahrt (1)
- Macaulay’s inverse system (1)
- Magnetfeldbasierter Lokalisierung (1)
- Magnetfelder (1)
- Magnetische Eigenschaften (1)
- Manufacturing Control (1)
- MapReduce (1)
- Matrizenfaktorisierung (1)
- Matrizenzerlegung (1)
- Mediendidaktik (1)
- Medieneinsatz (1)
- Medienkompetenz (1)
- Medienpädagogik (1)
- Medienpädagogische Kompetenz (1)
- Medienpädagogisches Kompetenzmodell (1)
- Mehrdimensionale Bildverarbeitung (1)
- Mehrdimensionales Variationsproblem (1)
- Messtechnik (1)
- Mikrobewehrung (1)
- Mikrodrall (1)
- Milieus (1)
- Mitarbeitergesundheit (1)
- Mitfahrerparkplatz (1)
- Model checking (1)
- Model-driven Engineering (1)
- Molekulare Erkennung (1)
- Moreau-Yosida regularization (1)
- Mosco convergence (1)
- Motion Capturing (1)
- Multispektralaufnahme (1)
- Multispektralfotografie (1)
- Multivariate Analyse (1)
- Multivariates Verfahren (1)
- Nachbarschaft (1)
- Nachbarschaftshilfe (1)
- Network (1)
- Neue Medien (1)
- Neural ADC (1)
- Nichtglatte Optimierung (1)
- Nichtkonvexe Optimierung (1)
- Nichtkonvexes Variationsproblem (1)
- Nichtlineare Optimierung (1)
- Nichtpositive Krümmung (1)
- NoSQL (1)
- Nonprofit Organizations (1)
- Objektivität (1)
- Organische Chemie (1)
- Participatory Sensing (1)
- Pendlerverkehr (1)
- Peptide synthesis (1)
- Pflege (1)
- Portfoliooptimierung (1)
- Potenzial- und Risikoanalyse (1)
- Potenzialanalyse (1)
- Power-to-gas (1)
- Prepreg-Autoklav-Fertigung (1)
- Professionalisierung (1)
- Programmverifikation (1)
- Prox-Regularisierung (1)
- Psychosoziale Gesundheit (1)
- Qualitative Forschung (1)
- Qualität (1)
- Qualitätamanagement (1)
- Qualitätsentwicklung (1)
- Radikalliganden (1)
- Rauheit auf Konturen (1)
- Rauheitsmessung (1)
- Raum (1)
- Raumknappheit (1)
- Raumplanung - Mittelzentren - Kleinstädte (1)
- Raumtheorie (1)
- Real-Time (1)
- Receptor design (1)
- Rechtsdienstleistungsgesetz (1)
- Redoxchemie (1)
- Reflexionsspektroskopie (1)
- Räumliche Statistik (1)
- Scheduler (1)
- Schlammstabilisierung (1)
- Schulamangement (1)
- Schwache Konvergenz (1)
- Self-X (1)
- Sequenzieller Algorithmus (1)
- Service-oriented Architecture (1)
- Siedlungsklima (1)
- Smart City (1)
- Soziale Nachhaltigkeit (1)
- Sozialraum (1)
- Soziologie (1)
- Spatial Statistics (1)
- Spectral theory (1)
- Spektralanalyse <Stochastik> (1)
- Spiking Neural ADC (1)
- Spincrossover (1)
- Sprache (1)
- Stadtklima (1)
- Stadtplanung (1)
- Stadtumbau (1)
- Stochastic Processes (1)
- Stochastischer Prozess (1)
- Strukturwandel (1)
- Subjektive Perspektiven (1)
- Subvention (1)
- Supramolecular chemistry (1)
- Supramolekulare Chemie (1)
- Survival Analysis (1)
- Symbolic execution (1)
- Synthesizer (1)
- Systemarchitektur (1)
- Systems Engineering (1)
- TTEthernet (1)
- Temporal data processing (1)
- Texturrichtung (1)
- Tichonov-Regularisierung (1)
- Time-Series (1)
- Time-Triggered (1)
- ToF (1)
- Topologie (1)
- Trainer (1)
- Traktor (1)
- UQM (1)
- Ultraschall-Preformen (1)
- Umwelt (1)
- Umweltschutz (1)
- Unternehmensberater (1)
- Unterricht (1)
- Unterrichtsqualitätsmanagement (1)
- Upper bound (1)
- Urban food strategy (1)
- Variationsrechnung (1)
- Verkehrswissenschaft (1)
- Verstand (1)
- Wide-column stores (1)
- Wirkungsanalyse (1)
- Zielgruppen (1)
- Zivilgesellschaft (1)
- Zufälliges Feld (1)
- alternating minimization (1)
- anaerobe Stabilisierung (1)
- autonomous systems object classification (1)
- axis orientation (1)
- calving (1)
- canonical module (1)
- convex constraints (1)
- crashworthiness (1)
- curvature (1)
- curve singularity (1)
- damage tolerance (1)
- depth sensing (1)
- driver status and intention prediction (1)
- drowsiness detection (1)
- duality (1)
- electrical conductivity (1)
- evidenzbasierte Angebotsentwicklung (1)
- financial mathematics (1)
- finite element method (1)
- hybrid material (1)
- hyperspectal unmixing (1)
- ice shelves (1)
- impedance spectroscopy (1)
- infinite-dimensional manifold (1)
- integer programming (1)
- level K-algebras (1)
- magnetic field based localization (1)
- material characterisation (1)
- metal fibre (1)
- micro lead (1)
- multi-object tracking (1)
- multifunctionality (1)
- nonconvex optimization (1)
- nonnegative matrix factorization (1)
- object classification (1)
- online- Fragebogen (1)
- oscillating magnetic fields (1)
- partial information (1)
- personnel scheduling (1)
- physicians (1)
- portfolio optimization (1)
- primal-dual algorithm (1)
- proximation (1)
- random finite sets (1)
- rostering (1)
- sparsity (1)
- steel fibre (1)
- surrogate algorithm (1)
- system architecture (1)
- texture orientation (1)
- total variation spatial regularization (1)
- value semigroup (1)
- variational model (1)
- viscoelastic modeling (1)
- Ästhetik (1)
- ältere Menschen (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (27)
- Kaiserslautern - Fachbereich Sozialwissenschaften (22)
- Kaiserslautern - Fachbereich Mathematik (19)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (10)
- Kaiserslautern - Fachbereich Informatik (8)
- Distance and Independent Studies Center (DISC) (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Universität (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
Infobrief FBK 51/17
(2017)
Infobrief FBK 52/17
(2017)
Infobrief FBK 53/17
(2017)
This paper presents a method for simultaneous classification and robust tracking of traffic participants based on the labeled random finite set (RFS) tracking framework. Specifically, a method to integrate the object class information into the tracking loop of the multiple model labeled multi-Bernoulli (MMLMB) filter, using Dempster-Shafer evidence theory is presented. The multi-object state is estimated using the detections from the sensors and by propagation of multi-object density in a Bayesian fashion. Parallelly, the object class information is also predicted and updated recursively. The underlying object class information required for this could typically be obtained from different types of sensor such as radar, lidar and camera, using classical perception or more recent deep learning methods. On one hand, this enables an unified classification and tracking of traffic participants. On the other hand, it also increases the robustness of multi-object tracking, as the parameters of the tracking algorithm could be adapted using the class information. Moreover, using the Dempster-Shafer method for fusing class information from different sensor sources improves the overall performance, especially when the sensors have contradicting classification.
Sicherheitstechnik ist eine sehr breit gefächerte Querschnittsdisziplin mit der Aufgabe
Mensch und Umwelt vor den Gefahren von Maschinen, Prozessen und technischen
Anlagen zu schützen. Während im 19ten Jahrhundert Anlagen durch Erfahrungswissen
sicher gestaltet worden sind, ist in der Sicherheitstechnik heute eine sehr
systematische Analyse von Gefahren und Risiken üblich. Dazu ist eine spezielle
Denkweise im Umgang mit stochastischen Prozessen und Unsicherheiten bei der
Modellierung hilfreich, die der Verfahrenstechniker oder Chemieingenieur ebenso
wenig im Studium erlernt wie ein Maschinenbauer oder Chemiker.
Die Sicherheitstechnik selbst und ihre Sicherheitskonzepte sind über lange Zeiträume
entstanden, beginnen mit Grundlagenforschungen, die anwendungsorientiert zu
speziellen sicherheitstechnischen Apparaten oder Modellen geführt haben. Diese
Apparate und Modelle sind anschließend eingebunden worden in Sicherheitskonzepte
für spezielle Anlagen wie Chemiereaktoren oder Gashochdruckleitungen.
In der vorliegenden Arbeit ist die Breite der Sicherheitstechnik und ihre Entwicklung an
sehr unterschiedlichen Beispielen verdeutlicht worden. Grundlegende Erkenntnisse
aus der Zweiphasenströmung führen zu Modellen wie der Auslegung von klassischen
Notentlastungsleitungen oder zur Entwicklung von Rückhalteeinrichtungen. Diese sind
Bestandteil von sehr unterschiedlichen Anlagensicherheitskonzepten bei Wärmeübertragern,
in der Hochdrucktechnik oder bei Multipurpose-Anlagen. Die Forschung zu
Grundlagen der Zweiphasenströmung führt auch zu neuen Sicherheitskonzepten für
Gashochdruckleitungen.
Am Beispiel von sicherheitsrelevanten Armaturen ist die langjährige Entwicklung von
Modellen zur Bemessung dieser Bauteile aufgezeigt worden. Ausgehend von einem
einfachen Düsenmodell wurden immer mehr Parameter berücksichtigt, um nicht nur
sicherheitsrelevante Ventile und Berstscheiben auszulegen, sondern auch Klappen,
Blenden, Stellventile und andere Armaturen. Durch eine hinreichende Validierung der
Modelle entstehen aus der Forschung neue Erkenntnisse für eine signifikante
Weiterentwicklung des Stands der Sicherheitstechnik.
Die Sicherstellung effektiver Gesundheitsdienstleistungen in ländlichen Regionen der Westpfalz erfordert vor dem Hintergrund der demographischen Entwicklung und des fortschreitenden Strukturwandels die Auseinandersetzung mit neuen Konzepten. Im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung – Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung (EB)1,
Teilprojekt „Pflege und Gesundheit“, wurde das Konzept der hochschulisch gebildeten Pflegefachperson im Sinne einer Advanced Nursing Practice (ANP)2 aufgegriffen. Expert_innen in der Westpfalz wurden befragt, um die Relevanz einer Erweiterten
Pflegepraxis im Sinne von ANP für die regionale Gesundheitsversorgung sowie die Bedeutung eines solchen Konzepts für die Personalentwicklung und Aspekte des Lebenslangen
Lernens im Pflegeberuf einschätzen zu können.
Eisen-Schwefel-Cluster bilden eine Klasse der vielseitigsten anorganischen Cofaktoren in der Natur und sind in allen Domänen des Lebens zu finden. Sie erfüllen vielfältige Aufgaben in verschiedensten Bereichen, wie beispielsweise Elektronentransport, regulatorische Funktionen oder enzymatische Aktivität. Da verschiedene Krankheiten auf Defekte von Eisen-Schwefel-Proteinen oder deren Biogenese zurückgeführt werden können, ist es von größtem Interesse unbekannte Fe/S Proteine zu charakterisieren und ihre Wirkungsweisen zu erforschen.
In den beiden häufigsten Clustertypen (der rhombische [2Fe-2S]- und der kubische [4Fe 4S] Cluster) werden zur Koordination der Eisenionen neben anorganischen Sulfidionen in der Regel vier Cysteine des Proteins verwendet. Daneben existieren jedoch auch Proteine, in denen andere Aminosäuren als Liganden fungieren.
Für das Rieske-Protein, welches in dieser Arbeit als Referenzprotein fungierte, wurden Mössbauerspektren bei drei passenden pH-Werten aufgenommen. Dadurch konnten zum ersten Mal die drei verschiedenen Zustände des Clusters mit diprotonierten, monoprotonierten bzw. deprotonierten Histidinen mittels Mössbauerspektroskopie untersucht und die entsprechenden Parameter ermittelt werden.
Im Hauptteil dieser Arbeit wurden die beiden weitgehend unerforschten Proteine Apd1 und Aim32 aus Saccharomyces cerevisiae kloniert, heterolog in E. coli exprimiert und isoliert. Durch eine anschließende Charakterisierung mittels UV/Vis-, ESR- und Mössbauerspektroskopie konnte der enthaltene [2Fe 2S] Cluster identifiziert und eine Koordination durch zwei Cysteine und zwei Histidine festgestellt werden, wobei die Proteine keine Rieske-Faltung besitzen. Nach Entdeckung des hochkonservierten HXGGH-Motivs, welches an ähnlicher Stelle zum dritten und vierten Cystein in der Primärstruktur von TLF´s (thioredoxin-like ferredoxins) vorliegt, wurden Mutationen dieser Histidine durchgeführt. In Untersuchungen an diesen Mutanten konnten Änderungen in den UV/Vis , ESR- und Mössbauerspektren der variierten Fe/S Cluster beobachtet werden. Bei der pKS-Wert-Bestimmung wurde nach jeder Mutation der vorhandenen Histidine zu Cysteinen, jeweils ein (De-)Protonierungsschritt weniger detektiert. Ebenso zeigten die Mutanten niedrigere Redoxpotentiale als der Wildtyp, dessen Redoxpotential pH-abhängig ist. Es handelt sich hierbei also um eine neuartige Klasse von Proteinen, die eine C-terminale Domäne mit einer Faltung ähnlich zu TLF´s besitzt, die aber gleichzeitig ein Rieske-artiges Zentrum beinhaltet. Eine Funktion bei Elektronentransfers liegt deshalb nahe, allerdings ist dazu noch nichts genaueres bekannt. Die Identifikation der genauen Wirkweise sowie der Reaktionspartner der beiden Proteine ist also weiterhin ein spannendes Forschungsgebiet. Ebenso wird der Nachweis über die Art der Bindung der Histidine durch eine Kristallstruktur wichtige Erkenntnisse über die Proteinklasse liefern.
Medieneinsatz in der Hochschullehre. Akademische Lehr-Lernkonzepte zwischen Zumutung und Zu-Mutung.
(2017)
Das vorliegende systematische Review nimmt – ausgehend vom BMBF-geförderten Verbundforschungsprojekt „You(r) Study“ – Forschungsarbeiten zur Rolle digitaler Medien zur Gestaltung von Lehr-Lernarrangements durch Dozierende in den Blick. Ausgehend von konzeptionellen Beiträgen und empirischen Studien werden neben den Lehr-Lernzielen und den Funktionen, die Lehrende digitalen Medien beimessen auch die Rolle von digitalen Medien in verschiedenen Lehrformaten und Disziplinen in den Blick genommen. Aus diesem Vorgehen ergibt sich ein erstes Bild über die Ziele und Perspektiven der Gestaltung von Lehr-Lernarrangements mit und in Medien in der Hochschullehre.
In der modernen Hubschrauberfertigung werden neben Rotorblättern auch tragende
Strukturteile aus kohlenstofffaserverstärkten Kunststoffen eingesetzt. Um dabei
einen möglichst hohen Leichtbaugrad zu erreichen, werden immer neue Design-
Konzepte entwickelt. Innovative Design-Lösungen sind aber nur dann in der Fertigung
umsetzbar, wenn sie effizient, kostengünstig und fehlerfrei gefertigt werden
können.
Ein wichtiger Baustein für die Produktion sind die Fertigungsvorrichtungen, auf
denen die Bauteile laminiert und ausgehärtet werden. Diese Vorrichtungen sind ein
maßgeblicher Faktor zum Erreichen der geforderten Bauteilqualität. Das Augenmerk
liegt hierbei auf der sogenannten tool-part-interaction, also der Interaktion zwischen
Fertigungsvorrichtung und Faserverbundmaterial. Diese hat einen großen Einfluss
auf das Aufheiz- und Verpressungsverhalten der Prepreg-Materialien und somit auch
direkt auf fertigungsinduzierte Schädigungen wie Faltenbildung und Verzug.
Aktuell kann der Vorrichtungsentwickler lediglich auf Erfahrungswerte zurückgreifen,
um ein gutes Aufheiz- und Verpressungsverhalten der Vorrichtung zu erreichen.
Zur Minimierung von Falten fehlt jedoch häufig sogar das nötige Hintergrundwissen
über die grundlegenden Mechanismen der Faltenbildung. Nur ein langwieriger
trial-and-error Prozess nach Produktion der Vorrichtung kann helfen, Faltenbildung
zu eliminieren oder zumindest zu reduzieren.
Zukünftig muss es ein primäres Ziel für den Vorrichtungsbau sein, Fertigungsmittel
gezielt auslegen und bereits im Rahmen der Konzeptentwicklung Aussagen
über die zu erwartende Bauteilgüte und das Fertigungsergebnis machen zu können.
Einen möglichen Weg stellt die Einführung einer Herstellprozesssimulation dar, da
sie bereits in einer frühen Entwicklungsphase das Aufheiz- und Verpressungsverhalten
eines Bauteils sowie den Einfluss der Fertigungsvorrichtung auf die Bauteilqualität
einschätzen kann. Fertigungsinduzierte Schädigungen, wie der prozessinduzierte
Verzug, lassen sich bereits mit Hilfe von kommerziell erhältlichen Software-Tools
vorhersagen. Um zukünftig auch die Faltenbildung bei der Prepreg-Autoklavfertigung
vorhersagbar zu machen, müssen zwei übergeordnete Fragestellungen bearbeitet
werden:Faltenbildung: Wie läuft die Faltenbildung in der Autoklavfertigung ab und
welche Mechanismen bzw. Einflussfaktoren müssen besonders beachtet werden?
Simulation: Wie muss eine Herstellprozesssimulation geartet sein, um den
Einfluss der Fertigungsvorrichtung auf die Faltenbildung vorhersagen zu können
und Vorrichtungen auf diese Weise zukünftig auslegbar zu machen?
Experimentelle Untersuchungen an Omega- und C-Profilen helfen, die Faltenbildung,
ihren primären Mechanismus und vor allem die verschiedenen Einflussfaktoren
zu verstehen und zu bewerten. Im Falle der vorliegenden Arbeit wurde besonders
die Kompaktierung des Laminates über einem Außenradius und die daraus entstehende
überschüssige Faser- bzw. Rovinglänge als primärer Faltenauslöser betrachtet.
Es konnte aus den Experimenten abgeleitet werden, dass besonders der
Verpressungsweg, die Bauteilgeometrie, das verwendete Faserhalbzeug (unidirektional
oder Gewebe), die tool-part-interaction und das interlaminare Reibverhalten für
den untersuchten Mechanismus von Bedeutung sind. Daraus lassen sich die Mindestanforderungen
an eine Herstellprozesssimulation zusammenstellen.
Eine umfassende Materialcharakterisierung inklusive der interlaminaren Reibung,
der Reibinteraktionen zwischen Bauteil und Fertigungsvorrichtung sowie des
Verpressungsverhaltens des Faserbettes sind der erste Schritt in der Entwicklung
einer industriell einsetzbaren Simulation.
Die Simulation selbst setzt sich aus einem thermo-chemischen und einem
Kompaktiermodul zusammen. Ersteres ermittelt das Aufheizverhalten der Vorrichtung
und des Bauteils im Autoklaven und stellt darüber hinaus Aushärtegrad und
Glasübergangstemperatur als Parameter für das zweite Simulationsmodul zur Verfügung.
Zur korrekten Bestimmung des Wärmeübergangs im Autoklaven wurde ein
semi-empirisches Verfahren entwickelt, das in der Lage ist, Strömungseffekte und
Beladungszustände des Autoklaven zu berücksichtigen. Das Kompaktiermodul umfasst
das Verpressungsverhalten des Faserbettes inklusive des Harzflusses, der toolpart-
interaction und der Relativverschiebung der Laminatlagen zueinander. Besonders
das Erfassen der Durchtränkung des Fasermaterials mittels eines phänomenologischen
Ansatzes und das Einbringen der Reibinteraktionen in die Simulation muss
als Neuerung im Vergleich zu bisherigen Simulationskonzepten gesehen werden. Auf
diese Weise ist die Simulation in der Lage, alle wichtigen Einflussfaktoren der Faltenbildung zu erfassen. Der aus der Simulation auslesbare Spannungszustand kann
Aufschluss über die Faltenbildung geben. Mit Hilfe eines im Rahmen dieser Arbeit
entwickelten (Spannungs-)Kriteriums lässt sich eine Aussage über das zu erwartende
Faltenrisiko treffen. Außerdem ermöglicht die Simulation eine genaue Identifikation
der Haupttreiber der Faltenbildung für das jeweilige Bauteil bzw. Fertigungskonzept.
Parameter- und Sensitivitätsstudien können dann den experimentellen Aufwand
zur Behebung der Faltenbildung deutlich reduzieren.
Die hier vorliegende Arbeit erweitert damit nicht nur das Wissen über die Faltenbildung
in der Prepreg-Autoklavfertigung und deren Einflussfaktoren, sondern gibt
dem Vorrichtungsentwickler auch eine Simulationsmethodik an die Hand, die ihn in
die Lage versetzt, Fertigungsvorrichtungen gezielt auszulegen und zu optimieren.
In addition to rotor blades, primary structural parts are also manufactured from
carbon fiber reinforced plastics in modern helicopter production. New design concepts
are constantly developed in order to reach a maximum degree of lightweight
design. However, innovative design solutions are only realizable, if they can be manufactured
efficiently, economically, and free from defects.
Molds for laminating and curing of composite parts are of particular importance.
They are a relevant factor for achieving the required part quality. The attention is directed
at the so-called tool-part-interaction, i.e. the interaction between tools and fiber
composite materials, which has a great influence on the heating and compaction
behavior of the prepreg materials and therefore also directly on manufacturing induced
damage such as wrinkling and warping.
At present, the tooling designer can only resort to his/her experience to achieve
a good heating and compaction behavior of the molds. However, the necessary background knowledge about the fundamental mechanisms of wrinkling is often lacking
and only a tedious trial-and-error process after the production of the mold can
help eliminate or at least reduce wrinkling.
In the future, the primary goal for tooling production must be to specifically design
the manufacturing equipment and to be able to already make a statement about
the expected part quality and production result during the conceptual stage. A possible
solution is the introduction of a manufacturing process simulation, because at an
early development stage it can estimate the heating and compaction behavior of a
part as well as the influence of the manufacturing equipment on part quality. Commercially
available software tools are already able to predict damage during production,
as e.g. process induced deformation. In order to make wrinkling predictable also,
two primary issues need to be dealt with: Wrinkling: How does wrinkling develop in autoclave manufacturing and which
mechanisms or influencing factors need to be particularly considered?
Simulation: What must be integrated into a manufacturing process simulation,
if it is to predict the influence of the mold on wrinkling and to ensure future
tooling improvement? Experimental examinations of omega and c-profiles help to understand and
evaluate wrinkling, its primary mechanism, and particularly the various influencing
factors. In the case of the present paper, the compaction of the laminate over a convex
radius and the resulting surplus roving length was especially examined as primary
cause for wrinkling. From the experiments could be deduced that the compaction,
the part geometry, the utilized semi-finished fabrics (unidirectional and woven), the
tool-part-interaction and the interlaminar friction are of importance for the examined
mechanism. These factors determine the minimum requirements for a manufacturing
process simulation.
A comprehensive material characterization including interlaminar friction, friction
interaction between part and tool as well as the compaction behavior of the fiber bed
are the first step toward the development of a simulation on an industrial scale. The
simulation consists of a thermochemical and a compaction module. The former determines
the heating behavior of the mold and the part in the autoclave and additionally
provides the degree of cure and the glass transition temperature as parameters
for the second simulation module. A semi-empirical method that is able to consider
flow effects and loading conditions of the autoclave was developed for the correct
determination of the heat transfer within the autoclave. The compaction module comprises
the compaction behavior of the fiber bed including resin flow, tool-partinteraction
and relative displacement of the layers. Especially the integration of the
saturation phase by means of a phenomenological approach and the inclusion of friction
interaction in the simulation must be seen as innovation in comparison to other
simulation concepts. The simulation is thus able to capture all the important influencing
factors of wrinkling. The state of stress that is retrieved from the simulation can
provide information about the formation of wrinkles. Furthermore, the simulation enables
an exact identification of the main drivers for the development of wrinkles in the
respective part or manufacturing concept. Parameters and sensitivity analyses can
then significantly reduce the experimental effort for the elimination of wrinkling.
The present study does therefore not only expand the knowledge about wrinkling
and its influencing factors in prepreg autoclave manufacturing, but also presents
the tooling designer with a simulation methodology that enables him/her to systematically
develop and optimize manufacturing equipment.
In der vorliegenden Arbeit wird die Entwicklung und Beurteilung einer alternativen
kontinuierlichen Preform-Technologie zur Vorstabilisierung von trockenen Kohlenstofffaserhalbzeugen
unter Verwendung der Ultraschall-Schweiß-Technologie für
Kunststoffe präsentiert. Aktuell verwendete Technologien für Großbauteile in der
Luftfahrt sind in der Regel diskontinuierlich und wenig produktiv. Zudem weisen sie
Probleme hinsichtlich des gewünschten Kompaktierungsgrades und der Oberflächenqualität
auf. Diesen Nachteilen soll durch den Einsatz des kontinuierlichen
Ultraschall-Preformens begegnet werden.
Innerhalb der Ausarbeitung wurde eine neue Funktionseinheit, die für die Anforderungen
in einem kontinuierlichen Preform-Prozess geeignet ist, entwickelt und mit
passender Sensorik und Steuerung in einen Versuchsstand integriert. Durch statische
Versuche konnte das halbzeugabhängige Aufheizverhalten untersucht
werden. Es zeigte sich, dass der Erwärmungsprozess durch Reibung zwischen den
Filamenten bestimmt wird und somit einen homogenen Prozess unterstützt.
Untersuchungen der Parameter führten zu diskreten und materialabhängigen Prozessfenstern
und einem tieferen Verständnis für die Einflüsse des Schweiß-Prozesses
auf das Preform-Verhalten. Durch die Betrachtung von Prozessgrenzen
konnten unerwünschte Strukturdefekte ausgeschlossen und das Potenzial für die
Nutzung verschiedener Materialien sowie für den Einsatz an komplexeren Bauteilen
aufgezeigt werden. Weiterhin wurde durch Permeabilitätsuntersuchungen gezeigt,
dass es einen materialabhängigen Einfluss des Prozesses auf die Infusionierbarkeit
gibt, der sich sowohl als eine Verbesserung als auch eine als Verschlechterung
darstellen kann. Durch vibrationsinduzierte Verdichtungsprozesse konnten höhere
Faservolumengehalte bei einer gesteigerten Produktivität erzielt werden. Auch eine
partielle Verbesserung der mechanischen Eigenschaften ist durch die Anwendung
des Ultraschall-Prefom-Verfahrens möglich. Für die Herstellung komplexerer Strukturen
eignet sich das Verfahren ebenso, wie an einem Demonstrator gezeigt werden
konnte. Geometrische Restriktionen grenzen die Anwendbarkeit allerdings ein.
Durch die Entwicklung der Technologie konnte eine vielversprechende Alternative
dargelegt werden, die Kosten sparen und Bauteileigenschaften verbessern kann.
Zunehmend strengere Regulierungen der CO2-Emissionen von Neuwagen seitens
der europäischen Union erfordern den Einsatz von Leichtbaukonzepten, welche für
die Massenproduktion geeignet sind. Dies erfordert den Einsatz leistungsstarker und
zugleich kostengünstiger Werkstoffe. Für den breiten Einsatz im Transportbereich
werden daher vermehrt kurzglasfaserverstärkte Thermoplaste zur Substitution
klassischer Metallkomponenten eingesetzt. Die geringen Werkstoffkosten, die stetig
weiterentwickelten mechanischen Eigenschaften sowie die Möglichkeit zur
Funktionsintegration aufgrund der hohen Formgebungsfreiheit des Spritzgussprozesses
sind entscheidende Vorteile dieser Werkstoffgruppe. Der Spritzgussprozess
führt zu einer lokal stark variierenden Faserorientierung. Die Werkstoffeigenschaften
hängen dabei entscheidend von der Faserorientierung ab. Besitzt der
Werkstoff parallel zur Faserrichtung seine höchste Steifig- und Festigkeit, sind diese
quer zur Faserorientierung am niedrigsten. Zusätzlich besitzt die thermoplastische
Matrix ein ausgeprägt nichtlineares Werkstoffverhalten, wodurch die strukturmechanische
Berechnung kurzfaserverstärkter Bauteile deutlich erschwert wird. Eine
geeignete Methodik zur Charakterisierung und numerischen Abbildung des
nichtlinearen anisotropen Werkstoffverhaltens mit anschließender Lebensdaueranalyse
ist zurzeit nicht vorhanden und bildet das Ziel dieser Arbeit.
Der untersuchte Werkstoff findet häufig Einsatz in strukturellen Komponenten im
Fahrwerks- und Motorbereich. In diesen Einsatzgebieten ist er zusätzlich zu den
mechanischen Lasten auch Umwelteinflüssen, wie beispielsweise Feuchtigkeit oder
Steinschlägen, ausgesetzt. Im Rahmen der durchgeführten experimentellen Arbeiten
wird der Einfluss dieser zusätzlichen einsatzbedingten Lasten auf die statischen
Eigenschaften und das Lebensdauerverhalten untersucht. Ist ein Fahrwerksbauteil
ganzjährig Wasser und Feuchtigkeit ausgesetzt, kann es in Winterzeiten auch zu
Kontakt mit Tausalzlösungen kommen. In Auslagerungsversuchen über einen
Zeitraum von etwa einem Jahr wird der Werkstoff folgenden Medien ausgesetzt:
Wasser, wässrigem Natriumchlorid und wässrigem Calciumchlorid. Zu verschiedenen
Expositionszeiten werden Proben entnommen und statischen Zugversuchen
unterzogen. Die Auslagerung bewirkt eine deutliche Verschlechterung der Werkstoffeigenschaften,
welche jedoch durch eine Rücktrocknung im Vakuumofen wieder
vollständig hergestellt werden kann.
Mithilfe eines speziell entwickelten Prüfstandes wird der Einfluss von Wasser und Calciumchlorid auf das zyklische Werkstoffverhalten untersucht. Dieser Prüfstand
erlaubt das Besprühen der Proben während eines Dauerschwingversuches. Eine
Reduktion der Lebensdauer aufgrund einer Exposition mit Calciumchlorid kann nicht
nachgewiesen werden. Zur Simulation von dauerhaften Mikro-Steinschlägen wird die
Oberflächenrauheit von Probekörpern künstlich mittels Sandstrahlen erhöht. Sowohl
in den statischen als auch zyklischen Versuchen unter Medieneinfluss kann nur eine
geringe Festigkeitsreduktion ermittelt werden. Dies ist auf die Duktilität des Werkstoffes
und der damit einhergehenden Unempfindlichkeit gegenüber Kerben
zurückzuführen.
Moderne Prozesssimulationen können die Faserverteilung in Bauteilen komplexer
Geometrie noch nicht realitätsnah abbilden, weshalb in dieser Arbeit die
experimentelle Orientierungsanalyse im Mikro-Computertomographen verwendet
wird. Neben Probekörpern wird auch eine komplette Fahrwerkskomponente im
Mikro-Computertomographen analysiert. Die Orientierungsinformationen finden zur
numerischen Beschreibung des Werkstoffverhaltens in der Finite-Elemente-Methode
Verwendung. Eine vollständige statische Werkstoffcharakterisierung dient als
Grundlage für die komplexe Werkstoffmodellierung. Zur Beschreibung des
Lebensdauerverhaltens werden umfangreiche Dauerschwing- und Restfestigkeitsversuche
für unterschiedliche Faserorientierungen und Spannungsverhältnisse
durchgeführt.
Selbstentwickelte Programmroutinen importieren den Faserorientierungstensor jedes
FE-Elementes und definieren in Abhängigkeit der Faserrichtung sowie der
Faseranteile in die jeweilige Richtung das Werkstoffmodell. Eine inkrementelle
Lebensdaueranalyse greift ebenfalls auf selbstentwickelte Routinen zurück und
berechnet die ertragbare Schwingspielzahl unter Berücksichtigung einer zyklischen
Steifigkeitsdegradation hochbelasteter Elemente und damit einhergehenden
Spannungsumlagerungen. Die Routine wird an den zyklisch geprüften Standard-
Probekörpern kalibriert und an der bereits erwähnten Fahrwerkskomponente
validiert. Für unterschiedliche Lastniveaus und Spannungsverhältnisse werden die
Versuchsergebnisse sehr gut durch die entwickelte Berechnungsmethodik
abgebildet. Sowohl die ertragbare Schwingspielzahl als auch das Schadensbild der
Simulation stimmen mit den Versuchen überein.
Abstract
Die Arbeit zur Rolle von Empathie und Objektivität bei der Qualitätsentwicklung in Schule und Unterricht skizziert verschiedene Aspekte des Bildungssystems und betrachtet die Analyseergebnisse eines Onlinefragebogens, um die Frage nach dem Einfluss von Empathie und Objektivität auf die Qualitätsentwicklung in Schule und Unterricht zu klären. Es wird der schulinterne Qualitätsprozess detailliert beschrieben und das System des unterrichtsbezogenen Qualitätsmanagements (UQM nach H. G. Rolff) als zentrales Merkmal für Schulentwicklung identifiziert.
Das Ziel aller Qualitätsentwicklung im Bildungssektor ist die „gute Schule“, die sich den veränderten gesellschaftlichen Herausforderungen stellt und ihre Schüler angemessen auf die Zukunft vorbereitet. Für die Befragten im Forschungsteil ist die Qualitätsentwicklung im Bildungssektor „ein Papiertiger“, „eine Verschwendung von Ressourcen und müsste eher Qualitätshemmung heißen“. Daher wünschen sie sich weniger „Schulinspektionen, didaktische Jahresplanungen, Prozessentwicklungen...“, dafür jedoch „mehr Zeit und Raum für kollegialen Austausch und Beziehungspflege“.
Da Chancengerechtigkeit herrschen soll, damit alle Beteiligten in einer sich beschleunigt wandelnden Gegenwart und der dadurch unsicheren Zukunft ein gelingendes und glückliches Leben führen können und Zufriedenheit erreichen, müsste immer Objektivität und Neutralität gegeben sein, denn die Probanden vermuten hinter Subjektivität Beliebigkeit und ungerechte Emotionalität.
In der Arbeit wird festgestellt, dass die Emotionen, insbesondere die Empathie eine entscheidende Rolle bei dem Erleben und Erdulden von schulischen und gesellschaftlichen Zwängen haben, und so auf die Qualität im Bildungssektor einwirken.
Empathie kann positive wie negative Auswirkungen haben, je nachdem, welches Ziel verfolgt wird. Dabei ist Empathie oft negativ konnotiert und wird direkt mit einer unreflektierten Subjektivität in Verbindung gebracht. Objektivität wird von vielen als Maßstab für Gerechtigkeit gesehen, gilt aber oft nur als Abwesenheit von Emotionalität und Beliebigkeit.
Die sozialen Neurowissenschaften und die Neurobiologie liefern die Beweise, dass Gefühle biologisch angelegt sind und in der ontologischen Entwicklung eindeutig dem Verstand und seiner Entwicklung vorausgehen. Deshalb ist eine Nachrangigkeit der Emotionen objektiv gesehen nicht gegeben.
So löst sich auch der Körper-Geist-Dualismus auf, der die fachlich-inhaltlichen Kompetenzen als den sozial-emotionalen Fähigkeiten vorrangig sieht.
Due to their superior weight-specific mechanical properties, carbon fibre epoxy composites (CFRP) are commonly used in aviation industry. However, their brittle failure behaviour limits the structural integrity and damage tolerance in case of impact (e.g. tool drop, bird strike, hail strike, ramp collision) or crash events. To ensure sufficient robustness, a minimum skin thickness is therefore prescribed for the fuselage, partially exceeding typical service load requirements from ground or flight manoeuvre load cases. A minimum skin thickness is also required for lightning strike protection purposes and to enable state-of-the-art bolted repair technology. Furthermore, the electrical conductivity of CFRP aircraft structures is insufficient for certain applications; additional metal components are necessary to provide electrical functionality (e.g. metal meshes on the outer skin for lightning strike protection, wires for electrical bonding and grounding, overbraiding of cables to provide electromagnetic shielding). The corresponding penalty weights compromise the lightweight potential that is actually given by the structural performance of CFRP over aluminium alloys.
Former research attempts tried to overcome these deficits by modifying the resin system (e.g. by addition of conductive particles or toughening agents) but could not prove sufficient enhancements. A novel holistic approach is the incorporation of highly conductive and ductile continuous metal fibres into CFRP. The basic idea of this hybrid material concept is to take advantage of both the electrical and mechanical capabilities of the integrated metal fibres in order to simultaneously improve the electrical conductivity and the damage tolerance of the composite. The increased density of the hybrid material is over-compensated by omitting the need for additional electrical system installation items and by the enhanced structural performance, enabling a reduction of the prescribed minimum skin thickness. Advantages over state-of-the-art fibre metal laminates mainly arise from design and processing technology aspects.
In this context, the present work focuses on analysing and optimising the structural and electrical performance of such hybrid composites with shares of metal fibres up to 20 vol.%. Bundles of soft-annealed austenitic steel or copper cladded low carbon steel fibres with filament diameters of 60 or 63 µm are considered. The fibre bundles are distinguished by high elongation at break (32 %) and ultimate tensile strength (900 MPa) or high electrical conductivity (2.4 × 10^7 S/m). Comprehensive researches are carried out on the fibre bundles as well as on unidirectional and multiaxial laminates. Both hybrid composites with homogeneous and accumulated steel fibre arrangement are taken into account. Electrical in-plane conductivity, plain tensile behaviour, suitability for bolted joints as well as impact and perforation performance of the composite are analysed. Additionally, a novel non-destructive testing method based on measurement of deformation-induced phase transformation of the metastable austenitic steel fibres is discussed.
The outcome of the conductivity measurements verifies a correlation of the volume conductivity of the composite with the volume share and the specific electrical resistance of the incorporated metal fibres. Compared to conventional CFRP, the electrical conductivity in parallel to the fibre orientation can be increased by one to two orders of magnitude even for minor percentages of steel fibres. The analysis, however, also discloses the challenge of establishing a sufficient connection to the hybrid composite in order to entirely exploit its electrical conductivity.
In case of plain tensile load, the performance of the hybrid composite is essentially affected by the steel fibre-resin-adhesion as well as the laminate structure. Uniaxial hybrid laminates show brittle, singular failure behaviour. Exhaustive yielding of the embedded steel fibres is confined to the arising fracture gap. The high transverse stiffness of the isotropic metal fibres additionally intensifies strain magnification within the resin under transverse tensile load. This promotes (intralaminar) inter-fibre-failure at minor composite deformation. By contrast, multiaxial hybrid laminates exhibit distinctive damage evolution. After failure initiation, the steel fibres extensively yield and sustain the load-carrying capacity of angularly (e.g. ±45°) aligned CFRP plies. The overall material response is thus not only a simple superimposition but a complex interaction of the mechanical behaviour of the composite’s constituents. As a result of this post-damage performance, an ultimate elongation of over 11 % can be proven for the hybrid laminates analysed in this work. In this context, the influence of the steel fibre-resin adhesion on the failure behaviour of the hybrid composite is explicated by means of an analytical model. Long term exposure to corrosive media has no detrimental effect on the mechanical performance of stainless steel fibre reinforced composites. By trend, water uptake increases the maximum elongation at break of the hybrid laminate.
Moreover, the suitability of CFRP for bolted joints can partially be improved by the integration of steel fibres. While the bearing strength basically remains nearly unaffected, the bypass failure behaviour (ε_{max}: +363 %) as well as the head pull-through resistance (E_{a,BPT}: +81 %) can be enhanced. The improvements primarily concern the load-carrying capacity after failure initiation. Additionally, the integrated ductile steel fibres significantly increase the energy absorption capacity of the laminate in case of progressive bearing failure by up to 63 %.
However, the hybrid composite exhibits a sensitive low velocity/low mass impact behaviour. Compared to conventional CFRP, the damage threshold load of very thin hybrid laminates is lower, making them prone for delamination at minor, non-critical impact energies. At higher energy levels, however, the impact-induced delamination spreads less since most of the impact energy is absorbed by yielding of the ductile metal fibres instead of crack propagation. This structural advantage compared to CFRP gains in importance with increasing impact energy. The plastic deformation of the metastable austenitic steel fibres is accompanied by a phase transformation from paramagnetic γ-austenite to ferromagnetic α’-martensite. This change of the magnetic behaviour can be used to detect and evaluate impacts on the surface of the hybrid composite, which provides a simple non-destructive testing method. In case of low velocity/high mass impact, integration of ductile metal fibres into CFRP enables to address spacious areas of the laminate for energy absorption purposes. As a consequence, the perforation resistance of the hybrid composite is significantly enhanced; by addition of approximately 20 vol.% of stainless steel fibres, the perforation strength can be increased by 61 %, while the maximum energy absorption capacity rises by 194 %.
Der Forschungs- und Entwicklungsprojektverbund der Hochschule Ludwigshafen am Rhein, Fachbereich Sozial- und Gesundheitswesen, mit der Technischen Universität und der Hochschule Kaiserslautern hat das gemeinsame Ziel, einen Beitrag zur Fachkräftesicherung und
-qualifikation für die Region Westpfalz zu leisten. Das Teilvorhaben der Hochschule Ludwigshafen am Rhein beschäftigt sich mit der Entwicklung eines hochschulischen Bildungsangebotes zu Erweiterter Pflegepraxis zur Sicherstellung der zukünftigen gesundheitlichen und pflegerischen Versorgung für die Bevölkerung in der Westpfalz, das sich insbesondere an beruflich qualifizierte Pflegefachpersonen wendet.
Gemäß der Ausrichtung des Programms „Aufstieg durch Bildung: offene Hochschulen“ richtet sich das Teilprojekt an beruflich qualifizierte Pflegefachpersonen und entwickelt für diese
sogenannte „nicht-traditionelle“ Zielgruppe ein hochschulisches Weiterbildungsangebot zu erweiterter Pflegepraxis.
Einer der ersten Schritte zur Entwicklung des Bildungsangebotes war die Bestimmung der Ausgangssituation. Im Rahmen einer Ist-Standerhebung wurden neben einer ausgedehnten Literaturrecherche Informationen zum Aus- und Weiterbildungsangebot im Bereich Pflege und Gesundheit gesammelt und eine Analyse zum Fachkräftebedarf durchgeführt.
Zentrales Ziel des Teilprojekts „Pflege und Gesundheit“ des Verbundvorhabens „E-hoch-B“ ist es, ein hochschulisches Bildungsangebot zu entwickeln, das berufserfahrene Pflegefachpersonen dazu befähigt, Elemente einer vertieften und erweiterten Pflegepraxis im Sinne von Advanced Nursing Practice im ambulanten Bereich anbieten zu können. Darüber hinaus soll in der Region Westpfalz ein Modellprojekt konzipiert werden, in dessen Rahmen derart hochschulisch qualifizierte Pflegefachpersonen erweiterte Tätigkeiten auch in der Versorgungspraxis ausüben können.
Bedarfserschließung und Angebotsentwicklung im berufsbegleitenden Bachelorstudiengang Mechatronik
(2017)
Der vorliegende Arbeits- und Forschungsbericht beschreibt das Vorgehen zur Entwicklung
des berufsbegleitenden Studienganges Mechatronik an der Hochschule Kaiserslautern.
Hierbei werden der regionale Bedarf und die Kompetenzanforderungen an zukünftige Absolvent_innen erschlossen. Zu diesem Zweck werden vier verschiedene Tools der Kompetenzprofilerstellung vorgestellt. Diese umfassen die Dokumentenanalyse, die Stellenanzeigenanalyse, den Curriculumabgleich und Lehrendeninterviews. Die vier Verfahren werden einander gegenübergestellt und Implikationen für die Praxis abgeleitet. Dieser Bericht soll dazu beitragen, eine Übersicht über die Methoden und das Vorgehen der bedarfsorientierten Studiengangsentwicklung geben.
Die Arbeit behandelt neuartige und gängige Methoden der Baugrundertüchtigung. Die Notwendigkeit einer Baugrundertüchtigung ergibt sich, wenn der anstehende Baugrund nicht in der Lage ist, den beabsichtigten Einwirkungen einen ausreichenden Widerstand entgegenzusetzen. Hierbei kann es sich um Einwirkungen einer geplanten Baumaßnahme handeln, wobei diese Lasten statischer oder auch dynamischer Natur sein können. Auch wenn es sich um Hilfsmaßnahmen handelt, beispielsweise an Baustraßen, so müssen diese während der geplanten Bauzeit ihre Funktion sicher erfüllen. Als weiteres Beispiel sei die Verarbeitbarkeit eines Bodens genannt, wenn dieser als Baustoff bei der Errichtung eines Dammbauwerkes verwendet wird. Letztendlich unterliegen Erdbauwerke nicht nur mechanischen Belastungen, sondern können auch durch Erosionsvorgänge einer Beanspruchung ausgesetzt sein. Wird der Baustoff Boden diesen Anforderungen nicht in ausreichendem Maße gerecht, so muss er entweder gegen ein geeignetes Material ausgetauscht werden oder es werden beispielsweise aufwändige Ergänzungsmaßnahmen erforderlich.
Um diese Maßnahmen zu umgehen, bieten sich in geeigneten Situationen die Ertüchtigung der vorgefundenen Böden an. Hierbei handelt es sich nicht nur um eine ressourcenschonende Vorgehensweise, oftmals ist diese Vorgehensweise auch die wirtschaftlichere. Der anstehende Boden muss nicht verfrachtet, möglicherweise deponiert und ein neues Material beigefahren werden. Die in situ Bearbeitung erfordert lediglich die Beistellung entsprechender Bauhilfsstoffe zur Ertüchtigung.
Welche Art an Bauhilfsstoffen zum Einsatz kommt, richtet sich vorrangig nach den vorgefundenen Bodenverhältnissen. Als traditionelles und längst etabliertes Verfahren hat sich die Beimischung geeigneter Bindemittel hervorgetan. Zu nennen sind hier die beiden hydraulischen Bindemittel Kalk und Zement. Für die Anwendung dieser Stoffe existieren Regelwerke, die Prüfungs- und Kontrollmethoden vor und während des Einbaus solcher Boden-Bindemittel-Mischungen beschreiben.
Trotz des seit langer Zeit bewährten Einsatzes, ist auch bei den beiden genannten Bauhilfsstoffen zu berücksichtigen, dass es sich letztendlich um Rohstoffe handelt, obwohl auch hier insbesondere bei den Kompositzementen bereits ein erhebliches Recyclingpotential genutzt wird. Jedoch fällt ins Gewicht, dass bei der Herstellung der Produkte klimaschädliches Kohlendioxid freigesetzt wird. Unter diesen Gesichtspunkten stellt die Verwendung von Industrieabfällen, die in gleichbleibender Güte anfallen, eine interessante Alternative dar. Neben diesen sogenannten by-products können auch recyclingfähige Materialien verwendet werden, sofern deren Eignung nachgewiesen werden kann. Eine gewisse Hürde bei der Verwendung der letztgenannten Alternativen stellen umweltrechtliche Fragestellungen dar. Zum einen handelt es sich um Abfälle und damit um Produkte, die rechtlich einer gänzlich anderen Würdigung und Bewertung unterliegen. Zum anderen müssen entsprechende Wechselwirkungen zwischen den Stoffen und der umgebenden Biosphäre berücksichtigt und bewertet werden.
In der vorliegenden Habilitationsarbeit werden im ersten Kapitel zunächst als Ausgangspunkt die wesentlichen Merkmale und Eigenschaften beim Einsatz traditioneller Kalk- und Zementbeimischungen untersucht. Das Kapitel 2 schließt an mit Betrachtungen zu dem Baustoff Tonbeton. Hierbei handelt es sich um einen ebenfalls schon lange Zeit bekannten Baustoff, der zwar aufgrund seines eng begrenzten Anwendungsspektrums nur wenig verbreitet ist. Aufgrund seiner Ähnlichkeit zu aktuellen Baustoffen, den zeitweise fließfähigen, selbstverdichtenden Verfüllbaustoffen, gewinnt das Produkt jedoch an Bedeutung. Dies gilt umso mehr, als Prüf- und Kontrollmethoden aufgrund des ähnlichen rheologischen Verhaltens im frühen Zustand derzeit nur ansatzweise vorliegen.
Die Kapitel 3 bis 5 umfassen neuartige Methoden der Bodenertüchtigung. Zu allen Verfahren liegen bereits Erfahrungen aus mehr als zwei Jahrzehnten vor. Diese Erfahrung beruht jedoch vorrangig auf exemplarischen Laborstudien.
Zu nennen sind hier zunächst die Epoxidharze in Kapitel 3. Epoxide werden im Konstruktiven Ingenieurbau vermehrt eingesetzt. Auch in der Geotechnik finden sich neben Laboruntersuchungen bereits praktische Anwendungsfälle, die eine wirksame Ertüchtigung von Festgestein dokumentiert. Eigene Untersuchungen bestätigen die Wirksamkeit dieser Methode.
Mit den Untersuchungen zu Boden-Gummi-Mischungen in Kapitel 4 werden Recyclingprodukte in die Ertüchtigungsmethoden mit einbezogen. Recyclinggummi steht in den unterschiedlichsten Formen zur Verfügung. Je nach Aufwand werden entweder komplette Reifen verbaut, zu Paketen verschnürt oder als Schreddergut in unterschiedlichen Siebfraktionen bis hin zu Pulver verbaut. Dementsprechend vielfältig ist auch das Anwendungsspektrum. Während insbesondere in den USA und einigen europäischen Ländern dieser „Baustoff“ bereits eine gewisse Akzeptanz besitzt, führen in Deutschland rechtliche und umwelttechnische Belange dazu, dass dieses Produkt derzeit nicht vermehrt eingesetzt wird.
In dem letzten Kapitel 5 wird als Ertüchtigungsmethode die Verwendung von Enzymen vorgestellt. Die Untersuchungen belegen, dass dieses biologische Verfahren für bestimmte Anwendungen durchaus seine Berechtigung hat und auch konkurrenzfähig zu bestehenden Methoden auftreten kann.
Following the ideas presented in Dahlhaus (2000) and Dahlhaus and Sahm (2000) for time series, we build a Whittle-type approximation of the Gaussian likelihood for locally stationary random fields. To achieve this goal, we extend a Szegö-type formula, for the multidimensional and local stationary case and secondly we derived a set of matrix approximations using elements of the spectral theory of stochastic processes. The minimization of the Whittle likelihood leads to the so-called Whittle estimator \(\widehat{\theta}_{T}\). For the sake of simplicity we assume known mean (without loss of generality zero mean), and hence \(\widehat{\theta}_{T}\) estimates the parameter vector of the covariance matrix \(\Sigma_{\theta}\).
We investigate the asymptotic properties of the Whittle estimate, in particular uniform convergence of the likelihoods, and consistency and Gaussianity of the estimator. A main point is a detailed analysis of the asymptotic bias which is considerably more difficult for random fields than for time series. Furthemore, we prove in case of model misspecification that the minimum of our Whittle likelihood still converges, where the limit is the minimum of the Kullback-Leibler information divergence.
Finally, we evaluate the performance of the Whittle estimator through computational simulations and estimation of conditional autoregressive models, and a real data application.
Im Rahmen der Tätigkeit eines selbständigen Unternehmensberaters ergeben sich in der Zusammenarbeit mit seinen Kunden eine Vielzahl von rechtlichen Fragestellungen. Die vorliegende Arbeit betrachtet dabei insbesondere solche Fragen, die im Bereich des Vertragswesens entstehen. Die Erbringung solcher Leistungen im Vertragswesen durch den Unternehmensberater unterliegt dem Rechtsdienstleistungsgesetz. Die vorliegende Arbeit soll dem Unternehmensberater als praxisnahe Hilfestellung bei der Entscheidung unterstützen, welche Tätigkeiten im Vertragswesen er übernehmen darf, und wo er die Grenzen zur unerlaubten Rechtsberatung überschreitet. Es wird zunächst das Rechtdienstleistungsgesetz mit seinen Voraussetzungen vorgestellt und erläutert, um die Grundlage für das Verständnis der Normen zu schaffen. Anschließend wird mit einem beispielhaften Katalog für typische Leistungen im Vertragswesen eine Orientierungshilfe für den Unternehmensberater gegeben. Für den Katalog werden das Rechtsdienstleistungsgesetz und seine bisher in Urteilen und Kommentaren erfolgte Auslegung als Basis herangezogen, zum Teil ergänzt um Entscheidungen zum vorhergehenden Rechtsberatungsgesetz. Ergänzt wird dies um Ausführungen zur Haftung des Unternehmensberaters für seine Rechtsdienstleistungen und zu einer diesbezüglich möglichen Versicherung. Abschließend wird ein kurzer Einblick in die Regelungen anderer europäischer Länder gegeben.
Am 30.11.2017 veranstalteten das Fachgebiet Siedlungswasserwirtschaft und tectraa, Zentrum für innovative AbWassertechnologien an der Technischen Universität Kaiserslautern die Fachtagung „Kläranlagen in der Energiewende: Faulung optimieren & Flexibilität wagen“ als gemeinsame Abschlussveranstaltung der Forschungsprojekte arrivee und ZEBRAS.
Das BMBF-Verbundprojekt „Abwasserreinigungsanlagen als Regelbaustein in intelligenten Verteilnetzen mit erneuerbarer Energieerzeugung – arrivee“ wurde vom Bundesministerium für Bildung und Forschung im Rahmen der Fördermaßnahme ERWAS gefördert. Projektpartner waren neben dem FG Siedlungswasserwirtschaft die Wupperverbandsgesellschaft für integrale Wasserwirtschaft mbH (WiW), der Wupperverband, Becker Büttner Held (BBH), die Bergische Universität Wuppertal, die iGas energy GmbH, die Stadtwerke Radevormwald GmbH sowie die Transferstelle Bingen (TSB).
Das Projekt „Zukunftsorientierte Einbindung der Faulung und Faulgasverwertung in die Verfahrenskette der Abwasserreinigung, Schlammbehandlung und -verwertung in Rheinland-Pfalz – ZEBRAS“ wurde im Auftrag des Ministeriums für Umwelt, Energie, Ernährung und Forsten Rheinland-Pfalz (MUEEF) von FG Siedlungswasserwirtschaft und tectraa gemeinsam mit der Universität Luxemburg und der Ingenieurgesellschaft Dr. Siekmann + Partner mbH bearbeitet.
Computational simulations run on large supercomputers balance their outputs with the need of the scientist and the capability of the machine. Persistent storage is typically expensive and slow, its peformance grows at a slower rate than the processing power of the machine. This forces scientists to be practical about the size and frequency of the simulation outputs that can be later analyzed to understand the simulation states. Flexibility in the trade-offs of flexibilty and accessibility of the outputs of the simulations are critical the success of scientists using the supercomputers to understand their science. In situ transformations of the simulation state to be persistently stored is the focus of this dissertation.
The extreme size and parallelism of simulations can cause challenges for visualization and data analysis. This is coupled with the need to accept pre partitioned data into the analysis algorithms, which is not always well oriented toward existing software infrastructures. The work in this dissertation is focused on improving current work flows and software to accept data as it is, and efficiently produce smaller, more information rich data, for persistent storage that is easily consumed by end-user scientists. I attack this problem from both a theoretical and practical basis, by managing completely raw data to quantities of information dense visualizations and study methods for managing both the creation and persistence of data products from large scale simulations.
In this thesis we address two instances of duality in commutative algebra.
In the first part, we consider value semigroups of non irreducible singular algebraic curves
and their fractional ideals. These are submonoids of Z^n closed under minima, with a conductor and which fulfill special compatibility properties on their elements. Subsets of Z^n
fulfilling these three conditions are known in the literature as good semigroups and their ideals, and their class strictly contains the class of value semigroup ideals. We examine
good semigroups both independently and in relation with their algebraic counterpart. In the combinatoric setting, we define the concept of good system of generators, and we
show that minimal good systems of generators are unique. In relation with the algebra side, we give an intrinsic definition of canonical semigroup ideals, which yields a duality
on good semigroup ideals. We prove that this semigroup duality is compatible with the Cohen-Macaulay duality under taking values. Finally, using the duality on good semigroup ideals, we show a symmetry of the Poincaré series of good semigroups with special properties.
In the second part, we treat Macaulay’s inverse system, a one-to-one correspondence
which is a particular case of Matlis duality and an effective method to construct Artinian k-algebras with chosen socle type. Recently, Elias and Rossi gave the structure of the inverse system of positive dimensional Gorenstein k-algebras. We extend their result by establishing a one-to-one correspondence between positive dimensional level k-algebras and certain submodules of the divided power ring. We give several examples to illustrate
our result.
Congress Report 2017.09-10
(2017)
Annual Report 2017
(2017)
The present situation of control engineering in the context of automated production can be described as a tension field between its desired outcome and its actual consideration. On the one hand, the share of control engineering compared to the other engineering domains has significantly increased within the last decades due to rising automation degrees of production processes and equipment. On the other hand, the control engineering domain is still underrepresented within the production engineering process. Another limiting factor constitutes a lack of methods and tools to decrease the amount of software engineering efforts and to permit the development of innovative automation applications that ideally support the business requirements.
This thesis addresses this challenging situation by means of the development of a new control engineering methodology. The foundation is built by concepts from computer science to promote structuring and abstraction mechanisms for the software development. In this context, the key sources for this thesis are the paradigm of Service-oriented Architecture and concepts from Model-driven Engineering. To mold these concepts into an integrated engineering procedure, ideas from Systems Engineering are applied. The overall objective is to develop an engineering methodology to improve the efficiency of control engineering by a higher adaptability of control software and decreased programming efforts by reuse.
Eine nachfrageorientierte und bedarfsgerechte Stadtplanung muss im Sinne
der Ordnung und Leitung der baulichen und sonstigen Nutzung des Bodens
unterschiedliche Flächenansprüche von Zielgruppen berücksichtigen, um
eine wechselseitige und verträgliche Zuordnung von Nutzungen zu erreichen.
Eine bedarfsgerechte Ausweisung von Wohnbauland erfordert es im
Sinne einer nachhaltigen Planung zu wissen, wo und wie die Menschen
wohnen wollen, wie ihre Präferenzen hinsichtlich Investitionsentscheidungen
(Miete oder Kauf) sowie deren quantitativen und qualitativen Anforderungen
an Wohnstandorte (Wohnung und Wohnumfeld) zu beurteilen sind.
Aus planungswissenschaftlicher Sicht sind im Rahmen der Wohnbaulandentwicklung
quantitative, qualitative und prozessuale Defizite von planungspraktischer
Relevanz identifizierbar, die sich – ausgehend von den Phasen
der Bedarfsermittlung über die Standortfindung und Bauleitplanung bis hin
zur baulichen Realisierung (Erschließung und Hochbau) – prozessübergreifend
erstrecken. So werden insbesondere qualitative Aspekte in diesen Prozessschritten
nicht gänzlich und zusammenhängend berücksichtigt, obwohl
qualitative Indikatoren bei der Wohnstandortentscheidung – im Sinne einer
sozialverträglichen, bestands- als auch nachfrageorientierten Stadtplanung
– eine immer stärkere Bedeutung erfahren.
Die Erkenntnisse aus der mikrogeographischen Milieu-Forschung – betrachtet
wird in der vorliegenden Arbeit primär das Sinus-Milieu-Modell® –
liefern Indizien für die zu erwartende quantitative und qualitative raumbezogene
Nachfrage einer heterogenen Stadtgesellschaft. Daher wird ein wissenschaftlicher
und planungspraktischer Mehrwert untersucht, der die Erkenntnisse
der Sinus-Milieu®-Forschung verwendet und im Sinne eines strategischen
Gesamtansatzes für Planungsprozesse nutzbar macht.
Anhand des Modellansatzes wird aufgezeigt, wie ganzheitlich
Planungs-, Realisierungs-, Vermarktungs- und Betriebsprozesse in Wohnquartieren
zielgruppenspezifisch und nachfrageorientiert gestaltet werden
können. Hierbei wird eine quantitative und qualitative Untersuchung durchgeführt,
die theoretische und anwendungsorientierte Erkenntnisse der Sinus-
Milieu®-Forschung im Kontext der Wohnbaulandentwicklung aus wissenschaftlichen
Erkenntnissen und Praxisprojekten adaptiert und in einem Optimierungsleitfaden
zur zielgruppenspezifischen Wohnbaulandausweisung
vereint. Darüber hinaus werden wohnstandort-, baugrundstücks-, wohngebäude-,
wohnungs- und planungsprozessual-bezogene Wohnqualitätskriterien
definiert, die als Orientierungsrahmen für zielgruppenspezifische
Wohnbaulandstrategien zu Grunde gelegt werden können.
Diese Erkenntnisse sind aus planungswissenschaftlicher Sicht mit einem planungspraktischen
Nutzen im Kontext der Wohnbaulandentwicklung anzusehen.
Das Vorgehen basiert auf der breiten Datenbasis der microm
GmbH, milieuspezifische und räumlicher Parameter werden für den Untersuchungsraum
in einem Sozialraumdiagramm eingeordnet. Das Instrument
der Sozialraumanalyse liegt dem Modellansatz zu Grunde und wird anhand
der Demonstrator-Kommune Stadt Kaiserslautern erforscht.
The proliferation of sensors in everyday devices – especially in smartphones – has led to crowd sensing becoming an important technique in many urban applications ranging from noise pollution mapping or road condition monitoring to tracking the spreading of diseases. However, in order to establish integrated crowd sensing environments on a large scale, some open issues need to be tackled first. On a high level, this thesis concentrates on dealing with two of those key issues: (1) efficiently collecting and processing large amounts of sensor data from smartphones in a scalable manner and (2) extracting abstract data models from those collected data sets thereby enabling the development of complex smart city services based on the extracted knowledge.
Going more into detail, the first main contribution of this thesis is the development of methods and architectures to facilitate simple and efficient deployments, scalability and adaptability of crowd sensing applications in a broad range of scenarios while at the same time enabling the integration of incentivation mechanisms for the participating general public. During an evaluation within a complex, large-scale environment it is shown that real-world deployments of the proposed data recording architecture are in fact feasible. The second major contribution of this thesis is the development of a novel methodology for using the recorded data to extract abstract data models which are representing the inherent core characteristics of the source data correctly. Finally – and in order to bring together the results of the thesis – it is demonstrated how the proposed architecture and the modeling method can be used to implement a complex smart city service by employing a data driven development approach.
Ein Flüchtlingscamp als Raum konstituierter Sichtbarkeit: Shatila. 1949 für Vertriebene der nördlichen Palästinensergebiete erbaut, in den südlichen Vororten der libanesischen Hauptstadt Beirut angesiedelt, Ort eines Genozids in den 80er Jahren und, in der Syrienkrise, Symbol von nationalem und internationalem gesellschaftlich-politischen Versagens, visualisiert es den tatsächlichen, aber auch mentalen Kampf der Bewohner mit der oktroyierten und begrenzten Sphäre. Die territoriale, politische und gesellschaftliche Limitierung der (mittlerweile nicht nur) palästinensischen Bevölkerung in Beirut führen zur Grundidee einer kritischen Raumforschung: Der Mikrokosmos des Camps wird als fragiler aber beständiger Ausnahmezustand wahrgenommen und dient als Untersuchungsgegenstand, um gesellschaftliche und kulturelle Prozesse in diskursive Raumbeziehungen zu setzen. Die Grundlage der Untersuchung bildet die von Foucault stark beeinflusste ‚Neue Kulturgeographie‘ und deren zweite Phase der Hinwendung zur Sichtbarkeit und Re-Materialisierung. Es wird dann ein Verbleichen von Strukturen und kartesischen Rastern zugelassen, um den geographischen Raum in unterschiedliche Systeme zu übersetzten, die sich differenzierten wissenschaftlichen Ansätzen bedienen, um so schlussendlich individuelle und kollektive Rückschlüsse über die Bedeutung von Raum in einer anthropogenen Katastrophe zu generieren.
We continue in this paper the study of k-adaptable robust solutions for combinatorial optimization problems with bounded uncertainty sets. In this concept not a single solution needs to be chosen to hedge against the uncertainty. Instead one is allowed to choose a set of k different solutions from which one can be chosen after the uncertain scenario has been revealed. We first show how the problem can be decomposed into polynomially many subproblems if k is fixed. In the remaining part of the paper we consider the special case where k=2, i.e., one is allowed to choose two different solutions to hedge against the uncertainty. We decompose this problem into so called coordination problems. The study of these coordination problems turns out to be interesting on its own. We prove positive results for the unconstrained combinatorial optimization problem, the matroid maximization problem, the selection problem, and the shortest path problem on series parallel graphs. The shortest path problem on general graphs turns out to be NP-complete. Further, we present for minimization problems how to transform approximation algorithms for the coordination problem to approximation algorithms for the original problem. We study the knapsack problem to show that this relation does not hold for maximization problems in general. We present a PTAS for the corresponding coordination problem and prove that the 2-adaptable knapsack problem is not at all approximable.
The cytosolic Fe65 adaptor protein family, consisting of Fe65, Fe65L1 and Fe65L2 is involved in many intracellular signaling pathways linking via its three interaction domains a continuously growing list of proteins by facilitating functional interactions. One of the most important binding partners of Fe65 family proteins is the amyloid precursor protein (APP), which plays an important role in Alzheimer Disease.
To gain deeper insights in the function of the ubiquitously expressed Fe65 and the brain enriched Fe65L1, the goal of my study was I) to analyze their putative synaptic function in vivo, II) to examine structural analysis focusing on a putative dimeric complex of Fe65, III) to consider the involvement of Fe65 in mediating LRP1 and APP intracellular trafficking in murine hippocampal neurons. By utilizing several behavioral analyses of Fe65 KO, Fe65L1 KO and Fe65/Fe65L1 DKO mice I could demonstrate that the Fe65 protein family is essential for learning and memory as well as grip strength and locomotor activity. Furthermore, immunohistological as well as protein biochemical analysis revealed that the Fe65 protein family is important for neuromuscular junction formation in the peripheral nervous system, which involves binding of APP and acting downstream of the APP signaling pathway. Via Co-immunoprecipitation analysis I could verify that Fe65 is capable to form dimers ex vivo, which exclusively occur in the cytosol and upon APP expression are shifted to membrane compartments forming trimeric complexes. The influence of the loss of Fe65 and/or Fe65L1 on APP and/or LRP1 transport characteristics in axons could not be verified, possibly conditioned by the compensatory effect of Fe65L2. However, I could demonstrate that LRP1 affects the APP transport independently of Fe65 by shifting APP into slower types of vesicles leading to changed processing and endocytosis of APP.
The outcome of my thesis advanced our understanding of the Fe65 protein family, especially its interplay with APP physiological function in synapse formation and synaptic plasticity.
Die evangelischen Landeskirchen mit ihrem tradierten institutionellen Selbstverständnis verlieren im Zuge der Mitgliedschaftserosion immer mehr den Anschluss an eine sich rasant wandelnde Gesellschaft. Die fortschreitende Pluralisierung, Individualisierung und Mobilität der Gesellschaft sowie die Zunahme von sozialen Organisationsformen alternativ zur klassischen Kleinfamilie stellen die regional agierende und massenkommunizierende evangelische Volkskirche heute vor Herausforderungen, die sie mit ihren bisherigen institutionellen Strukturen offensichtlich nicht mehr in jeder Hinsicht bewältigen kann. Als Körperschaft des öffentlichen Rechts sieht sich die evangelische Kirche selbst auf Augenhöhe zu den staatlichen Gewalten. Auf diese Weise steht sie im Spannungsfeld zwischen dem selbst auferlegten öffentlichen, mitgliederdistanzierten Auftrag einerseits und der Erwartung zur religiösen Bedürfnisbefriedigung andererseits.
Ausgehend von dem letzten Reformimpuls, den die EKD unter dem Titel Kirche der Freiheit im Jahr 2006 an ihre Gliedkirchen aussandte, wird ein differenzierterer Ansatz vorgeschlagen, bei dem die evangelische Kirche eine ihrer wichtigsten Dimensionen, nämlich die der mitgliederbasierten Freiwilligkeitsorganisation in den Fokus rückt. Ein vornehmlich organisationales Selbstverständnis würde der evangelischen Kirche mit der Anwendung von Nonprofit-Governance-Methoden, beispielsweise mit der organisationsweiten Einführung effektiverer Leitungs- und Steuerungsmechanismen, neue und flexiblere Handlungsspielräume eröffnen. Zudem erlaubte ein auf das kirchliche Wesen zugeschnittenes Nonprofit-Marketing das Organisationsziel in Relation zum Marktgeschehen und damit zu den Bedürfnissen der Individuen zu formulieren und zu verfolgen.
In der konsequenten Weiterentwicklung der im Impulspapier der EKD genannten Funktionsgemeinden wird eine funktionale Organisationsmatrix vorgeschlagen, die sich an den vier christlichen Grundvollzügen Koinonia, Diakonia, Leiturgia und Martyria orientiert. Dies impliziert die Substitution des traditionellen Parochialsystems durch eine rein funktionale Organisationsstruktur in Form von strategischen Kerngeschäftsfeldern, unter denen die diversen kirchlichen Dienste programmatisch zusammengefasst werden.
Für die bessere Wiedererkennbarkeit im Außenverhältnis und notwendige Komplexitätsreduzierung im Binnenverhältnis wird die Konzeptionierung einer einheitlichen evangelischen Corporate Identity angeraten, die organisationsweite einheitliche Vorgaben für das Verhalten, die Außendarstellung und Kommunikation im Rahmen einer einheitlichen evangelischen Dachmarke vorsieht. Ziel ist es hier, mit einer stimmigen Corporate Identity eine kirchliche Persönlichkeit zu erschaffen, die ihre religiöse Identitätsbotschaft mit ihrer eigenen Wahrhaftigkeit vermittelt.
Das Methodenrepertoire der Stadt- und Umweltplanung befindet sich insbesondere durch den zunehmenden Einsatz von Geoweb-Methoden insgesamt in einem Umbruch hin zu einer „Smart urban Crowdsourcing“-Wissensgesellschaft [STREICH 2011: 236 F]. Kontinuierlich nimmt die An-zahl zur Verfügung stehenden Geoweb-Techniken zu, die auf ihren Einsatz in der Stadt- und Umweltplanung warten, sich in planerische Methoden integrieren oder zu solchen weiterentwickeln lassen. Am Beispiel des Verhältnisses von Planern gegenüber Bürgern werden die Veränderungen des planerischen Aufgabengebietes besonders dadurch deutlich, dass es sich hierbei nicht mehr um den reinen Transport von Informationen und gegebenenfalls eine Hilfestellung bei der Übersetzung dieser in einem klassischen Sender-Empfänger-Prinzip handelt. In einer, durch soziale Netzwerke und mobile Endgeräte, zunehmend digitalisierten Welt, ist es theoretisch möglich, dass jedem Bürger zu jeder Zeit an jedem Ort jede beliebige In-formation zum Abruf bereit steht. Auf diese Weise kann sich der Bürger informieren, seine eigene Meinung bilden und diese teilen. Da die ange-sprochenen mobilen Endgeräte zusätzlich mit Verortungstechnik ausgestat-tet sind und die geteilten Informationen um Angaben eines räumlichen Bezuges in Form von Geo-Koordinaten ergänzt werden können, bekommen die auf diesem Wege erstellten Datensätze auch zunehmend Aufmerksamkeit von Seiten der Raumplanung.
Durch die neu verfügbaren Techniken des Geowebs verändert sich auch das Aufgabengebiet von Stadt- und Umweltplanern: Um den jeweiligen „Stand der Technik“ hinsichtlich einer „smarten Planung“ [EXNER 2013] einsetzen zu können, werden sich Planer heute und auch zukünftig kontinuierlich über neue Techniken informieren müssen, diese auf ihre Einsatzpotentiale untersuchen, bestehende Planungsmethoden ergänzen und zum Einsatz bringen. Die Herausforderungen liegen dabei in der Prüfung der Geoweb-Techniken, deren Fortentwicklung sowie Integration in planerische Methoden. Beim Einsatz dieser neuen Methoden steht Generierung eines Mehrwertes für die von einer Planung betroffenen Menschen und die Planer selbst im Mittelpunkt. Mit dem Smartphone steht ein Werkzeug zur Verfügung, welches die Grundlage eines jeden, aktuell in Wissenschaft und Wirtschaft formulierten, „Smart-City“-Ansatzes bilden kann und zu dessen Umsetzung benötigt wird.
Nach einer theoretischen Behandlung des Aufgabengebietes der Stadt- und Umweltplanung und des Planungssystems in Deutschland, geht die vorliegende Arbeit zunächst auf die Genealogie des Internets und dessen Veränderungen der letzten Jahre ein. Neben der Entwicklung des Compu-tereinsatzes in der räumlichen Planung werden die neuen Möglichkeiten durch die Verbreitung von Smartphones behandelt. Außer den Potentialen wie der Erstellung raumbezogener Informationen durch den Einsatz der mobilen Endgeräte werden auch die dadurch verstärkt aufkommenden Themen des Datenschutzes und des Datenbewusstseins betrachtet.
Die Techniken und Methoden lassen sich den klassischen Aufgabenbereichen von Stadt- und Umweltplanern zuordnen. In der vorliegenden Arbeit erfolgt dieser Ansatz anhand der vier Bereiche der Strukturplanung, der Raumsensorik, der Gestaltungsplanung und den Kommunikationsplattformen entsprechend.
Das Kapitel zum Aufgabengebiet der Strukturplanung wird bei der zugehörigen Analyse nach den geometrischen Struktureinheiten punktueller, linien- und flächenhafter Informationen unterteilt. Der Bereich der Raumsensorik behandelt neben punktuell im Raum installierten Sensoren (wie z.B. Klimasensoren), die Ansätze der Humansensorik bzw. des „Menschen als Sensor im Raum“ [GOODCHILD 2007, RESCH ET AL. 2011, EXNER ET AL. 2012] und die Möglichkeiten optischer Sensortechniken, die mit unbemannten Luftfahrtgeräten nun auch als „fliegendes Auge“ zum Monitoring des Stadt- und Umweltraumes zum Einsatz gebracht werden können. Im klassischen Themengebiet der Gestaltungsplanung werden die Potentiale von virtuellen 3D-Welten in den Bereichen 3D-(Stadt-)Modelle, 360-Grad-Videos, Augmented Reality und Virtual Reality behandelt. Das den Hauptteil abschließende Kapitel rückt dagegen die Aspekte Information und Kommunikation noch einmal explizit in den Vordergrund. Hierbei wird unter anderem der Gedanke eines City-Dashboards hinsichtlich des damit zu erzielenden Mehrwertes fokussiert.
Neben der Erweiterungen hinsichtlich des Aufgabengebietes von Planern ändert sich auch dessen Rollenverständnis: In der Wissensgesellschaft befindet sich die Rolle des Planers zunehmend im Wandel und dieser nimmt eher die Rolle eines „Anwaltes in raumbezogenen Fragen“ der Bürger ein, berät diese, hilft bei der Formulierung deren Anliegen (beispielsweise auch durch die Zurverfügungstellung geeigneter Plattformen und Werkzeuge) und bringt deren Belange im Planungsprozess ein [STREICH 2014:167].
Die Auswirkungen auf das Selbstverständnis des Berufsbildes des Planers werden in einem abschließenden Fazit noch einmal aufgegriffen und zukünftige Themen im Ausblick und weiteren Forschungsbedarf thematisiert und skizziert.
This paper presents a case study of duty rostering for physicians at a department of orthopedics and trauma surgery. We provide a detailed description of the rostering problem faced and present an integer programming model that has been used in practice for creating duty rosters at the department for more than a year. Using real world data, we compare the model output to a manually generated roster as used previously by the department and analyze the quality of the rosters generated by the model over a longer time span. Moreover, we demonstrate how unforeseen events such as absences of scheduled physicians are handled.
Kurzusammenfassung
Molke gilt als Rohstoff, der ein in großen Mengen anfallendes Nebenprodukt der Käseindustrie ist. In den vergangenen Jahrzehnten wurde die wirtschaftliche Nutzung durch Wertschöpfung dieses kostengünstigen aber wertvollen Produktes intensiviert. Zu den drei wichtigsten Bestanteilen von Molke gehören Mineralien, Eiweiß und Lactose. Gerade der hohe physiologische Nährwert von Molke bei fast vollständiger Abwesenheit von Fett legt eine Anwendung in der Lebensmittelindustrie nahe. So werden inzwischen Bestandteile von Molke in Süßigkeiten, Diätetika, Tablettenfüll-stoffen, Verdickungsmitteln und Säuglingsernährung verwendet.
Vor der Verwendung von mikrobiellem Lab, welcher keine Spätblähung mehr verursacht, gab es ein Problem mit Nitratbelastung in der Molke durch Zugabe von Kalium- bzw. Natriumnitrat während der Käseherstellung zur Inhibition von Fehlgärungen. Bei Kleinkindern droht Lebensgefahr durch innere Erstickung, da das aus Nitrat gebildete Nitrit (durch Bakterien der Darmflora) Hämoglobin oxidiert. Daher wurden die Molkereien gezwungen sich mit dem Thema zu beschäftigen, um dieses Problem zu lösen. Für Erwachsene ist dies aber ungefährlich.
In dieser Arbeit wurde die Denitrifikation von Molkekonzentrat mit nativen Zellen und mit immobilisierten Zellen von Paracoccus denitrificans durchgeführt. Die indirekte Anwendung von dem Bakterium zur Nitratentfernung aus Molkekonzentrat befasst sich mit der Integration der Regeneration des Eluenten in den Prozess nach dem chromatographischen Verfahren. Das im Eluenten enthaltene Nitrat wird auch in Gegenwart von Natriumchlorid über mehrere Zwischenstufen zu elementarem Stickstoff reduziert. Somit wird der Eluent für eine weitere Regeneration wiederverwendbar und das Abwasseraufkommen des Gesamtprozesses stark reduziert. Eine kontinuierliche Denitrifikation des Eluenten mit einer Natriumchlorid-konzentration von 35 g/L wurde durch native Zellen realisiert. Als geeignete Denitrifikationsbedingungen wurden eine Temperatur von 37 °C, ein pH-Wert von 7,5 und die Zugabe von Acetat als Elektronendonor ermittelt.
Kontinuierliche Denitrifikationen mit nativen Zellen wurden in einer Laboratoriums- und Pilotanlage in Bioreaktoren mit einem Volumen von 5 L bzw. 25 L durchgeführt. Die Abtrennung der nativen Zellen zur Rückführung des Eluenten in die chroma-tographische Stufe erfolgte durch Cross-Flow-Filtration. Die vollständige Entfernung von Nitrat in Molkekonzentrat ist bis zu 450 Liter pro Tag im Pilotmaßstab möglich.
Im Falle immobilisierter Zellen wird die Zellabtrennung vereinfacht, da die Immobilisate 1,5-5 mm groß sind. Die Immobilisate konnten somit durch ein einfaches grobmaschiges Sieb zurückgehalten werden. Die Immobilisierung der Mikroorganis-men Paracoccus denitrificans wurde mit Hilfe des LentiKats® der Fa. genialLab GmbH hergestellt. Mit dem immobilisierten Verfahren wurde Nitrat im Eluent bzw. direkt in Molkekonzentrat denitrifiziert. Die Entfernung von Nitrat im Eluent ist bei gleichen Bedingungen wie mit nativen Zellen möglich. Allerdings zeichnen sich immobilisierte Mikroorganismen durch eine geringere Aktivität im Vergleich zu nativen Zellen aufgrund der Diffusionslimitierung, aus. So wurde durch immobilisierte Zellen eine Abbaugeschwindigkeit von v = 22,2 mgNitrat h-1∙g-1BTM im kontinuierlichen Betrieb erreicht, während durch Verwendung nativer Zellen Abbauraten von bis zu 32,4 mgNitrat h-1∙g-1BTM realisiert werden konnten. Der direkte Nitratabbau im Molkekonzentrat wurde bei Temperaturen von 10 °C bis zu 30 °C durchgeführt. Nach 1 h bei 30 °C konnte 90 mg/L Nitratkonzentrat vom Molkekonzentrat entfernt werden. Eine Akkumulierung von Nitrit ist nicht aufgetreten. Bei niedrigeren Temperaturen wurde der Nitratabbau geringer. Bei einer Temperatur von 10 °C ist es nicht mehr möglich Nitrat abzubauen. Die Untersuchung der wichtigen Inhaltstoffe, wie Protein, Mineralstoffe, Lactose, Glucose und Galactose im Molkekonzentrat wurde nach der Denitrifikation durchgeführt. Eine Änderung der Konzentration konnte nicht nachgewiesen werden.
Schlagworte: Molke, Molkeproteine, Denitrifikation, Nitrat, Immobilisierung, Paracoccus denitrificans
For many years, most distributed real-time systems employed data communication systems specially tailored to address the specific requirements of individual domains: for instance, Controlled Area Network (CAN) and Flexray in the automotive domain, ARINC 429 [FW10] and TTP [Kop95] in the aerospace domain. Some of these solutions were expensive, and eventually not well understood.
Mostly driven by the ever decreasing costs, the application of such distributed real-time system have drastically increased in the last years in different domains. Consequently, cross-domain communication systems are advantageous. Not only the number of distributed real-time systems have been increasing but also the number of nodes per system, have drastically increased, which in turn increases their network bandwidth requirements. Further, the system architectures have been changing, allowing for applications to spread computations among different computer nodes. For example, modern avionics systems moved from federated to integrated modular architecture, also increasing the network bandwidth requirements.
Ethernet (IEEE 802.3) [iee12] is a well established network standard. Further, it is fast, easy to install, and the interface ICs are cheap [Dec05]. However, Ethernet does not offer any temporal guarantee. Research groups from academia and industry have presented a number of protocols merging the benefits of Ethernet and the temporal guarantees required by distributed real-time systems. Two of these protocols are: Avionics Full-Duplex Switched Ethernet (AFDX) [AFD09] and Time-Triggered Ethernet (TTEthernet) [tim16]. In this dissertation, we propose solutions for two problems faced during the design of AFDX and TTEthernet networks: avoiding data loss due to buffer overflow in AFDX networks with multiple priority traffic, and scheduling of TTEthernet networks.
AFDX guarantees bandwidth separation and bounded transmission latency for each communication channel. Communication channels in AFDX networks are not synchronized, and therefore frames might compete for the same output port, requiring buffering to avoid data loss. To avoid buffer overflow and the resulting data loss, the network designer must reserve a safe, but not too pessimistic amount of memory of each buffer. The current AFDX standard allows for the classification of the network traffic with two priorities. Nevertheless, some commercial solutions provide multiple priorities, increasing the complexity of the buffer backlog analysis. The state-of-the-art AFDX buffer backlog analysis does not provide a method to compute deterministic upper bounds
iiifor buffer backlog of AFDX networks with multiple priority traffic. Therefore, in this dissertation we propose a method to address this open problem. Our method is based on the analysis of the largest busy period encountered by frames stored in a buffer. We identify the ingress (and respective egress) order of frames in the largest busy period that leads to the largest buffer backlog, and then compute the respective buffer backlog upper bound. We present experiments to measure the computational costs of our method.
In TTEthernet, nodes are synchronized, allowing for message transmission at well defined points in time, computed off-line and stored in a conflict-free scheduling table. The computation of such scheduling tables is a NP-complete problem [Kor92], which should be solved in reasonable time for industrial size networks. We propose an approach to efficiently compute a schedule for the TT communication channels in TTEthernet networks, in which we model the scheduling problem as a search tree. As the scheduler traverses the search tree, it schedules the communication channels on a physical link. We presented two approaches to traverse the search tree while progressively creating the vertices of the search tree. A valid schedule is found once the scheduler reaches a valid leaf. If on the contrary, it reaches an invalid leaf, the scheduler backtracks searching for a path to a valid leaf. We present a set of experiments to demonstrate the impact of the input parameters on the time taken to compute a feasible schedule or to deem the set of virtual links infeasible.
In den vergangenen Jahren hat sich der Bereich der Nanotechnologie zu einem fachübergreifenden Gebiet entwickelt. Nanopartikel besitzen aufgrund ihrer Größe und einem hohen Oberfläche zu Volumen Verhältnis besondere chemische und physikalische Eigenschaften, die sich von denen größerer Partikel unterscheiden. Das Forschungsinteresse der letzten Zeit liegt insbesondere auf deren magnetischem Charakter. Damit verbunden sind auch vielseitige industrielle Einsatzmöglichkeiten. Magnetische, nanostrukturierte Materialien werden in Bereichen wie der Chemie, der Physik sowie der Biomedizin untersucht und angewendet.
In der Chemie werden die Herstellung und die Untersuchung der katalytischen Eigenschaften von Nanopartikeln intensiv erforscht. Zu den zahlreichen Synthesemethoden von nanoskaligen Partikeln zählen zum Beispiel die thermische Zersetzung, die Mitfällung oder die Hydrothermalsynthese. Die katalytische Aktivität und die Selektivität dieser Materialien werden von der Partikelgröße, der Morphologie und der Anzahl an aktiven Oberflächenzentren beeinflusst. Die Entwicklung von stabilen Katalysatoren ist entscheidend für viele Anwendungen. Zur Stabilisierung und zum Schutz gegen Oxidation und Erosion werden oberflächenaktive Substanzen (z. B. Polymere, Tenside), anorganische oder poröse Trägermaterialien (Siliciumdioxid, Zeolithe) eingesetzt. Ein wichtiges Ziel für nachhaltige Prozesse sind leicht abtrennbare und wiederzuverwendende Nanopartikel. Dies ermöglichen zum Beispiel Kern-Schale-Katalysatoren, die eine katalytisch aktive Schale (Rh, Pt, Au) und einen magnetischen Kern aus Fe, Co, Ni besitzen. Verschiedene magnetische Nanopartikel wurden in zahlreichen Reaktionen (z. B. C-C-Kupplungen, Hydrierung von Olefinen, Hydroformylierung) getestet und zeichneten sich als katalytisch aktive und stabile Katalysatoren aus.
Im Bereich der Physik werden die magnetischen und die elektronischen Eigenschaften der Nanopartikel untersucht. Die magnetischen Einheiten werden im Forschungsgebiet der Informationstechnologie als Nanobauteile in Speichermedien eingesetzt. Die Verwendung basiert auf der Nutzung des ferromagnetischen Verhaltens einzelner Nanomaterialien in Speichereinheiten. Bei der Herstellung werden die elektrischen, optischen und magnetischen Eigenschaften der Nanopartikel beeinflusst. So tritt mit abnehmender Partikelgröße ein Übergang vom Ferromagnetismus zum Paramagnetismus auf. Außerdem beginnt die Magnetisierungsrichtung zeitlich und räumlich zu fluktuieren und die magnetisch
gespeicherten Informationen gehen verloren. Die Miniaturisierung der Komponenten (z. B. Computerchips) bei gleichzeitiger Vergrößerung der Datenspeicherdichte ist sehr wichtig. Einer der vielversprechenden Zusammensetzungen dafür sind FePt-Partikel, die auch nach Entfernen des externen elektrischen Feldes ihre Magnetisierungsrichtung nicht sofort verlieren.
Im biomedizinischen Bereich eröffnen magnetische Nanopartikel ebenfalls neue Möglichkeiten. Sie werden als spezielle Kontrastmittel für die bildgebenden Verfahren der Magnetresonanztomografie genutzt. Außerdem können funktionalisierte Partikel als Transportmittel für Wirkstoffe bei einer Krebstherapie eingesetzt werden. Eine gezielte Positionierung des mit Wirkstoff modifizierten magnetischen Nanopartikels im Körper ist dabei möglich. Die Bioverträglichkeit der Materialien wird durch eine Verkapselung der Nanopartikel mit biologisch nicht belastenden, nicht toxischen Substanzen (z. B. Polyvinylalkohol, Polyethylenglykol, Stärke oder Dextran) erreicht.
Eine Materialklasse, die Wissenschaft und Technologie vereinigt und die in den letzten Jahren immer mehr an Interesse gewonnen hat, stellen die Heusler-Verbindungen dar. Dies sind ternäre intermetallische Zusammensetzungen der Form X2YZ, die im Jahr 1903 von Fritz Heusler entdeckt und beschrieben wurden. X und Y stehen meistens für Übergangmetalle, wohingegen Z häufig ein Element der III. – V. Hauptgruppe darstellt. Eine Kombination der unterschiedlichen charakteristischen Merkmale (halbmetallischer Charakter, hohes magnetisches Moment, hohe Curie-Temperatur) in einer Verbindung ermöglicht vielseitige Anwendungen dieser Materialien. Die Eigenschaften der Heusler-Verbindungen können durch die Veränderung der Zusammensetzung (Elementenaustausch) oder durch die Variation der Stöchiometrie der kombinierten Elemente beeinflusst werden. Unter den Heusler-Materialien sind halbmetallische Ferromagneten, ferrimagnetische Zusammensetzungen, Halbleiter und Supraleiter vertreten. Die X2YZ-Kompositionen werden industriell als magneto-optische Materialien, als Formgedächtnislegierungen, in thermoelektrischen Elementen oder als topologische Isolatoren verwendet. Das
Augenmerk der Spintronik liegt bei der hohen Spinpolarisation der Heusler-Verbindungen. Effiziente Bauelemente mit einem hohen Riesenmagnetwiderstand oder einem hohen Tunnelmagnetwiderstand werden in Festplattenleseköpfen von Computern und in magnetischen Sensoren eingebaut. Mit den ersten katalytischen Experimenten an ternären intermetallischen Materialien von Hedvall und Hedin im Jahr 1935 wurde auf ein weiteres Forschungs- und Einsatzbereich für Heusler-Verbindungen hingewiesen.
Die Finanzierung der Krankenhäuser stellt eine vielschichtige, komplexe Rechtsmaterie dar, die seit Beginn der Dualen Finanzierung mit Einführung des Krankenhausfinanzierungsgesetzes (KHG) im Jahre 1972 mehreren Strukturreformen unterzogen wurde, mit der Zielsetzung einer wirtschaftlichen Sicherung der Krankenhäuser für eine leistungsfähige und bedarfsgerechte Versorgung der Bevölkerung.
Die ersten strukturierten Umweltschutzbemühungen in deutschen Krankenhäusern hatten ihren Ursprung in den achtziger Jahren und ihre Hochzeit bis Ende der neunziger Jahre, vorwiegend geprägt durch die besonderen Anforderungen an die Abfallentsorgung in den Kliniken. Danach traten die Strukturreformbemühungen zur Kostensenkung im Gesundheitswesen massiv in den Vordergrund. Umweltschutz im Krankenhaus findet aktuell insbesondere wieder Beachtung in der Problematik pharmakologischer Substanzen bei der Verabreichung von Medikamenten und Diagnostika, deren Wirkstoffe bereits heute zunehmend Probleme bei der Trinkwasseraufbereitung verursachen. Auch die kontinuierlich steigenden Energiekosten motivieren Krankenhäuser als Großverbraucher zur Einführung innovativer Energieversorgungskonzepte.
In diesem Zusammenhang stellt sich unweigerlich die Frage nach der Investitionskostenfinanzierung solcher Umweltschutzprojekte. Soweit diese Mittel nicht über die gesetzlich definierte Krankenhausfinanzierung erfolgt, kommt insbesondere die Inanspruchnahme weiterer Fördermittel in Frage. Hierbei sind generell auch die EU-rechtlichen Rahmenbedingungen des Beihilferechts zu beachten.
Zielsetzung dieser Arbeit ist insbesondere die Beantwortung der Frage, inwieweit die Inanspruchnahme staatlicher Fördermittel für Umweltschutzmaßnahmen im Krankenhaus den beihilferechtlichen Tatbestand erfüllt und ob diese als Dienstleistungen im allgemeinen wirtschaftlichen Interesse eingestuft werden können.
Das Feld der Anionenerkennung ist ein stets wachsendes Forschungsgebiet, auch weil eine Vielzahl biochemischer Prozesse mit negativ geladenen Substraten und Co-Faktoren verbunden sind. Da solche Prozesse in wässrigem Milieu stattfinden, sind Verbindungen von besonderem Interesse, die Anionen in Wasser zu binden vermögen. Geeignete Rezeptoren zur Erkennung von Anionen sind die im Arbeitskreis Kubik entwickelten Cyclopeptide (CPs) und Bis(cyclopeptide) (BCPs).
Da die Anionenaffinität der in der Vergangenheit untersuchten BCPs nur in wenigen ausgesuchten Lösungsmittelgemischen und nie in reinem Wasser charakterisiert wurde, wurde im ersten Teil meiner Promotion ein BCP-Derivat entwickelt, mit dem kalorimetrische Bindungsstudien in einem breiten Spektrum von Lösungsmittelgemischen möglich waren. Die hierbei erhaltenen thermodynamischen Daten sollten Informationen über die Prinzipien geben, die der Anionenaffinität dieser Verbindungen zugrunde liegen. Es wurde zunächst die Synthese des bereits in meiner Diplomarbeit untersuchten BCP1 optimiert, dessen Wasserlöslichkeit durch insgesamt sechs Triethylenglycolreste vermittelt wird. Dieser Rezeptor erwies sich nach geeigneter Isolation ausreichend löslich, um Lösungen in Wasser mit einer Konzentration von bis zu 0.25 mM herzustellen. Es wurde ebenfalls das BCP2 mit einer zusätzlichen solubilisierenden Gruppe im Vergleich zu BCP1 synthetisiert, welches in bis zu 10 mM Konzentrationen in Wasser löslich ist. Mit beiden Rezeptoren wurden in Wasser, verschiedenen wässrigen Lösungsmittelgemischen und reinen organischen Lösungsmitteln Bindungsstudien durchgeführt, wodurch quantitative und qualitative Einblicke erhalten wurden, wie die Solvatisierung des Anions und des Rezeptors in den verschiedenen Lösungsmitteln die Anionenkomplexierung beeinflussen.
Im zweiten Teil dieser Arbeit wurde an der Entwicklung von CP-basierten chemischen Sensoren und Sonden gearbeitet, mit denen Anionen in Lösung detektiert werden können. In diesem Zusammenhang wurden Synthesen für zwei CPs entwickelt, die auf unterschiedliche Art auf Goldelektroden immobilisiert werden können. Diese Elektroden sollen für die elektrochemische Anionendetektion dienen. Im Bereich chemischer Sonden sollten mit CPs dekorierte Goldnanopartikel (Au-NPs) dargestellt werden, die nach Anionenzugabe agglomerieren. Die damit verbundene Farbveränderung der Lösung soll einen Anionennachweis mit bloßem Auge gestatten. Es wurden zwei CP-Grundstrukturen dargestellt, welche als anionenerkennende Liganden auf Au-NPs dienen können. Ebenfalls wurden erste Au-NPs synthetisiert, die eine Mischung oberflächengebundener inerter und CP-funktionalisierter Liganden enthielten.
Eines der tragenden Elemente der Europäischen Union ist zweifelsohne die Erwartung, dass sich durch einen ausgeprägten und gut funktionierenden europäischen Binnenmarkt ökonomische Vorteile für alle Beteiligten ergeben. Ein grundsätzliches Paradigma ist in diesem Zusammenhang die Annahme, dass einheitliches Recht bei der Erreichung von vorhergenanntem Ziel helfen kann.
Die sogenannte „UGP-Richtlinie“Richtlinie zielt auf eine umfassendere Rechtsvereinheitlichung der Regulierung von unlauteren Geschäftspraktiken ab. Neben dem Ziel, den europäischen Binnenmarkt zu stimulieren, formuliert die Richtlinie als weiteres Ziel ein hohes Verbraucherschutzniveau. Dabei bezieht sich die Regulierungsvorgabe der Richtlinie ausschließlich auf Rechtsfälle für das Verhältnis Unternehmen-Verbraucher.
Der Mitgliedsstaat ist zur Umsetzung der Richtlinien der Europäischen Kommission verpflichtet. Um insbesondere einen hohen Grad an Rechtsvereinheitlichung erreichen zu können, wurde die UGP-Richtlinie seitens der Kommission als vollharmonisierend ausgeführt. Dies bedeutet, dass der mitgliedsstaatliche Gesetzgeber die Richtlinieninhalte in sein nationales Rechtssystem dergestalt umsetzen muss, dass sich weder eine schwächere noch eine strengere Regulierung ergibt, als in der Richtlinie vorgesehen. Während die Kodifizierung von Richtlinien ins nationale Recht schon allgemein meist nicht trivial ist, verschärft sich die Herausforderung bei der besonderen Form der vollharmonisierenden Richtlinien. Insbesondere wird dem Gesetzgeber die Möglichkeit versagt, durch ein Abweichen „nach oben“ eine verbesserte Einpassung in sein Rechtssystem vornehmen zu können. Es verbleibt dem Gesetzgeber daher sehr wenig oder sogar gar kein maßgeblicher Spielraum.
Im Rahmen dieser Arbeit werden die konkreten zentralen Schwierigkeiten und Fragestellungen, welche sich im Rahmen der UGP-Richtlinie und ihrer Umsetzung ergaben, betrachtet und bewertet. Dazu zählen unter anderem die Tatsache, dass eine Einfügung des auf den Verbraucherschutz ausgerichteten Regulierungskonzeptes der UGP-Richtlinie in das „Integrierte Modell“4 des deutschen Lauterkeitsrechts stattfinden musste. Ferner fußt die UGP-Richtlinie auf einer Generalklausel, deren Konkretisierung im Lichte der Richtlinien-konformität weitere Fragen aufwirft. Nicht zuletzt muss auch die Frage gestellt werden, wie es um das resultierende Verbraucherschutzniveau bestellt ist. Während in Ländern wie Deutschland bereits ein vergleichsweise hohes Verbraucherschutzniveau im Lauterkeitsrecht erreicht worden war, führt die „Deckelung“ durch die Vollharmonisierungspflicht hier möglicherweise zu einem Rückschritt; auch diese Fragestellung ist Bestandteil der Diskussion.
Vor der konkreten, am Referenzobjekt der UGP-Richtlinie geführten Diskussion, wird zunächst noch eine allgemeine Betrachtung der Harmonisierungsbestrebungen im Privatrecht vorgenommen. Dabei wird auch die „mildere“ Form der mindestharmonisierenden Richtlinien diskutiert. Einleitend wird noch eine hierauf gerichtete kurze Einführung in den europarechtlichen Kontext gegeben.
This thesis presents research studies on the fundamental interplay of diatomic molecules with transition metal compounds under cryogenic conditions. The utilized setup offers a multitude of opportunities to study isolated ions: The ions can either be generated by an ElectroSpray Ionization (ESI) source or a Laser VAPorization (LVAP) cluster ion source. The setup facilitates kinetic investigations of the ions with different reaction gases under well-defined isothermal conditions. Moreover it enables cryo InfraRed (Multiple) Photon Dissociation (IR-(M)PD) spectroscopy in combination with tunable OPO/OPA laser systems. In conjunction with density functional theory (DFT) modelling, the IR(M)-PD spectra allow for an assignment of geometric minimum structures. Furthermore DFT modelling helps to identify possible reaction pathways. Altogether the presented methods allow to gain fundamental insights into molecular structures and reactivity of the investigated systems.
The first part of this thesis focuses on the interplay of N2 with different transition metal clusters (Con+, Nin+, and Fen+) by cryo IR spectroscopy and cryo kinetics. In conjunction with DFT modelling the N2 coordination was elucidated (Con+), structures were assigned (Nin+), the concept of structure related surface adsorption behavior was introduced (Nin+), and the a first explanation for the inertness if Fe17+ was given (Fen+). Furthermore this thesis provides for a case study on the coadsorption of H2 and N2 on Ru8+ that elucidates the H migration on the Ru cluster. The last part of the thesis addresses the IR spectra of in vacuo generated [Hemin]+ complexes with N2, O2, and CO. Structures and spin states were assigned with the help of DFT modelling.
Chlorogenic acids (CGA) are phenolic compounds that form during the esterification of certain trans-cinnamic acids with (-)-quinic acid. According to several human intervention studies, they may have potential health benefits. Coffee is the main source of CGA in human nutrition, and is consumed either alone or in combination with a variety of foods. For this reason, the presented study aimed to clarify whether the simultaneous consumption of food, for example, a breakfast rich in carbohydrates, with instant coffee affects the absorption and bioavailability of CGA. The research specifically focused on how various food matrices, which are consumed at the same time as a coffee beverage, will influence kinetic parameters such as area under the curve (AUC), maximum plasma concentration (cmax), and time needed to reach maximum plasma concentration (tmax).
In a randomized crossover study, fourteen healthy participants consumed either pure instant coffee or coffee with a carbohydrate- or fat-rich meal. All of the subjects consumed the same quantity of CGA (3.1 mg CGA/kg body weight). Blood samples, collected at various time points up to 15 h after instant coffee consumption, were quantitatively analysed. Additionally, three urine collection intervals were chosen over a time period of 24h. High performance liquid chromatography electrospray ionization tandem mass spectrometry (HPLC-ESI-MS/MS) was used to determine the CGA present, along with the concentrations of respective metabolites.
During a blind data review meeting, 20 of the 56 analysed plasma metabolites were chosen for further statistical analysis. A total of 36 metabolites were monitored in the urine samples. Similar as in the plasma samples, between-treatment differences, measured through AUC, Cmax, and tmax, of various CGA derived metabolites were to estimate. Each treatment was also analysed in terms of the correlation between the plasma AUC and urinary excretion of seven metabolites.
It is already known that inter-individual variations in CGA absorption depends on gut microbial degradation and affects the efficacy of these compounds. Microorganisms present in the gastrointestinal tract metabolise CGA to form dihydroferulic acid (DHFA) and dihydrocaffeic acid (DHCA) derivatives, which precede the subsequent formation of a wide range of metabolites. Therefore stool samples were collected from the participants within 12 h before the second study day. Subsequent an ex-vivo incubation of faecal samples with 5-O-caffeoylquinic acid (5-CQA), the main chlorogenic acid found in coffee was performed. An HPLC system connected to a CoulArray® detector was used to measure the concentrations of 5-CQA and its metabolites. Reduced concentrations of 5-CQA as well as the appearance of DHCA and caffeic acid (CA) in the gut microbiota medium, were monitored to calculate the inter-individual kinetics for each compound. In addition, these samples were analysed for microbiota content by an external laboratory (L&S, Bad Bocklet, Germany). These results were used to distinguish whether the decreased or increased content of a specific microorganism was related to an individual’s decreased or increased metabolic efficiency. Finally, we used to aforementioned results to evaluate if any correlation could be drawn between the plasma appearance, urinary excretion and ability of microorganisms to degrade 5-CQA.
Strong inter-individual variation was observed for AUC, Cmax and tmax. The AUC measured the quantity of CGA in plasma samples. We noted that pure instant coffee consumption resulted in slightly higher CGA bioavailability than instant coffee with the additional consumption of a meal. However, these differences were not statistically significant. Additionally, the metabolites were divided into groups, according to similarity and chemical properties. They were further classified into three groups according to their physical structure and predicated from the area of appearance: directly from coffee (quinics), after first degradation and metabolism (phenolics, all trans-cinammic acids and their sulfates and glucuronides) as well as colonic degradation and metabolism (colonics, all dihydro compounds). These respective metabolic classes showed significant differences in the AUC values of certain classes yet no significant between-treatment differences. Our results corroborated earlier studies in that the three caffeoylquinic acid (CQA) isomers were absorbed to a lower extent whereas all feruloylquinic acids (FQA) were detected in comparably high amounts in the plasma samples of the volunteers. However, the amount of these quinic acid conjugates in the plasma samples accounted for only 0,5% of the total amount of identified. In contrast, at least 8.7% of the investigated compounds were identified to be phenolics. Dihydro compounds, the so known colonics, were identified as the most common metabolites (90.8%). Additionally, dihydroferulic acid (DHFA), meta-dihydrocoumaric acid (mDHCoA), dihydrocaffeic acid-3-sulfate (DHCA3S) and dihydroisoferulic acid (DHiFA) were identified to account for 78% of the studied metabolites, and thus represent the most abundant compounds circulating in the plasma after coffee consumption.
Irrespective of treatment, the tmax value for early metabolites (quinic and phenolic compounds) was observed between 0 and 2 h after the ingestion of coffee and tmax value for late metabolites (colonic metabolites) was observed between 7 and 10 h. The amount of colonic metabolites had not returned to the baseline level 15 h after the ingestion of coffee. The co-ingestion of breakfast and coffee, when compared to the ingestion of coffee alone, significantly increased the Cmax values for all quinic and phenolic compounds, as well as two colonic metabolites (DHCA and DHiFA). These differences also revealed that the three treatments differed in terms of the kinetics of release. Thus, future studies should use an extended plasma collection time with shorter intervals (e.g. 2 h) to provide a full pharmacokinetic profile.
There were no statistically significant between-treatment differences in the urine samples collected 24 h after coffee ingestion. However, urine samples collected within six hours of the consumption of coffee alone or in combination with a fat-rich meal showed significantly higher CGA quantities than samples collected at the same time point for coffee ingested with a carbohydrate-rich. Strong inter-individual variability and the fact that only 14 healthy subjects participated in the study hindered the identification of any clear trend between the plasma concentrations of metabolites and their excretion in urine.
Four hours after the ex vivo incubation of 5-CQA with individual faecal samples the sum of 5-CQA, CA, and DHCA varied strongly between participants. These findings could result from binding effects of the phenolic compounds with faecal constituents, further degradation or metabolism, and/or the release of bound phenolic substances before the experiment started. We hypothesized that for participants with high plasma AUCs of dihydro compounds, their incubation samples show also high concentrations of CA and DHCA in the incubation medium after four hours. No significant correlation could be found.
This study and all of the outcomes were exploratory. Due to the limited number of participants, we could only investigate tendencies for how the co-ingestion of food affects the bioavailability of CGAs and their respective metabolites following coffee consumption. Therefore, the achieved results are only indicative. Despite this limitation, the data highlight that even though all three treatments had strong similarities in the total bioavailability of CGAs and metabolites from instant coffee, there were between-treatment differences in the kinetics of release. The co-ingestion of breakfast and coffee favoured a slow and continuous release of colonic metabolites while non-metabolized coffee components were observed in plasma within the first hour when coffee was ingested alone.
In conclusion, both a shift in gastrointestinal transit time and the plasma metabolite composition were observed when the ingestion of coffee alone or in combination with breakfast were compared. These results showed that breakfast consumption induces the retarded release of chlorogenic acid metabolites in humans. The data from our human intervention study suggest that the bioavailability of chlorogenic acids from coffee and their derivatives does not only depend on chemical structure, molecular size and active or passive transport ability, but is also influenced by inter-individual differences. Therefore, we strongly recommend that future studies include metabolism experiments that focus on microbiota genotypes and/or the genotyping of individual subjects. This type of research could be pivotal to elucidating whether, and how, genotype affects the metabolic profile after chlorogenic acid intake.
Temporal Data Management and Incremental Data Recomputation with Wide-column Stores and MapReduce
(2017)
In recent years, ”Big Data” has become an important topic in academia
and industry. To handle the challenges and problems caused by Big Data,
new types of data storage systems called ”NoSQL stores” (means ”Not-only-
SQL”) have emerged.
”Wide-column stores” are one kind of NoSQL stores. Compared to relational database systems, wide-column stores introduce a new data model,
new IRUD (Insert, Retrieve, Update and Delete) semantics with support for
schema-flexibility, single-row transactions and data expiration constraints.
Moreover, each column stores multiple data versions with associated time-
stamps. Well-known examples are Google’s ”Big-table” and its open sourced
counterpart ”HBase”. Recently, such systems are increasingly used in business intelligence and data warehouse environments to provide decision support, controlling and revision capabilities.
Besides managing the current values, data warehouses also require management and processing of historical, time-related data. Data warehouses
frequently employ techniques for processing changes in various data sources
and incrementally applying such changes to the warehouse to keep it up-to-
date. Although both incremental data warehousing maintenance and temporal data management have been the subject of intensive research in the
relational database and finally commercial database products have picked up
the ability for temporal data processing and management, such capabilities
have not been explored systematically for today’s wide-column stores.
This thesis helps to address the shortcomings mentioned above. It care-
fully analyzes the properties of wide-column stores and the applicability
of mechanisms for temporal data management and incremental data ware-
house maintenance known from relational databases, extends well-known approaches and develops new capabilities for providing equivalent support in
wide-column stores.
Nonwoven materials are used as filter media which are the key component of automotive filters such as air filters, oil filters, and fuel filters. Today, the advanced engine technologies require innovative filter media with higher performances. A virtual microstructure of the nonwoven filter medium, which has similar filter properties as the existing material, can be used to design new filter media from existing media. Nonwoven materials considered in this thesis prominently feature non-overlapping fibers, curved fibers, fibers with circular cross section, fibers of apparently infinite length, and fiber bundles. To this end, as part of this thesis, we extend the Altendorf-Jeulin individual fiber model to incorporate all the above mentioned features. The resulting novel stochastic 3D fiber model can generate geometries with good visual resemblance of real filter media. Furthermore, pressure drop, which is one of the important physical properties of the filter, simulated numerically on the computed tomography (CT) data of the real nonwoven material agrees well (with a relative error of 8%) with the pressure drop simulated in the generated microstructure realizations from our model.
Generally, filter properties for the CT data and generated microstructure realizations are computed using numerical simulations. Since numerical simulations require extensive system memory and computation time, it is important to find the representative domain size of the generated microstructure for a required filter property. As part of this thesis, simulation and a statistical approach are used to estimate the representative domain size of our microstructure model. Precisely, the representative domain size with respect to the packing density, the pore size distribution, and the pressure drop are considered. It turns out that the statistical approach can be used to estimate the representative domain size for the given property more precisely and using less generated microstructures than the purely simulation based approach.
Among the various properties of fibrous filter media, fiber thickness and orientation are important characteristics which should be considered in design and quality assurance of filter media. Automatic analysis of images from scanning electron microscopy (SEM) is a suitable tool in that context. Yet, the accuracy of such image analysis tools cannot be judged based on images of real filter media since their true fiber thickness and orientation can never be known accurately. A solution is to employ synthetically generated models for evaluation. By combining our 3D fiber system model with simulation of the SEM imaging process, quantitative evaluation of the fiber thickness and orientation measurements becomes feasible. We evaluate the state-of-the-art automatic thickness and orientation estimation method that way.
Bei der Entwicklung moderner Landmaschinen besteht der Zielkonflikt zwischen Zuverlässigkeit und Dauerhaltbarkeit auf der einen Seite und Kosten- und Fahrzeugeffizienz auf der anderen Seite. Repräsentative Lastkollektive zur Beschreibung der Betriebsbelastungen im Nutzungsbetrieb sind dabei eine zentrale Forderung zur Dimensionierung von Bauteilen. Eine große Herausforderung besteht in der adäquaten Beschreibung der Nutzungsvariabilität einer Kundenpopulation und der Identifikation der kritischsten Kombination der Lastfälle.
Ziel der vorliegenden Arbeit ist die Ermittlung und Erprobung eines Verfahrens zur Beschreibung der wirkenden Belastungen von Traktoren im Anwendungsbetrieb. Im Fokus steht die Ableitung repräsentativer Lastkollektive, die als Grundlage für Betriebsfestigkeitsprüfungen dienen. Inhaltlich basiert das eingesetzte Verfahren auf der systematischen Trennung der auftretenden Betriebszustände (Faktormodell) und deren Einsatzverteilung im Kundenbetrieb (Nutzungsmodell). Die im Faktormodell identifizierten Betriebszustände werden dabei durch repräsentative Lastmessungen im Kundenbetrieb beschrieben. Mittels Monte-Carlo-Simulation erfolgt die Erzeugung einer beliebigen Anzahl virtueller Nutzer auf Basis der definierten Randbedingungen des Nutzungsmodells. Die erzeugten Nutzer besitzen jeweils eine individuelle Einsatzverteilung und das Verfahren ordnet ihnen abhängig von der vorgegebenen Nutzungsdauer die Lastdaten der korrespondierenden Betriebszustände zu. Die ausgewählten Lastdaten werden entsprechend der spezifischen Einsatzverteilung in Form von Pseudo-Schädigungszahlen für die Ziellebensdauer des Fahrzeugs aufsummiert. Die ermittelten Gesamtschädigungen sind dabei als Maß für die Härte der Belastungen im Anwendungsbetrieb zu verstehen. Auf Basis der Verteilung der Gesamtschädigungen einer Nutzerpopulation erfolgt die Identifikation des Referenz- oder Auslegungsnutzers (z. B.: 95% oder 99% Quantil). Die hinter dem ausgewählten Nutzer steckende Kombination der Lastfälle ermöglicht die Berechnung von repräsentativen Lastkollektiven. Das Verfahren ist zur Ermittlung von Eingangsbelastungen für Prüfprozeduren und die numerische Betriebsfestigkeitssimulation nutzbar. Es eignet sich weiterhin zur Durchführung von Sensitivitätsstudien bei der Entwicklung neuer Fahrzeuge wie auch zur Identifikation von marktspezifischem Kostenreduzierungspotential.