Refine
Year of publication
- 2017 (139) (remove)
Document Type
- Doctoral Thesis (84)
- Periodical Part (15)
- Working Paper (13)
- Master's Thesis (9)
- Article (5)
- Preprint (3)
- Bachelor Thesis (2)
- Part of a Book (2)
- Habilitation (2)
- Conference Proceeding (1)
Has Fulltext
- yes (139)
Keywords
- Angebotsentwicklung (5)
- Bedarfserschließung (5)
- Hochschulforschung (5)
- Wissenschaftliche Weiterbildung (4)
- Erwachsenenbildung (3)
- Schule (3)
- E-HRM (2)
- MINT (2)
- Mathematische Modellierung (2)
- Pflegewissenschaft (2)
- sensor fusion (2)
- virtual HRM (2)
- web-based HRM (2)
- wissenschaftliche Weiterbildung (2)
- A/D conversion (1)
- ADAS (1)
- AFDX (1)
- Ableitungsfreie Optimierung (1)
- Accountability (1)
- Achslage (1)
- Anion recognition (1)
- Ausnahmezustand (1)
- Automation (1)
- Backlog (1)
- Bedarf (1)
- Beihilfe (1)
- Beliebigkeit (1)
- Beschränkte Krümmung (1)
- Betriebliche Gesundheitsförderung (1)
- Betriebliche Weiterbildung (1)
- Betriebsfestigkeit (1)
- Bildsegmentierung (1)
- Bildung (1)
- Bildungssektor (1)
- Bildungstheorie (1)
- Blue Collar Worker (1)
- Buffer (1)
- CFRP (1)
- Censoring (1)
- Change Point Analysis (1)
- Change Point Test (1)
- Change-point Analysis (1)
- Change-point estimator (1)
- Change-point test (1)
- Click chemistry (1)
- Control Engineering (1)
- DGR (1)
- Data Modeling (1)
- Datenbanken (1)
- Differenzierbare Mannigfaltigkeit (1)
- Digitale Medien (1)
- Diskursanalyse (1)
- Dualismus (1)
- EU (1)
- Effizienter Algorithmus (1)
- Ehrenamt (1)
- Eisen(II)-Komplexe (1)
- Electronic Human Resource Management (1)
- Elektromobilität (1)
- Elektronische Medien (1)
- Emotion (1)
- Empathie (1)
- Energienetz (1)
- Energiespeicher (1)
- Engagement (1)
- Ernährungsstrategie (1)
- Ernährungssystem (1)
- Fahrgemeinschaft (1)
- Faltenbildung (1)
- Faulgas (1)
- Faulgasverwertung (1)
- Faulung (1)
- Finanzierung (1)
- Finanzmathematik (1)
- Firmware (1)
- Flexibilität (1)
- Flüchtlingscamp (1)
- Food system (1)
- Formal Verification (1)
- Formale Beschreibungstechnik (1)
- Formale Methode (1)
- Forschung (1)
- Fragebogen (1)
- Frischbetondruck (1)
- Förderprogramm (1)
- Fügetechnik (1)
- GIS (1)
- Gamma-Konvergenz (1)
- Geflüchtete (1)
- Gefühl (1)
- Gesundheit (1)
- Gesundheitsberufe (1)
- Gesundheitsförderung / Unternehmen (1)
- Gesundheitsverhalten (1)
- Governance (1)
- Hadamard manifold (1)
- Hadamard space (1)
- Hadamard-Mannigfaltigkeit (1)
- Hadamard-Raum (1)
- Handwerker (1)
- Hardware/Software co-verification (1)
- Hardwareverifikation (1)
- Hazard Functions (1)
- Heterotopie (1)
- Hochleistungsbeton (1)
- Hochschuldidaktik (1)
- Hochschule (1)
- Hyperspektraler Sensor (1)
- Incremental recomputation (1)
- Infrarotspektroskopie (1)
- Innovation (1)
- Innovationsbewertung (1)
- Integration (1)
- Keilzinkenverbindung (1)
- Kirchenmanagement (1)
- Kirchenreform (1)
- Kommunikation (1)
- Kompetenzmodell (1)
- Konjugierte Dualität (1)
- Konsequenzen (1)
- Konvergenz (1)
- Kraftfahrzeugindustrie (1)
- Krankenhaus (1)
- Kullback-Leibler divergence (1)
- Körperliche Arbeit (1)
- LIDAR (1)
- Lastkollektive (1)
- Lehre (1)
- Literature Review (1)
- Location Based Service (1)
- Lokalisierung (1)
- Luftfahrt (1)
- Macaulay’s inverse system (1)
- Magnetfeldbasierter Lokalisierung (1)
- Magnetfelder (1)
- Magnetische Eigenschaften (1)
- Manufacturing Control (1)
- MapReduce (1)
- Matrizenfaktorisierung (1)
- Matrizenzerlegung (1)
- Mediendidaktik (1)
- Medieneinsatz (1)
- Medienkompetenz (1)
- Medienpädagogik (1)
- Medienpädagogische Kompetenz (1)
- Medienpädagogisches Kompetenzmodell (1)
- Mehrdimensionale Bildverarbeitung (1)
- Mehrdimensionales Variationsproblem (1)
- Messtechnik (1)
- Mikrobewehrung (1)
- Mikrodrall (1)
- Milieus (1)
- Mitarbeitergesundheit (1)
- Mitfahrerparkplatz (1)
- Model checking (1)
- Model-driven Engineering (1)
- Molekulare Erkennung (1)
- Moreau-Yosida regularization (1)
- Mosco convergence (1)
- Motion Capturing (1)
- Multispektralaufnahme (1)
- Multispektralfotografie (1)
- Multivariate Analyse (1)
- Multivariates Verfahren (1)
- Nachbarschaft (1)
- Nachbarschaftshilfe (1)
- Network (1)
- Neue Medien (1)
- Neural ADC (1)
- Nichtglatte Optimierung (1)
- Nichtkonvexe Optimierung (1)
- Nichtkonvexes Variationsproblem (1)
- Nichtlineare Optimierung (1)
- Nichtpositive Krümmung (1)
- NoSQL (1)
- Nonprofit Organizations (1)
- Objektivität (1)
- Organische Chemie (1)
- Participatory Sensing (1)
- Pendlerverkehr (1)
- Peptide synthesis (1)
- Pflege (1)
- Portfoliooptimierung (1)
- Potenzial- und Risikoanalyse (1)
- Potenzialanalyse (1)
- Power-to-gas (1)
- Prepreg-Autoklav-Fertigung (1)
- Professionalisierung (1)
- Programmverifikation (1)
- Prox-Regularisierung (1)
- Psychosoziale Gesundheit (1)
- Qualitative Forschung (1)
- Qualität (1)
- Qualitätamanagement (1)
- Qualitätsentwicklung (1)
- Radikalliganden (1)
- Rauheit auf Konturen (1)
- Rauheitsmessung (1)
- Raum (1)
- Raumknappheit (1)
- Raumplanung - Mittelzentren - Kleinstädte (1)
- Raumtheorie (1)
- Real-Time (1)
- Receptor design (1)
- Rechtsdienstleistungsgesetz (1)
- Redoxchemie (1)
- Reflexionsspektroskopie (1)
- Räumliche Statistik (1)
- Scheduler (1)
- Schlammstabilisierung (1)
- Schulamangement (1)
- Schwache Konvergenz (1)
- Self-X (1)
- Sequenzieller Algorithmus (1)
- Service-oriented Architecture (1)
- Siedlungsklima (1)
- Smart City (1)
- Soziale Nachhaltigkeit (1)
- Sozialraum (1)
- Soziologie (1)
- Spatial Statistics (1)
- Spectral theory (1)
- Spektralanalyse <Stochastik> (1)
- Spiking Neural ADC (1)
- Spincrossover (1)
- Sprache (1)
- Stadtklima (1)
- Stadtplanung (1)
- Stadtumbau (1)
- Stochastic Processes (1)
- Stochastischer Prozess (1)
- Strukturwandel (1)
- Subjektive Perspektiven (1)
- Subvention (1)
- Supramolecular chemistry (1)
- Supramolekulare Chemie (1)
- Survival Analysis (1)
- Symbolic execution (1)
- Synthesizer (1)
- Systemarchitektur (1)
- Systems Engineering (1)
- TTEthernet (1)
- Temporal data processing (1)
- Texturrichtung (1)
- Tichonov-Regularisierung (1)
- Time-Series (1)
- Time-Triggered (1)
- ToF (1)
- Topologie (1)
- Trainer (1)
- Traktor (1)
- UQM (1)
- Ultraschall-Preformen (1)
- Umwelt (1)
- Umweltschutz (1)
- Unternehmensberater (1)
- Unterricht (1)
- Unterrichtsqualitätsmanagement (1)
- Upper bound (1)
- Urban food strategy (1)
- Variationsrechnung (1)
- Verkehrswissenschaft (1)
- Verstand (1)
- Wide-column stores (1)
- Wirkungsanalyse (1)
- Zielgruppen (1)
- Zivilgesellschaft (1)
- Zufälliges Feld (1)
- alternating minimization (1)
- anaerobe Stabilisierung (1)
- autonomous systems object classification (1)
- axis orientation (1)
- calving (1)
- canonical module (1)
- convex constraints (1)
- crashworthiness (1)
- curvature (1)
- curve singularity (1)
- damage tolerance (1)
- depth sensing (1)
- driver status and intention prediction (1)
- drowsiness detection (1)
- duality (1)
- electrical conductivity (1)
- evidenzbasierte Angebotsentwicklung (1)
- financial mathematics (1)
- finite element method (1)
- hybrid material (1)
- hyperspectal unmixing (1)
- ice shelves (1)
- impedance spectroscopy (1)
- infinite-dimensional manifold (1)
- integer programming (1)
- level K-algebras (1)
- magnetic field based localization (1)
- material characterisation (1)
- metal fibre (1)
- micro lead (1)
- multi-object tracking (1)
- multifunctionality (1)
- nonconvex optimization (1)
- nonnegative matrix factorization (1)
- object classification (1)
- online- Fragebogen (1)
- oscillating magnetic fields (1)
- partial information (1)
- personnel scheduling (1)
- physicians (1)
- portfolio optimization (1)
- primal-dual algorithm (1)
- proximation (1)
- random finite sets (1)
- rostering (1)
- sparsity (1)
- steel fibre (1)
- surrogate algorithm (1)
- system architecture (1)
- texture orientation (1)
- total variation spatial regularization (1)
- value semigroup (1)
- variational model (1)
- viscoelastic modeling (1)
- Ästhetik (1)
- ältere Menschen (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (27)
- Kaiserslautern - Fachbereich Sozialwissenschaften (22)
- Kaiserslautern - Fachbereich Mathematik (19)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (10)
- Kaiserslautern - Fachbereich Informatik (8)
- Distance and Independent Studies Center (DISC) (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Universität (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
Manifolds
(2017)
In der modernen Hubschrauberfertigung werden neben Rotorblättern auch tragende
Strukturteile aus kohlenstofffaserverstärkten Kunststoffen eingesetzt. Um dabei
einen möglichst hohen Leichtbaugrad zu erreichen, werden immer neue Design-
Konzepte entwickelt. Innovative Design-Lösungen sind aber nur dann in der Fertigung
umsetzbar, wenn sie effizient, kostengünstig und fehlerfrei gefertigt werden
können.
Ein wichtiger Baustein für die Produktion sind die Fertigungsvorrichtungen, auf
denen die Bauteile laminiert und ausgehärtet werden. Diese Vorrichtungen sind ein
maßgeblicher Faktor zum Erreichen der geforderten Bauteilqualität. Das Augenmerk
liegt hierbei auf der sogenannten tool-part-interaction, also der Interaktion zwischen
Fertigungsvorrichtung und Faserverbundmaterial. Diese hat einen großen Einfluss
auf das Aufheiz- und Verpressungsverhalten der Prepreg-Materialien und somit auch
direkt auf fertigungsinduzierte Schädigungen wie Faltenbildung und Verzug.
Aktuell kann der Vorrichtungsentwickler lediglich auf Erfahrungswerte zurückgreifen,
um ein gutes Aufheiz- und Verpressungsverhalten der Vorrichtung zu erreichen.
Zur Minimierung von Falten fehlt jedoch häufig sogar das nötige Hintergrundwissen
über die grundlegenden Mechanismen der Faltenbildung. Nur ein langwieriger
trial-and-error Prozess nach Produktion der Vorrichtung kann helfen, Faltenbildung
zu eliminieren oder zumindest zu reduzieren.
Zukünftig muss es ein primäres Ziel für den Vorrichtungsbau sein, Fertigungsmittel
gezielt auslegen und bereits im Rahmen der Konzeptentwicklung Aussagen
über die zu erwartende Bauteilgüte und das Fertigungsergebnis machen zu können.
Einen möglichen Weg stellt die Einführung einer Herstellprozesssimulation dar, da
sie bereits in einer frühen Entwicklungsphase das Aufheiz- und Verpressungsverhalten
eines Bauteils sowie den Einfluss der Fertigungsvorrichtung auf die Bauteilqualität
einschätzen kann. Fertigungsinduzierte Schädigungen, wie der prozessinduzierte
Verzug, lassen sich bereits mit Hilfe von kommerziell erhältlichen Software-Tools
vorhersagen. Um zukünftig auch die Faltenbildung bei der Prepreg-Autoklavfertigung
vorhersagbar zu machen, müssen zwei übergeordnete Fragestellungen bearbeitet
werden:Faltenbildung: Wie läuft die Faltenbildung in der Autoklavfertigung ab und
welche Mechanismen bzw. Einflussfaktoren müssen besonders beachtet werden?
Simulation: Wie muss eine Herstellprozesssimulation geartet sein, um den
Einfluss der Fertigungsvorrichtung auf die Faltenbildung vorhersagen zu können
und Vorrichtungen auf diese Weise zukünftig auslegbar zu machen?
Experimentelle Untersuchungen an Omega- und C-Profilen helfen, die Faltenbildung,
ihren primären Mechanismus und vor allem die verschiedenen Einflussfaktoren
zu verstehen und zu bewerten. Im Falle der vorliegenden Arbeit wurde besonders
die Kompaktierung des Laminates über einem Außenradius und die daraus entstehende
überschüssige Faser- bzw. Rovinglänge als primärer Faltenauslöser betrachtet.
Es konnte aus den Experimenten abgeleitet werden, dass besonders der
Verpressungsweg, die Bauteilgeometrie, das verwendete Faserhalbzeug (unidirektional
oder Gewebe), die tool-part-interaction und das interlaminare Reibverhalten für
den untersuchten Mechanismus von Bedeutung sind. Daraus lassen sich die Mindestanforderungen
an eine Herstellprozesssimulation zusammenstellen.
Eine umfassende Materialcharakterisierung inklusive der interlaminaren Reibung,
der Reibinteraktionen zwischen Bauteil und Fertigungsvorrichtung sowie des
Verpressungsverhaltens des Faserbettes sind der erste Schritt in der Entwicklung
einer industriell einsetzbaren Simulation.
Die Simulation selbst setzt sich aus einem thermo-chemischen und einem
Kompaktiermodul zusammen. Ersteres ermittelt das Aufheizverhalten der Vorrichtung
und des Bauteils im Autoklaven und stellt darüber hinaus Aushärtegrad und
Glasübergangstemperatur als Parameter für das zweite Simulationsmodul zur Verfügung.
Zur korrekten Bestimmung des Wärmeübergangs im Autoklaven wurde ein
semi-empirisches Verfahren entwickelt, das in der Lage ist, Strömungseffekte und
Beladungszustände des Autoklaven zu berücksichtigen. Das Kompaktiermodul umfasst
das Verpressungsverhalten des Faserbettes inklusive des Harzflusses, der toolpart-
interaction und der Relativverschiebung der Laminatlagen zueinander. Besonders
das Erfassen der Durchtränkung des Fasermaterials mittels eines phänomenologischen
Ansatzes und das Einbringen der Reibinteraktionen in die Simulation muss
als Neuerung im Vergleich zu bisherigen Simulationskonzepten gesehen werden. Auf
diese Weise ist die Simulation in der Lage, alle wichtigen Einflussfaktoren der Faltenbildung zu erfassen. Der aus der Simulation auslesbare Spannungszustand kann
Aufschluss über die Faltenbildung geben. Mit Hilfe eines im Rahmen dieser Arbeit
entwickelten (Spannungs-)Kriteriums lässt sich eine Aussage über das zu erwartende
Faltenrisiko treffen. Außerdem ermöglicht die Simulation eine genaue Identifikation
der Haupttreiber der Faltenbildung für das jeweilige Bauteil bzw. Fertigungskonzept.
Parameter- und Sensitivitätsstudien können dann den experimentellen Aufwand
zur Behebung der Faltenbildung deutlich reduzieren.
Die hier vorliegende Arbeit erweitert damit nicht nur das Wissen über die Faltenbildung
in der Prepreg-Autoklavfertigung und deren Einflussfaktoren, sondern gibt
dem Vorrichtungsentwickler auch eine Simulationsmethodik an die Hand, die ihn in
die Lage versetzt, Fertigungsvorrichtungen gezielt auszulegen und zu optimieren.
In addition to rotor blades, primary structural parts are also manufactured from
carbon fiber reinforced plastics in modern helicopter production. New design concepts
are constantly developed in order to reach a maximum degree of lightweight
design. However, innovative design solutions are only realizable, if they can be manufactured
efficiently, economically, and free from defects.
Molds for laminating and curing of composite parts are of particular importance.
They are a relevant factor for achieving the required part quality. The attention is directed
at the so-called tool-part-interaction, i.e. the interaction between tools and fiber
composite materials, which has a great influence on the heating and compaction
behavior of the prepreg materials and therefore also directly on manufacturing induced
damage such as wrinkling and warping.
At present, the tooling designer can only resort to his/her experience to achieve
a good heating and compaction behavior of the molds. However, the necessary background knowledge about the fundamental mechanisms of wrinkling is often lacking
and only a tedious trial-and-error process after the production of the mold can
help eliminate or at least reduce wrinkling.
In the future, the primary goal for tooling production must be to specifically design
the manufacturing equipment and to be able to already make a statement about
the expected part quality and production result during the conceptual stage. A possible
solution is the introduction of a manufacturing process simulation, because at an
early development stage it can estimate the heating and compaction behavior of a
part as well as the influence of the manufacturing equipment on part quality. Commercially
available software tools are already able to predict damage during production,
as e.g. process induced deformation. In order to make wrinkling predictable also,
two primary issues need to be dealt with: Wrinkling: How does wrinkling develop in autoclave manufacturing and which
mechanisms or influencing factors need to be particularly considered?
Simulation: What must be integrated into a manufacturing process simulation,
if it is to predict the influence of the mold on wrinkling and to ensure future
tooling improvement? Experimental examinations of omega and c-profiles help to understand and
evaluate wrinkling, its primary mechanism, and particularly the various influencing
factors. In the case of the present paper, the compaction of the laminate over a convex
radius and the resulting surplus roving length was especially examined as primary
cause for wrinkling. From the experiments could be deduced that the compaction,
the part geometry, the utilized semi-finished fabrics (unidirectional and woven), the
tool-part-interaction and the interlaminar friction are of importance for the examined
mechanism. These factors determine the minimum requirements for a manufacturing
process simulation.
A comprehensive material characterization including interlaminar friction, friction
interaction between part and tool as well as the compaction behavior of the fiber bed
are the first step toward the development of a simulation on an industrial scale. The
simulation consists of a thermochemical and a compaction module. The former determines
the heating behavior of the mold and the part in the autoclave and additionally
provides the degree of cure and the glass transition temperature as parameters
for the second simulation module. A semi-empirical method that is able to consider
flow effects and loading conditions of the autoclave was developed for the correct
determination of the heat transfer within the autoclave. The compaction module comprises
the compaction behavior of the fiber bed including resin flow, tool-partinteraction
and relative displacement of the layers. Especially the integration of the
saturation phase by means of a phenomenological approach and the inclusion of friction
interaction in the simulation must be seen as innovation in comparison to other
simulation concepts. The simulation is thus able to capture all the important influencing
factors of wrinkling. The state of stress that is retrieved from the simulation can
provide information about the formation of wrinkles. Furthermore, the simulation enables
an exact identification of the main drivers for the development of wrinkles in the
respective part or manufacturing concept. Parameters and sensitivity analyses can
then significantly reduce the experimental effort for the elimination of wrinkling.
The present study does therefore not only expand the knowledge about wrinkling
and its influencing factors in prepreg autoclave manufacturing, but also presents
the tooling designer with a simulation methodology that enables him/her to systematically
develop and optimize manufacturing equipment.
Das Forschungs- und Entwicklungsprojekt „Bildung als Exponent individueller und regionaler Entwicklung - Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung“ (kurz: E-hoch-B) hat sich zum Ziel gesetzt, die gesellschaftlichen und wirtschaftlichen Wandlungstendenzen der Region in und um Kaiserslautern zu untersuchen und evidenzbasiert Weiterbildungsangebote zu entwickeln. Während die Entwicklung wissenschaftlicher Weiterbildungsangebote bisher zumeist dem Ansatz einer Angebotsorientierung folgt (vgl. Hanft 2014), zielt das Projekt auf den Ansatz der Nachfrageorientierung (vgl. Seitter 2014, Wolter & Banscherus 2016). Dazu wurde ein Prozessmodell evidenzbasierter Angebotsentwicklung erarbeitet, auf dessen Grundlage den einzelnen Angebotsentwicklungsschritten spezifische Bezüge zu empirisch erhobenen Daten zugeordnet werden. Mithilfe dieser Daten soll aufgezeigt werden, wie Angebote im Rahmen des Projektes bedarfsorientiert entwickelt werden. Die einzelnen Prozessschritte von der Planung bis zur Implementierung eines Weiterbildungsangebots werden im vorliegenden Arbeits- und Forschungsbericht am Beispiel des Teilprojekts an der Technischen Universität Kaiserslautern ausgeführt.
In this thesis we explicitly solve several portfolio optimization problems in a very realistic setting. The fundamental assumptions on the market setting are motivated by practical experience and the resulting optimal strategies are challenged in numerical simulations.
We consider an investor who wants to maximize expected utility of terminal wealth by trading in a high-dimensional financial market with one riskless asset and several stocks.
The stock returns are driven by a Brownian motion and their drift is modelled by a Gaussian random variable. We consider a partial information setting, where the drift is unknown to the investor and has to be estimated from the observable stock prices in addition to some analyst’s opinion as proposed in [CLMZ06]. The best estimate given these observations is the well known Kalman-Bucy-Filter. We then consider an innovations process to transform the partial information setting into a market with complete information and an observable Gaussian drift process.
The investor is restricted to portfolio strategies satisfying several convex constraints.
These constraints can be due to legal restrictions, due to fund design or due to client's specifications. We cover in particular no-short-selling and no-borrowing constraints.
One popular approach to constrained portfolio optimization is the convex duality approach of Cvitanic and Karatzas. In [CK92] they introduce auxiliary stock markets with shifted market parameters and obtain a dual problem to the original portfolio optimization problem that can be better solvable than the primal problem.
Hence we consider this duality approach and using stochastic control methods we first solve the dual problems in the cases of logarithmic and power utility.
Here we apply a reverse separation approach in order to obtain areas where the corresponding Hamilton-Jacobi-Bellman differential equation can be solved. It turns out that these areas have a straightforward interpretation in terms of the resulting portfolio strategy. The areas differ between active and passive stocks, where active stocks are invested in, while passive stocks are not.
Afterwards we solve the auxiliary market given the optimal dual processes in a more general setting, allowing for various market settings and various dual processes.
We obtain explicit analytical formulas for the optimal portfolio policies and provide an algorithm that determines the correct formula for the optimal strategy in any case.
We also show optimality of our resulting portfolio strategies in different verification theorems.
Subsequently we challenge our theoretical results in a historical and an artificial simulation that are even closer to the real world market than the setting we used to derive our theoretical results. However, we still obtain compelling results indicating that our optimal strategies can outperform any benchmark in a real market in general.
Urbane Ernährungsstrategien decken eine Bandbreite an Wirkungsfeldern im Gefüge einer Stadt und dem dazugehörigen Nahrungssystem ab. Sie sind unter anderem in der Lage, für sicheren Zugang zu gesunden Lebensmitteln zu sorgen, lokale Wirtschaftskreisläufe zu fördern, relevante Stakeholder zusammen zu führen oder auch negative Umwelteinflüsse einzudämmen. Mithilfe digitaler Lösungen lassen sich effiziente und nachhaltige Ansätze für die raumplanerischen Herausforderungen im Zusammenhang mit urbanen Ernährungsstrategien finden.
Urbane Ernährungsstrategien als auch digitale Methoden repräsentieren wissenschaftliche Forschungsschwerpunkte mit vielfältigen Potentialen, deren Symbiose eine Bandbreite an Multiplikatoreffekten herzustellen vermag. So können entsprechende Strategien wesentlich von digitalen Herangehensweisen wie Echtzeitvisualisierung, Crowdmapping, Online-Verkaufsplattformen, urbane Emotionsmessung etc. profitieren.
Anhand von verschiedenen digitalen Methoden werden in dieser Arbeit die Möglichkeiten für deren Einsatz im Rahmen von urbanen Ernährungsstrategien untersucht und darüber hinaus wird diskutiert, inwieweit ein Mehrwert für letztere entstehen kann.
Die wissenschaftliche Auseinandersetzung mit dieser Thematik ist von besonderer fachlicher Relevanz, da die beiden noch jungen Forschungsdisziplinen in Kombination bislang unzureichende Aufmerksamkeit erhalten haben. Untermauert wird diese Erkenntnis durch die mangelhafte Datenlage zu diesem thematischen Zweiklang.
Mithilfe entsprechender digitaler Lösungsansätze können Planer mit verhältnismäßig geringem Aufwand nachhaltigen Mehrwert bewirken und zielgerichtet qualitativ hochwertige Maßnahmen im Zusammenhang mit urbanen Ernährungsstrategien durchführen. Dies wird zudem durch einen auf die Bedürfnisse der urbanen Ernährungsstrategien und digitalen Methoden abgestimmten Workflow gewährleistet.
In current practices of system-on-chip (SoC) design a trend can be observed to integrate more and more low-level software components into the system hardware at different levels of granularity. The implementation of important control functions and communication structures is frequently shifted from the SoC’s hardware into its firmware. As a result, the tight coupling of hardware and software at a low level of granularity raises substantial verification challenges since the conventional practice of verifying hardware and software independently is no longer sufficient. This calls for new methods for verification based on a joint analysis of hardware and software.
This thesis proposes hardware-dependent models of low-level software for performing formal verification. The proposed models are conceived to represent the software integrated with its hardware environment according to the current SoC design practices. Two hardware/software integration scenarios are addressed in this thesis, namely, speed-independent communication of the processor with its hardware periphery and cycle-accurate integration of firmware into an SoC module. For speed-independent hardware/software integration an approach for equivalence checking of hardware-dependent software is proposed and an evaluated. For the case of cycle-accurate hardware/software integration, a model for hardware/software co-verification has been developed and experimentally evaluated by applying it to property checking.
Der Regionalmonitor Hochschulbildung (folgend Regionalmonitor genannt) trägt als interaktive webbasierte Datenbank dazu bei, den Übergang von einer angebotsorientierten zu einer be- darfsorientierten Entwicklung von Studienangeboten im Bereich der wissenschaftlichen Weiterbildung praktisch umzusetzen.. Das Ziel liegt in der Bereitstellung empirischer Daten zur demographischen und wirtschaftlichen Entwicklung in der Region, um die Gestaltung von Studienangeboten stärker als bisher an derzei- tigen und zukünftigen Bedarfen zu orientieren. Der Bericht gibt eine Übersicht über die verwendeten Daten und die technische Umsetzung des Monitors
In this thesis we address two instances of duality in commutative algebra.
In the first part, we consider value semigroups of non irreducible singular algebraic curves
and their fractional ideals. These are submonoids of Z^n closed under minima, with a conductor and which fulfill special compatibility properties on their elements. Subsets of Z^n
fulfilling these three conditions are known in the literature as good semigroups and their ideals, and their class strictly contains the class of value semigroup ideals. We examine
good semigroups both independently and in relation with their algebraic counterpart. In the combinatoric setting, we define the concept of good system of generators, and we
show that minimal good systems of generators are unique. In relation with the algebra side, we give an intrinsic definition of canonical semigroup ideals, which yields a duality
on good semigroup ideals. We prove that this semigroup duality is compatible with the Cohen-Macaulay duality under taking values. Finally, using the duality on good semigroup ideals, we show a symmetry of the Poincaré series of good semigroups with special properties.
In the second part, we treat Macaulay’s inverse system, a one-to-one correspondence
which is a particular case of Matlis duality and an effective method to construct Artinian k-algebras with chosen socle type. Recently, Elias and Rossi gave the structure of the inverse system of positive dimensional Gorenstein k-algebras. We extend their result by establishing a one-to-one correspondence between positive dimensional level k-algebras and certain submodules of the divided power ring. We give several examples to illustrate
our result.
Eine nachfrageorientierte und bedarfsgerechte Stadtplanung muss im Sinne
der Ordnung und Leitung der baulichen und sonstigen Nutzung des Bodens
unterschiedliche Flächenansprüche von Zielgruppen berücksichtigen, um
eine wechselseitige und verträgliche Zuordnung von Nutzungen zu erreichen.
Eine bedarfsgerechte Ausweisung von Wohnbauland erfordert es im
Sinne einer nachhaltigen Planung zu wissen, wo und wie die Menschen
wohnen wollen, wie ihre Präferenzen hinsichtlich Investitionsentscheidungen
(Miete oder Kauf) sowie deren quantitativen und qualitativen Anforderungen
an Wohnstandorte (Wohnung und Wohnumfeld) zu beurteilen sind.
Aus planungswissenschaftlicher Sicht sind im Rahmen der Wohnbaulandentwicklung
quantitative, qualitative und prozessuale Defizite von planungspraktischer
Relevanz identifizierbar, die sich – ausgehend von den Phasen
der Bedarfsermittlung über die Standortfindung und Bauleitplanung bis hin
zur baulichen Realisierung (Erschließung und Hochbau) – prozessübergreifend
erstrecken. So werden insbesondere qualitative Aspekte in diesen Prozessschritten
nicht gänzlich und zusammenhängend berücksichtigt, obwohl
qualitative Indikatoren bei der Wohnstandortentscheidung – im Sinne einer
sozialverträglichen, bestands- als auch nachfrageorientierten Stadtplanung
– eine immer stärkere Bedeutung erfahren.
Die Erkenntnisse aus der mikrogeographischen Milieu-Forschung – betrachtet
wird in der vorliegenden Arbeit primär das Sinus-Milieu-Modell® –
liefern Indizien für die zu erwartende quantitative und qualitative raumbezogene
Nachfrage einer heterogenen Stadtgesellschaft. Daher wird ein wissenschaftlicher
und planungspraktischer Mehrwert untersucht, der die Erkenntnisse
der Sinus-Milieu®-Forschung verwendet und im Sinne eines strategischen
Gesamtansatzes für Planungsprozesse nutzbar macht.
Anhand des Modellansatzes wird aufgezeigt, wie ganzheitlich
Planungs-, Realisierungs-, Vermarktungs- und Betriebsprozesse in Wohnquartieren
zielgruppenspezifisch und nachfrageorientiert gestaltet werden
können. Hierbei wird eine quantitative und qualitative Untersuchung durchgeführt,
die theoretische und anwendungsorientierte Erkenntnisse der Sinus-
Milieu®-Forschung im Kontext der Wohnbaulandentwicklung aus wissenschaftlichen
Erkenntnissen und Praxisprojekten adaptiert und in einem Optimierungsleitfaden
zur zielgruppenspezifischen Wohnbaulandausweisung
vereint. Darüber hinaus werden wohnstandort-, baugrundstücks-, wohngebäude-,
wohnungs- und planungsprozessual-bezogene Wohnqualitätskriterien
definiert, die als Orientierungsrahmen für zielgruppenspezifische
Wohnbaulandstrategien zu Grunde gelegt werden können.
Diese Erkenntnisse sind aus planungswissenschaftlicher Sicht mit einem planungspraktischen
Nutzen im Kontext der Wohnbaulandentwicklung anzusehen.
Das Vorgehen basiert auf der breiten Datenbasis der microm
GmbH, milieuspezifische und räumlicher Parameter werden für den Untersuchungsraum
in einem Sozialraumdiagramm eingeordnet. Das Instrument
der Sozialraumanalyse liegt dem Modellansatz zu Grunde und wird anhand
der Demonstrator-Kommune Stadt Kaiserslautern erforscht.
This paper presents a case study of duty rostering for physicians at a department of orthopedics and trauma surgery. We provide a detailed description of the rostering problem faced and present an integer programming model that has been used in practice for creating duty rosters at the department for more than a year. Using real world data, we compare the model output to a manually generated roster as used previously by the department and analyze the quality of the rosters generated by the model over a longer time span. Moreover, we demonstrate how unforeseen events such as absences of scheduled physicians are handled.
Redox-neutral decarboxylative coupling reactions have emerged as a powerful strategy for C-C bond formation. However, the existing reaction conditions possess limitations, such as the coupling of aryl halides restricted to ortho-substituted benzoic acids; alkenyl halides were not applicable in decarboxylative coupling reaction. Within this thesis, the developments of Pd/Cu bimetallic catalyst systems are presented to overcome the limitations.
In the first part of the PhD work, a customized bimetallic PdII/CuI catalyst system was successfully developed to facilitate the decarboxylative cross-coupling of non-ortho-substituted aromatic carboxylates with aryl chlorides. The restriction of decarboxylative cross-coupling reactions to ortho-substituted or heterocyclic carboxylate substrates was overcome by holistic optimization of this bimetallic Cu/Pd catalyst system. All kinds of benzoic acids regardless of their substitution pattern now can be applied in decarboxylative cross-coupling reaction. This confirms prediction by DFT studies that the previously observed limitation to certain activated carboxylates is not intrinsic. The catalyst system also presents higher performance in the coupling of ortho-substituted benzoates, giving much higher yields than those previously reported. ortho-Methyl benzoate and ortho-phenyl benzoate which have never before been converted in decarboxylative coupling reactions, gave reasonable yields. These together further confirm the superiority of the new protocol.
In the second part of the PhD work, arylalkenes syntheses via two different Pd/Cu bimetallic-catalyzed decarboxylative couplings have been developed. This part consists of two projects: 2a) decarboxylative coupling of alkenyl halides; 2b) decarboxylative Mizoroki-Heck coupling of aryl halides with α,β-unsaturated carboxylic acids.
In project 2a, widely available, inexpensive, bench-stable aromatic carboxylic acids are used as nucleophile precursors instead of expensive and sensitive organometallic reagents that are commonly used in previously reported transition-metal catalyzed cross-couplings of alkenyl halides. With this protocol, alkenyl halides for the first time are used in decarboxylative coupling reaction, allowing regiospecific synthesis of a broad range of (hetero)arylalkenes in high yields. Unwanted double bond isomerization, a common side reaction in the alternative Heck reactions especially in the coupling of cycloalkenes or aliphatic alkenes, did not take place in this decarboxylative coupling reaction. Polysubstituted alkenes that hard to access with Heck reaction are also produced in good yields. The reaction can easily be scaled up to gram scale. The synthetic utility of this reaction was also demonstrated by synthesizing an important intermediate of fungicidal compound in high yield within 2 steps.
In project 2b, a Cu/Pd bimetallic catalyzed decarboxylative Mizoroki-Heck coupling of aryl halides with α, β-unsaturated carboxylic acids was successfully developed in which the carboxylate group directs the arylation into its β-position before being tracelessly removed via protodecarboxylation. It opens up a convenient synthesis of unsymmetrical 1,1-disubstituted alkenes from widely available precursors. This reaction features good regioselectivity, which is complementary to that of traditional Heck reactions, and also presents excellent functional group tolerance. Moreover, a one-pot 3-step 1,1-diarylethylene synthesis from methyl acrylate was achieved, where solvent changes or isolation of intermediates are not required. This subproject presents an example of carboxylic acids utility in synthesizing valuable compounds which are hard to access via conventional methodologies.
The cytosolic Fe65 adaptor protein family, consisting of Fe65, Fe65L1 and Fe65L2 is involved in many intracellular signaling pathways linking via its three interaction domains a continuously growing list of proteins by facilitating functional interactions. One of the most important binding partners of Fe65 family proteins is the amyloid precursor protein (APP), which plays an important role in Alzheimer Disease.
To gain deeper insights in the function of the ubiquitously expressed Fe65 and the brain enriched Fe65L1, the goal of my study was I) to analyze their putative synaptic function in vivo, II) to examine structural analysis focusing on a putative dimeric complex of Fe65, III) to consider the involvement of Fe65 in mediating LRP1 and APP intracellular trafficking in murine hippocampal neurons. By utilizing several behavioral analyses of Fe65 KO, Fe65L1 KO and Fe65/Fe65L1 DKO mice I could demonstrate that the Fe65 protein family is essential for learning and memory as well as grip strength and locomotor activity. Furthermore, immunohistological as well as protein biochemical analysis revealed that the Fe65 protein family is important for neuromuscular junction formation in the peripheral nervous system, which involves binding of APP and acting downstream of the APP signaling pathway. Via Co-immunoprecipitation analysis I could verify that Fe65 is capable to form dimers ex vivo, which exclusively occur in the cytosol and upon APP expression are shifted to membrane compartments forming trimeric complexes. The influence of the loss of Fe65 and/or Fe65L1 on APP and/or LRP1 transport characteristics in axons could not be verified, possibly conditioned by the compensatory effect of Fe65L2. However, I could demonstrate that LRP1 affects the APP transport independently of Fe65 by shifting APP into slower types of vesicles leading to changed processing and endocytosis of APP.
The outcome of my thesis advanced our understanding of the Fe65 protein family, especially its interplay with APP physiological function in synapse formation and synaptic plasticity.
Eisen-Schwefel-Cluster bilden eine Klasse der vielseitigsten anorganischen Cofaktoren in der Natur und sind in allen Domänen des Lebens zu finden. Sie erfüllen vielfältige Aufgaben in verschiedensten Bereichen, wie beispielsweise Elektronentransport, regulatorische Funktionen oder enzymatische Aktivität. Da verschiedene Krankheiten auf Defekte von Eisen-Schwefel-Proteinen oder deren Biogenese zurückgeführt werden können, ist es von größtem Interesse unbekannte Fe/S Proteine zu charakterisieren und ihre Wirkungsweisen zu erforschen.
In den beiden häufigsten Clustertypen (der rhombische [2Fe-2S]- und der kubische [4Fe 4S] Cluster) werden zur Koordination der Eisenionen neben anorganischen Sulfidionen in der Regel vier Cysteine des Proteins verwendet. Daneben existieren jedoch auch Proteine, in denen andere Aminosäuren als Liganden fungieren.
Für das Rieske-Protein, welches in dieser Arbeit als Referenzprotein fungierte, wurden Mössbauerspektren bei drei passenden pH-Werten aufgenommen. Dadurch konnten zum ersten Mal die drei verschiedenen Zustände des Clusters mit diprotonierten, monoprotonierten bzw. deprotonierten Histidinen mittels Mössbauerspektroskopie untersucht und die entsprechenden Parameter ermittelt werden.
Im Hauptteil dieser Arbeit wurden die beiden weitgehend unerforschten Proteine Apd1 und Aim32 aus Saccharomyces cerevisiae kloniert, heterolog in E. coli exprimiert und isoliert. Durch eine anschließende Charakterisierung mittels UV/Vis-, ESR- und Mössbauerspektroskopie konnte der enthaltene [2Fe 2S] Cluster identifiziert und eine Koordination durch zwei Cysteine und zwei Histidine festgestellt werden, wobei die Proteine keine Rieske-Faltung besitzen. Nach Entdeckung des hochkonservierten HXGGH-Motivs, welches an ähnlicher Stelle zum dritten und vierten Cystein in der Primärstruktur von TLF´s (thioredoxin-like ferredoxins) vorliegt, wurden Mutationen dieser Histidine durchgeführt. In Untersuchungen an diesen Mutanten konnten Änderungen in den UV/Vis , ESR- und Mössbauerspektren der variierten Fe/S Cluster beobachtet werden. Bei der pKS-Wert-Bestimmung wurde nach jeder Mutation der vorhandenen Histidine zu Cysteinen, jeweils ein (De-)Protonierungsschritt weniger detektiert. Ebenso zeigten die Mutanten niedrigere Redoxpotentiale als der Wildtyp, dessen Redoxpotential pH-abhängig ist. Es handelt sich hierbei also um eine neuartige Klasse von Proteinen, die eine C-terminale Domäne mit einer Faltung ähnlich zu TLF´s besitzt, die aber gleichzeitig ein Rieske-artiges Zentrum beinhaltet. Eine Funktion bei Elektronentransfers liegt deshalb nahe, allerdings ist dazu noch nichts genaueres bekannt. Die Identifikation der genauen Wirkweise sowie der Reaktionspartner der beiden Proteine ist also weiterhin ein spannendes Forschungsgebiet. Ebenso wird der Nachweis über die Art der Bindung der Histidine durch eine Kristallstruktur wichtige Erkenntnisse über die Proteinklasse liefern.
Das Feld der Anionenerkennung ist ein stets wachsendes Forschungsgebiet, auch weil eine Vielzahl biochemischer Prozesse mit negativ geladenen Substraten und Co-Faktoren verbunden sind. Da solche Prozesse in wässrigem Milieu stattfinden, sind Verbindungen von besonderem Interesse, die Anionen in Wasser zu binden vermögen. Geeignete Rezeptoren zur Erkennung von Anionen sind die im Arbeitskreis Kubik entwickelten Cyclopeptide (CPs) und Bis(cyclopeptide) (BCPs).
Da die Anionenaffinität der in der Vergangenheit untersuchten BCPs nur in wenigen ausgesuchten Lösungsmittelgemischen und nie in reinem Wasser charakterisiert wurde, wurde im ersten Teil meiner Promotion ein BCP-Derivat entwickelt, mit dem kalorimetrische Bindungsstudien in einem breiten Spektrum von Lösungsmittelgemischen möglich waren. Die hierbei erhaltenen thermodynamischen Daten sollten Informationen über die Prinzipien geben, die der Anionenaffinität dieser Verbindungen zugrunde liegen. Es wurde zunächst die Synthese des bereits in meiner Diplomarbeit untersuchten BCP1 optimiert, dessen Wasserlöslichkeit durch insgesamt sechs Triethylenglycolreste vermittelt wird. Dieser Rezeptor erwies sich nach geeigneter Isolation ausreichend löslich, um Lösungen in Wasser mit einer Konzentration von bis zu 0.25 mM herzustellen. Es wurde ebenfalls das BCP2 mit einer zusätzlichen solubilisierenden Gruppe im Vergleich zu BCP1 synthetisiert, welches in bis zu 10 mM Konzentrationen in Wasser löslich ist. Mit beiden Rezeptoren wurden in Wasser, verschiedenen wässrigen Lösungsmittelgemischen und reinen organischen Lösungsmitteln Bindungsstudien durchgeführt, wodurch quantitative und qualitative Einblicke erhalten wurden, wie die Solvatisierung des Anions und des Rezeptors in den verschiedenen Lösungsmitteln die Anionenkomplexierung beeinflussen.
Im zweiten Teil dieser Arbeit wurde an der Entwicklung von CP-basierten chemischen Sensoren und Sonden gearbeitet, mit denen Anionen in Lösung detektiert werden können. In diesem Zusammenhang wurden Synthesen für zwei CPs entwickelt, die auf unterschiedliche Art auf Goldelektroden immobilisiert werden können. Diese Elektroden sollen für die elektrochemische Anionendetektion dienen. Im Bereich chemischer Sonden sollten mit CPs dekorierte Goldnanopartikel (Au-NPs) dargestellt werden, die nach Anionenzugabe agglomerieren. Die damit verbundene Farbveränderung der Lösung soll einen Anionennachweis mit bloßem Auge gestatten. Es wurden zwei CP-Grundstrukturen dargestellt, welche als anionenerkennende Liganden auf Au-NPs dienen können. Ebenfalls wurden erste Au-NPs synthetisiert, die eine Mischung oberflächengebundener inerter und CP-funktionalisierter Liganden enthielten.
Der vorliegende Arbeits- und Forschungsbericht beschreibt das Forschungsdesign des Verbundprojektes E-hoch-B der Hochschule Kaiserslautern, der Technischen Universität Kaiserslautern sowie der Hochschule Ludwigshafen am Rhein. Neben den drei Gegenstandsbereichen (neue Zielgruppen, Regionalentwicklung und wissenschaftliche Weiterbildung) werden die vier unterschiedlichen Analyseebenen beschrieben, die dem Ansatz einer evidenzbasierten Angebotsentwicklung zu Grunde liegen: Arbeitsmarkt-, Zielgruppen-, Bildungsmarkt- und Ressourcenanalyse. Darüber hinaus wird ein Überblick gegeben, welche Daten in welchem Teilprojekt erhoben wurden. Die Schlussbetrachtung diskutiert die Vor- und Nachteile einer evidenzbasierten Angebotsentwicklung und gibt einen Ausblick für die weitere Forschungs- und Entwicklungsarbeit.
Erfassung von Anforderungen zur zielgruppenorientierter Gestaltung hochschulischer Bildungsangebote
(2017)
Der vorliegende Arbeits- und Forschungsbericht beschreibt zwei Erhebungsinstrumente des Verbundprojektes E-hoch-B der Hochschule Kaiserslautern, der Technischen Universität Kaiserslautern sowie der Hochschule Ludwigshafen am Rhein.
Das erste Instrument erfasst die allgemeine Zusammensetzung aller Studierenden der Verbundhochschulen sowie deren Anforderungen an Studienangebote. Das zweite Erhebungsinstrument ist konkret an Studierende aus pflegebezogenen Studienangeboten an allen rheinland-pfälzischen Hochschulen gerichtet und wurde auf Basis des ersten Erhebungsinstrumentes weiterentwickelt.
Im Beitrag wird das Erkenntnisinteresse beschrieben, der theoretischen Hintergrund skizziert und der konzeptionelle Aufbau sowie die Struktur der Instrumente dargestellt. Eine Schlussbetrachtung rundet den Beitrag ab. Im Anhang sind die Erhebungsinstrumente einzusehen.
We introduce and investigate a product pricing model in social networks where the value a possible buyer assigns to a product is influenced by the previous buyers. The selling proceeds in discrete, synchronous rounds for some set price and the individual values are additively altered. Whereas computing the revenue for a given price can be done in polynomial time, we show that the basic problem PPAI, i.e., is there a price generating a requested revenue, is weakly NP-complete. With algorithm Frag we provide a pseudo-polynomial time algorithm checking the range of prices in intervals of common buying behavior we call fragments. In some special cases, e.g., solely positive influences, graphs with bounded in-degree, or graphs with bounded path length, the amount of fragments is polynomial. Since the run-time of Frag is polynomial in the amount of fragments, the algorithm itself is polynomial for these special cases. For graphs with positive influence we show that every buyer does also buy for lower prices, a property that is not inherent for arbitrary graphs. Algorithm FixHighest improves the run-time on these graphs by using the above property.
Furthermore, we introduce variations on this basic model. The version of delaying the propagation of influences and the awareness of the product can be implemented in our basic model by substituting nodes and arcs with simple gadgets. In the chapter on Dynamic Product Pricing we allow price changes, thereby raising the complexity even for graphs with solely positive or negative influences. Concerning Perishable Product Pricing, i.e., the selling of products that are usable for some time and can be rebought afterward, the principal problem is computing the revenue that a given price can generate in some time horizon. In general, the problem is #P-hard and algorithm Break runs in pseudo-polynomial time. For polynomially computable revenue, we investigate once more the complexity to find the best price.
We conclude the thesis with short results in topics of Cooperative Pricing, Initial Value as Parameter, Two Product Pricing, and Bounded Additive Influence.
In change-point analysis the point of interest is to decide if the observations follow one model
or if there is at least one time-point, where the model has changed. This results in two sub-
fields, the testing of a change and the estimation of the time of change. This thesis considers
both parts but with the restriction of testing and estimating for at most one change-point.
A well known example is based on independent observations having one change in the mean.
Based on the likelihood ratio test a test statistic with an asymptotic Gumbel distribution was
derived for this model. As it is a well-known fact that the corresponding convergence rate is
very slow, modifications of the test using a weight function were considered. Those tests have
a better performance. We focus on this class of test statistics.
The first part gives a detailed introduction to the techniques for analysing test statistics and
estimators. Therefore we consider the multivariate mean change model and focus on the effects
of the weight function. In the case of change-point estimators we can distinguish between
the assumption of a fixed size of change (fixed alternative) and the assumption that the size
of the change is converging to 0 (local alternative). Especially, the fixed case in rarely analysed
in the literature. We show how to come from the proof for the fixed alternative to the
proof of the local alternative. Finally, we give a simulation study for heavy tailed multivariate
observations.
The main part of this thesis focuses on two points. First, analysing test statistics and, secondly,
analysing the corresponding change-point estimators. In both cases, we first consider a
change in the mean for independent observations but relaxing the moment condition. Based on
a robust estimator for the mean, we derive a new type of change-point test having a randomized
weight function. Secondly, we analyse non-linear autoregressive models with unknown
regression function. Based on neural networks, test statistics and estimators are derived for
correctly specified as well as for misspecified situations. This part extends the literature as
we analyse test statistics and estimators not only based on the sample residuals. In both
sections, the section on tests and the one on the change-point estimator, we end with giving
regularity conditions on the model as well as the parameter estimator.
Finally, a simulation study for the case of the neural network based test and estimator is
given. We discuss the behaviour under correct and mis-specification and apply the neural
network based test and estimator on two data sets.
In der vorliegenden Arbeit wurden 18 Saccharomyces-Hefestämme sowie zwei Stämme der Nichtsaccharomyces-Hefen Torulaspora delbruckii und Metschnikowia pulcherrima und ein Enzympräparat aus Aspergillus niger in Gärungen im Labor- und Praxismaßstab sowie in betriebsüblichen Wein- und Sektgärungen bezüglich ihres Potentials zur Freisetzung von glycosidisch gebundenen Aromastoffen charakterisiert. Die Untersuchungen wurden in drei Jahrgängen für die Rebsorten Chardonnay, Riesling und Muskateller durchgeführt. Hierbei wurden die Verfahren der Traubenverarbeitung zur Intensivierung der unterschiedlichen Ausgangsgehalte an Aromastoffvorläufern variiert. Zusätzlich wurden in Mosten der Rebsorten Riesling, Muskateller und Gewürztraminer die Einflussfaktoren Maischestandzeit und Pressung auf den Ausgangsgehalt an Aromastoffvorläufern untersucht. Alle Moste, hergestellten Weine, Grundweine und Sekte sind aromachemisch mittels SPE/GC-MS sowie die Weine und Sekte sensorisch durch die deskriptive Analyse untersucht worden. Anhand multivariater Statistik wurden die Datensätze modelliert. Die 18 eingesetzten Saccharomyces-Hefestämme sowie zusätzlich zwei Laborstämme der Art Debaromyces hansenii und Pichia anomala wurden mittels Plattentests unter Verwendung von YNB-Mangelmedium bei Zugabe der Substrate Arbutin und Cellobiose als Kohlenstoff-Quelle sowie mittels pNPG-Assay quantitativ auf Glycosidase-Aktivität getestet. Das Enzympräparat wurde ebenfalls mit dem Assay untersucht. Mittels qPCR erfolgte die Analyse der relativen Genexpression der mit der Glycosidase-Aktivität von Saccharomyces-Hefen in Verbindung stehenden Gene EXG1, SPR1 und YIR007W über den Verlauf einer Gärung. Die Analyse der Aromastoffvorläufer wurde mittels einer im Zuge der Arbeit etablierten SPE/GC-MS-Methode für die Injektion großer Probenvolumina durchgeführt. Anhand dieser Analytik als Referenzmethode sollte eine Schnellanalytik mittels FT-MIR entwickelt werden.
Die Untersuchungen zur Variation der Traubenverarbeitung demonstrierten einen signifikanten Einfluss auf die Aromastoffvorläufer-Gehalte im Most. Erstmalig konnte in dieser Arbeit verdeutlicht werden, dass eine verlängerte Maischestandzeit sowie gesteigerter Pressdruck bis hin zum fertigen Wein und Sekt als signifikanter Einflussfaktor sowohl auf die Gehalte der Aromastoffvorläufer als auch auf die Sensorik bestehen bleibt. Die Auswahl des Saccharomyces-Hefestammes hingegen konnte nicht als signifikanter, maximal als marginaler Einflussfaktor auf die Freisetzung der Aromastoffvorläufer oder die Sensorik der finalen Weine, Grundweine und Sekte identifiziert werden. Es wurden selbst bei weitestgehendem Ausschluss anderer mikrobiologischer Einflussfaktoren keine reproduzierbaren Unterschiede zwischen den untersuchten Hefestämmen nachgewiesen, wodurch kein prognostizierbarer Effekt ermittelt werden konnte. Dieses Ergebnis konnte durch die Charakterisierung der Enzymausstattung und aktivität der Hefen erklärt werden. Die Hefen konnten in den Plattentests die glycosidische Bindung der Substrate Arbutin und Cellobiose nicht spalten. Da Arbutin als spezifisch zum Nachweis des Enzyms 1,4 β Glucosidase gilt, kann davon ausgegangen werden, dass das Enzym in den Saccharomyces-Hefen nicht exprimiert wurde. Detektierbar mittels pNPG-Assay war hingegen eine basale Glycosidase-Aktivität, welche vermutlich auf die Nebenaktivität der exo 1,3 β Glucanase Exg1p zurückzuführen ist. Für das korrespondierende Gen EXG1 wurde mittels qPCR über den Verlauf einer Gärung proportional zum Abbau der Glucose eine ansteigende relative Expression bestimmt. Glucose scheint als Hemmstoff für die Genexpression von EXG1 zu wirken. Mit dem Anstieg der Genexpression ging die Abnahme der glycosidisch gebundenen Aromastoffvorläufer einher. Zwischen den untersuchten Saccharomyces-Hefestämmen bestanden dabei keine Unterschiede. Die Analyse der Sekte ergab nach neunmonatiger zweiter Gärung signifikante Unterschiede zwischen den regulär mit Hefe hergestellten Sekten und den ausschließlich unter Säureeinfluss stehenden Varianten ohne Hefezugabe. Damit konnte verdeutlicht werden, dass Saccharomyces-Hefen eine Glycosidase-Aktivität ausbilden, da sie im Vergleich zur ausschließlichen säurehydrolytischen Wirkung signifikant erhöht Aromastoffvorläufer freigesetzt hatten. Die Verwendung verschiedener Hefestämme führte hingegen nicht zu konsistenten Unterschieden in der Freisetzung der Aromastoffvorläufer und blieb ohne bemerkenswerte Auswirkungen auf die Sensorik der Grundweine und Sekte. Die im Praxismaßstab hergestellten Weine bestätigten diese Beobachtungen. Das aus Aspergillus niger stammende Enzympräparat AR2000 zeichnete sich hingegen in der Quantifizierung der Glycosidase-Aktivität mit ca. 1000fach erhöhter Aktivität gegenüber den Hefen aus. Dementsprechend setzte das Enzym in den Gärungen signifikant erhöht Aromastoffvorläufer frei und führte zu veränderten sensorischen Profilen der Weine und Sekte. Die weiterhin in die Versuche einbezogenen Nichtsaccharomyces-Hefen wurden teilweise positiv auf das Enzym β Glucosidase getestet und waren, insbesondere im Fall des Pichia anomala Stammes, auch durch eine signifikant erhöhte quantitative Enzymaktivität charakterisiert. Durch die umfassende Charakterisierung der Saccharomyces-Hefen im Vergleich mit Nichtsaccharomyces-Hefen und Enzympräparat wurde deutlich, dass die Glycosidase-Aktivität der Saccharomyces-Hefen nicht ausreicht, um das Aromapotential während der Wein- und Sektbereitung bedeutend ausschöpfen zu können.
Die in dieser Arbeit etablierte large volume injection GC-MS-Methode wurde validiert und gilt als eine stabile Methode mit hohen Wiederfindungsraten und guter Reproduzierbarkeit. Aufgrund von probenabhängigen Verlusten durch die SPE und die möglicherweise unvollständige enzymatische Spaltung der Aromastoffvorläufer bleibt der Gesamtmethode vermutlich ein systematischer Fehler der absoluten Aromastoffvorläufer-Gehalte zueigen, vergleichende Analysen sind jedoch problemlos möglich. Zum jetzigen Kenntnisstand existiert keine alternative Analysemethode. Die Unschärfe der SPE/GC-MS-Analytik pflanzte sich entsprechend bei der Entwicklung der Schnellmethode zur Quantifizierung der Aromastoffvorläufer mittels FT-MIR fort, welche mit der GC-MS-Methode als Referenzmethode etabliert werden sollte. Im Zuge der Methodenentwicklung am Gerät FT 120 Winescan (Foss) wurde zunächst die Signalintensität der Analyten in den Spektren verbessert, da Aromastoffvorläufer in Most und Wein unterhalb der üblichen Nachweisgrenze der MIR Spektroskopie liegen. Diese Erhöhung der Signalintensität wurde durch eine Vergrößerung der Küvettenstärke auf 150 µm und durch Verwendung der Lösungsmittel Dimethylsulfoxid oder Methanol erreicht. Für beide Küvetten-Lösungsmittel-Kombinationen wurde jeweils eine Basiskalibration mit einem Probensatz aus 37 heterogenen Most- und Weinproben verschiedener Rebsorten und Herkunft erstellt. Die Kalibrationen waren durch vielversprechende statistische Vorhersageparameter charakterisiert. Der Validierung mit unabhängigen Datensätzen konnten beide Kalibrationen aber bisher nicht standhalten.
V-Stoffe, die zur Klasse der Neurotoxischen Organophosphonate (NOPs) zählen, gehören zu den giftigsten bekannten Verbindungen. Ihre ausgeprägte Toxizität gegenüber dem Menschen erlaubt ihren Einsatz als chemische Kampfstoffe. Obwohl diese Verbindungen bereits vor mehr als 60 Jahren zum ersten Mal hergestellt wurden, steht noch keine sichere und universelle Therapiemethode zur Verfügung. Ein vielversprechender neuer Ansatz besteht in der Entwicklung sogenannter Scavenger. Dabei handelt es sich um Verbindungen, die NOPs im Körper binden und unschädlich machen, bevor sie Schaden anrichten. Makrocyclische Wirtverbindungen, die mit einer nukleophilen Gruppe substituiert sind, besitzen diese Eigenschaften.
In der vorliegenden Arbeit wurden neue Sulfonatocalix[4]arenderivate hergestellt, die mit einer Hydroxamsäuregruppe als nukleophiler Gruppe substituiert sind. Die erhaltenen Verbindungen wurden von unseren Kooperationspartnern am Institut für Pharmakologie und Toxikologie der Bundeswehr in München auf ihre Aktivität zur Entgiftung verschiedener V-Stoffe in wässriger Lösung untersucht. Als Ausgangsmaterialien zur Darstellung der potentiellen Scavenger wurden zunächst geeignete Sulfonatocalix[4]arenderivate synthetisiert. Anschließend wurden die Calixarenderivate mit entsprechenden Vorstufen verknüpft, in denen die Hydroxamsäuregruppe enthalten ist.
Es wurde ein Scavenger hergestellt, der VX mit einer Halbwertszeit von etwa 4 Minuten entgiftet, was im Vergleich zur Spontanhydrolyse einer Beschleunigung um das 3500-fache entspricht. Auch andere V-Stoffe wurden mit ähnlichen Geschwindigkeiten entgiftet. Diese Verbindung stellt damit den effizientesten niedermolekularen Scavenger für V-Stoffe dar, der bislang entwickelt wurde.
Neben den Messungen zur Bestimmung der Abbauraten für V-Stoffe wurden auch mechanistische Studien und Bindungsstudien durchgeführt. Hierbei konnte gezeigt werden, dass der Calixarenring effizient in wässriger Lösung an VX bindet. Außerdem wurde beobachtet, dass bei der Entgiftung von VX selektiv das ungiftige Abbauprodukt EMPA entsteht.
Im Rahmen dieser Dissertationsschrift wurden erstmals gezielt Eisen(II)-SCO-Komplexe mit einem derivatisierten Diazapyridinophanliganden (L-N4Bz2) hergestellt. Die charakteristischen strukturellen Parameter für die high-spin- und low-spin-Zustände konnten bestimmt werden und können für zukünftige Experimente als Referenz verwendet werden. Der thermisch induzierte, isotrope SCO-Prozess in [Fe(L-N4Bz2)(NCS)2] (2.3) konnte mit einer Vielzahl an strukturellen, magnetochemischen und spektroskopischen Methoden nachgewiesen werden.
Weiterhin konnte zum ersten Mal gezeigt werden, dass sich redoxkontrollierte Veränderungen eines koordinierten Liganden zunutze gemacht werden können, um SCO-Eigenschaften in einem Eisen(II)-Komplex zu etablieren. Dazu wurde der der Einfluss einer ligandzentrierten Reduktion auf die Ligandenfeldstärke in verzerrt oktaedrischen Komplexen untersucht, indem drei Redoxpaare mit Eisen(II)-, Cobalt(II)- bzw. Nickel(II)-Zentralionen mit gleicher Ligandumgebung synthetisiert und durch strukturelle, magnetochemische und spektroskopische Untersuchungen charakterisiert wurden. Ausgehend vom LS-Eisen(II)-Komplex [Fe(L-N4Me2)(bian)](ClO4)2 (3.1b) werden im π-Radikalkomplex [Fe(L-N4Me2)(bian1-)](ClO4) (3.3) SCO-Eigenschaften eingeschaltet. Für [Co(L-N4Me2)(bian1-)](ClO4) (3.4), wird durch die Reduktion des Liganden bian zu bian1- ein Spinzustandswechsel des Co(II)-Ions vom LS-Zustand in [Co(L-N4Me2)(bian)]2+ (3.2) zum HS-Zustand in 3.4 ausgelöst. In den Nickel(II)-Komplexen sind π-Bindungen hingegen nur schwach ausgeprägt und somit hat die ligandbasierte Reduktion geringere Auswirkungen.
Durch kleine chemische Modifikationen konnte der SCO in Radikalkomplexen des Typs [Fe(L-N4Me2)(Rbian1-)](X) in entscheidendem Maße beeinflusst werden. Dies wurde dazu ausgenutzt, um eindeutig zu beweisen, dass die Präsenz eines direkt an das Metallion koordinierten π-Radikalliganden den Eisen(II)-SCO-Prozess entscheidend gegenüber closed-shell-Liganden beschleunigt, wie die temperaturabhängigen mößbauerspektroskopischen Untersuchungen an den einzigartigen Verbindungen [Fe(L-N4Me2)(OMebian1-)](OTf) (3.6a) und [Fe(L-N4Me2)(OMebian1-)](ClO4) ∙ MeCN (3.6b) zeigen. Zusätzlich konnte der für 3.3 ausschließlich in Lösung erreichte antiferromagnetisch gekoppelte HS-Sges = 3/2-Zustand in den Feststoffen 3.6a bzw. 3.6b bestätigt werden.
Betonfertigteile mit integriertem Dämmstoff aus Polystyrol bieten eine ausgezeichnete Lösung zur baulichen Ausführung von Außenwandbauteilen. Die Vorteile gegenüber der Ortbetonbauweise, wie bspw. die Erfüllung hoher Qualitätsansprüche aufgrund der Vorfertigung im Fertigteilwerk oder das Entfallen von Arbeitsschritten auf der Baustelle, ermöglichen einen wirtschaftlichen Bauprozess. Bei der Halbfertigteilbauweise werden nur die äußeren Betonschalen vorgefertigt. Anschließend werden die Wände auf die Baustelle transportiert und mit Ortbeton zum Endquerschnitt verfüllt. Dies erspart den zeit- und kostenintensiven Schalungsvorgang und verringert gleichzeitig das Transportgewicht. Der beim Ausbetonieren der Halbfertigteile auftretende Frischbetondruck muss von Verbindungsmitteln, die zur Kopplung der Betonschalen dienen, mit ausreichender Sicherheit aufgenommen werden. Der Frischbetondruck ist derzeit nach DIN 18218 „Frischbetondruck auf lotrechte Schalungen“ anzunehmen. Die Beeinflussung durch einen integrierten Dämmstoff oder weitere Parameter einer Elementwand bleibt bisher allerdings unberücksichtigt. In Abhängigkeit der Randbedingungen wird der Frischbetondruck stark überschätzt, was zu einem unwirtschaftlichen Bemessungsergebnis im Bauzustand führt. Ziel der vorliegenden Arbeit ist die realitätsnahe Beschreibung des Frischbetondrucks in Elementwänden mit integriertem Dämmstoff.
Angesichts der Vielzahl an Einflussparametern werden die theoretischen und experimentellen Untersuchungen dieser Arbeit systematisch geplant und durchgeführt. In Voruntersuchungen werden bereits einflussschwache Einflussparameter ausgeschlossen und maßgebende Einflussparameter für weiterführende Untersuchungen bestimmt. Neben zahlreichen kleinmaßstäblichen Versuchsreihen, die größtenteils zur Analyse und Beschreibung von einzelnen geometrischen oder werkstoffspezifischen Eigenschaften dienen, werden auch großmaßstäbliche Elementwände untersucht. Diese verfolgen das Ziel, ein besseres Verständnis für die Entstehung des Frischbetondrucks unter Einbeziehung von bauausführungstechnischen Randbedingungen zu entwickeln.
Auf Grundlage der theoretisch und experimentell gewonnenen Erkenntnisse dieser Arbeit wird ein realitätsnahes Berechnungsmodell zur Ermittlung des horizontalen Frischbetondrucks in Elementwänden mit integriertem Dämmstoff abgeleitet. Nach Validierung des Modells an Großversuchen und vereinfachenden Annahmen für einen praxisgerechten Einsatz kann der Frischbetondruck analog zur DIN 18218 mithilfe von einfachen Gleichungen, Tabellen und Diagrammen ermittelt werden. Die Anwendung und der wirtschaftliche Vorteil des Berechnungsmodells werden am Ende der Arbeit anhand von zwei Berechnungsbeispielen demonstriert.
Neben der Beeinflussung des Frischbetondrucks wirkt sich die Umlagerung von Zementleim aus dem Frischbeton in den Dämmstoff auch auf die Eigenschaften des Ortbetons und des Dämmstoffs der Elementwand aus. Die Untersuchungsergebnisse zeigen, dass sich zwar die wärmedämmende Wirkung des Dämmstoffs verschlechtert, dies jedoch bei hohen Dämmstoffstärken zur Sicherstellung des Wärmeschutzes nach EnEV 2016 vernachlässigt werden kann. Die Druckfestigkeit des Ortbetons infolge des Zementleimentzugs wird durch die Verringerung des w/z-Werts und die nachbehandelnde Wirkung des feuchten Dämmstoffs positiv beeinflusst.
Sicherheitstechnik ist eine sehr breit gefächerte Querschnittsdisziplin mit der Aufgabe
Mensch und Umwelt vor den Gefahren von Maschinen, Prozessen und technischen
Anlagen zu schützen. Während im 19ten Jahrhundert Anlagen durch Erfahrungswissen
sicher gestaltet worden sind, ist in der Sicherheitstechnik heute eine sehr
systematische Analyse von Gefahren und Risiken üblich. Dazu ist eine spezielle
Denkweise im Umgang mit stochastischen Prozessen und Unsicherheiten bei der
Modellierung hilfreich, die der Verfahrenstechniker oder Chemieingenieur ebenso
wenig im Studium erlernt wie ein Maschinenbauer oder Chemiker.
Die Sicherheitstechnik selbst und ihre Sicherheitskonzepte sind über lange Zeiträume
entstanden, beginnen mit Grundlagenforschungen, die anwendungsorientiert zu
speziellen sicherheitstechnischen Apparaten oder Modellen geführt haben. Diese
Apparate und Modelle sind anschließend eingebunden worden in Sicherheitskonzepte
für spezielle Anlagen wie Chemiereaktoren oder Gashochdruckleitungen.
In der vorliegenden Arbeit ist die Breite der Sicherheitstechnik und ihre Entwicklung an
sehr unterschiedlichen Beispielen verdeutlicht worden. Grundlegende Erkenntnisse
aus der Zweiphasenströmung führen zu Modellen wie der Auslegung von klassischen
Notentlastungsleitungen oder zur Entwicklung von Rückhalteeinrichtungen. Diese sind
Bestandteil von sehr unterschiedlichen Anlagensicherheitskonzepten bei Wärmeübertragern,
in der Hochdrucktechnik oder bei Multipurpose-Anlagen. Die Forschung zu
Grundlagen der Zweiphasenströmung führt auch zu neuen Sicherheitskonzepten für
Gashochdruckleitungen.
Am Beispiel von sicherheitsrelevanten Armaturen ist die langjährige Entwicklung von
Modellen zur Bemessung dieser Bauteile aufgezeigt worden. Ausgehend von einem
einfachen Düsenmodell wurden immer mehr Parameter berücksichtigt, um nicht nur
sicherheitsrelevante Ventile und Berstscheiben auszulegen, sondern auch Klappen,
Blenden, Stellventile und andere Armaturen. Durch eine hinreichende Validierung der
Modelle entstehen aus der Forschung neue Erkenntnisse für eine signifikante
Weiterentwicklung des Stands der Sicherheitstechnik.
This thesis is concerned with different null-models that are used in network analysis. Whenever it is of interest whether a real-world graph is exceptional regarding a particular measure, graphs from a null-model can be used to compare the real-world graph to. By analyzing an appropriate null-model, a researcher may find whether the results of the measure on the real-world graph is exceptional or not.
Deciding which null-model to use is hard and sometimes the difference between the null-models is not even considered. In this thesis, there are several results presented: First, based on simple global measures, undirected graphs are analyzed. The results for these measures indicates that it is not important which null-model is used, thus, the fastest algorithm of a null-model may be used. Next, local measures are investigated. The fastest algorithm proves to be the most complicated to analyze. The model includes multigraphs which do not meet the conditions of all the measures, thus, the measures themselves have to be altered to take care of multigraphs as well. After careful consideration, the conditions are met and the analysis shows, that the fastest is not always the best.
The same applies for directed graphs, as is shown in the last part. There, another more complex measure on graphs is introduced. I continue testing the applicability of several null-models; in the end, a set of equations proves to be fast and good enough as long as conditions regarding the degree sequence are met.
NoSQL-Datenbanken werden als Alternative zu klassischen relationalen Datenbanksystemen eingesetzt, um die Herausforderungen zu meistern, die „Big Data“ mit sich bringt. Big Data wird über die drei V definiert: Es sind große Datenmengen („Volume“), die schnell anwachsen („Velocity“) und heterogene Strukturen haben („Variety“). NoSQL-Datenbanken besitzen zudem meist nur sehr einfache Anfragemethoden. Um auch komplexe Datenanalysen durchzuführen, kommen meist Datenverarbeitungsframeworks wie MapReduce, Spark oder Flink zum Einsatz. Diese sind jedoch schwieriger in der Benutzung als SQL oder andere Anfragesprachen.
In dieser Arbeit wird die Datentransformationssprache NotaQL vorgestellt. Die Sprache verfolgt drei Ziele. Erstens ist sie mächtig, einfach zu erlernen und ermöglicht komplexe Transformationen in wenigen Code-Zeilen. Zweitens ist die Sprache unabhängig von einem speziellen Datenbankmanagementsystem oder einem Datenmodell. Daten können von einem System in ein anderes transformiert und Datenmodelle dementsprechend ineinander überführt werden. Drittens ist es möglich, NotaQL-Skripte auf verschiedene Arten auszuführen, sei es mittels eines Datenverarbeitsungsframeworks oder über die Abbildung in eine andere Sprache. Typische Datentransformationen werden periodisch ausgeführt, um bei sich ändernden Basisdaten die Ergebnisse aktuell zu halten. Für solche Transformationen werden in dieser Arbeit verschiedene inkrementellen Ansätze miteinander verglichen, die es möglich machen, dass NotaQL-Transformationen die vorherigen Ergebnisse wiederbenutzen und Änderungen seit der letzten Berechnung darauf anwenden können. Die NotaQL-Plattform unterstützt verschiedene inkrementelle und nicht-inkrementelle Ausführungsarten und beinhaltet eine intelligente Advisor-Komponente, um Transformationen stets auf die bestmögliche Art auszuführen. Die vorgestellte Sprache ist optimiert für die gebräuchlichen NoSQL-Datenbanken, also Key-Value-Stores, Wide-Column-Stores, Dokumenten- und Graph-Datenbanken. Das mächtige und erweiterbare Datenmodell der Sprache erlaubt die Nutzung von Arrays, verschachtelten Objekten und Beziehungen zwischen Objekten. Darüber hinaus kann NotaQL aber nicht nur auf NoSQL-Datenbanken, sondern auch auf relationalen Datenbanken, Dateiformaten, Diensten und Datenströmen eingesetzt werden. Stößt ein Benutzer an das Limit, sind Kopplungen zu Programmiersprachen und existierenden Anwendungen mittels der Entwicklung benutzerdefinierter Funktionen und Engines möglich. Die Anwendungsmöglichkeiten von NotaQL sind Datentransformationen jeglicher Art, von Big-Data-Analysen und Polyglot-Persistence-Anwendungen bis hin zu Datenmigrationen und -integrationen.
Chlorogenic acids (CGA) are phenolic compounds that form during the esterification of certain trans-cinnamic acids with (-)-quinic acid. According to several human intervention studies, they may have potential health benefits. Coffee is the main source of CGA in human nutrition, and is consumed either alone or in combination with a variety of foods. For this reason, the presented study aimed to clarify whether the simultaneous consumption of food, for example, a breakfast rich in carbohydrates, with instant coffee affects the absorption and bioavailability of CGA. The research specifically focused on how various food matrices, which are consumed at the same time as a coffee beverage, will influence kinetic parameters such as area under the curve (AUC), maximum plasma concentration (cmax), and time needed to reach maximum plasma concentration (tmax).
In a randomized crossover study, fourteen healthy participants consumed either pure instant coffee or coffee with a carbohydrate- or fat-rich meal. All of the subjects consumed the same quantity of CGA (3.1 mg CGA/kg body weight). Blood samples, collected at various time points up to 15 h after instant coffee consumption, were quantitatively analysed. Additionally, three urine collection intervals were chosen over a time period of 24h. High performance liquid chromatography electrospray ionization tandem mass spectrometry (HPLC-ESI-MS/MS) was used to determine the CGA present, along with the concentrations of respective metabolites.
During a blind data review meeting, 20 of the 56 analysed plasma metabolites were chosen for further statistical analysis. A total of 36 metabolites were monitored in the urine samples. Similar as in the plasma samples, between-treatment differences, measured through AUC, Cmax, and tmax, of various CGA derived metabolites were to estimate. Each treatment was also analysed in terms of the correlation between the plasma AUC and urinary excretion of seven metabolites.
It is already known that inter-individual variations in CGA absorption depends on gut microbial degradation and affects the efficacy of these compounds. Microorganisms present in the gastrointestinal tract metabolise CGA to form dihydroferulic acid (DHFA) and dihydrocaffeic acid (DHCA) derivatives, which precede the subsequent formation of a wide range of metabolites. Therefore stool samples were collected from the participants within 12 h before the second study day. Subsequent an ex-vivo incubation of faecal samples with 5-O-caffeoylquinic acid (5-CQA), the main chlorogenic acid found in coffee was performed. An HPLC system connected to a CoulArray® detector was used to measure the concentrations of 5-CQA and its metabolites. Reduced concentrations of 5-CQA as well as the appearance of DHCA and caffeic acid (CA) in the gut microbiota medium, were monitored to calculate the inter-individual kinetics for each compound. In addition, these samples were analysed for microbiota content by an external laboratory (L&S, Bad Bocklet, Germany). These results were used to distinguish whether the decreased or increased content of a specific microorganism was related to an individual’s decreased or increased metabolic efficiency. Finally, we used to aforementioned results to evaluate if any correlation could be drawn between the plasma appearance, urinary excretion and ability of microorganisms to degrade 5-CQA.
Strong inter-individual variation was observed for AUC, Cmax and tmax. The AUC measured the quantity of CGA in plasma samples. We noted that pure instant coffee consumption resulted in slightly higher CGA bioavailability than instant coffee with the additional consumption of a meal. However, these differences were not statistically significant. Additionally, the metabolites were divided into groups, according to similarity and chemical properties. They were further classified into three groups according to their physical structure and predicated from the area of appearance: directly from coffee (quinics), after first degradation and metabolism (phenolics, all trans-cinammic acids and their sulfates and glucuronides) as well as colonic degradation and metabolism (colonics, all dihydro compounds). These respective metabolic classes showed significant differences in the AUC values of certain classes yet no significant between-treatment differences. Our results corroborated earlier studies in that the three caffeoylquinic acid (CQA) isomers were absorbed to a lower extent whereas all feruloylquinic acids (FQA) were detected in comparably high amounts in the plasma samples of the volunteers. However, the amount of these quinic acid conjugates in the plasma samples accounted for only 0,5% of the total amount of identified. In contrast, at least 8.7% of the investigated compounds were identified to be phenolics. Dihydro compounds, the so known colonics, were identified as the most common metabolites (90.8%). Additionally, dihydroferulic acid (DHFA), meta-dihydrocoumaric acid (mDHCoA), dihydrocaffeic acid-3-sulfate (DHCA3S) and dihydroisoferulic acid (DHiFA) were identified to account for 78% of the studied metabolites, and thus represent the most abundant compounds circulating in the plasma after coffee consumption.
Irrespective of treatment, the tmax value for early metabolites (quinic and phenolic compounds) was observed between 0 and 2 h after the ingestion of coffee and tmax value for late metabolites (colonic metabolites) was observed between 7 and 10 h. The amount of colonic metabolites had not returned to the baseline level 15 h after the ingestion of coffee. The co-ingestion of breakfast and coffee, when compared to the ingestion of coffee alone, significantly increased the Cmax values for all quinic and phenolic compounds, as well as two colonic metabolites (DHCA and DHiFA). These differences also revealed that the three treatments differed in terms of the kinetics of release. Thus, future studies should use an extended plasma collection time with shorter intervals (e.g. 2 h) to provide a full pharmacokinetic profile.
There were no statistically significant between-treatment differences in the urine samples collected 24 h after coffee ingestion. However, urine samples collected within six hours of the consumption of coffee alone or in combination with a fat-rich meal showed significantly higher CGA quantities than samples collected at the same time point for coffee ingested with a carbohydrate-rich. Strong inter-individual variability and the fact that only 14 healthy subjects participated in the study hindered the identification of any clear trend between the plasma concentrations of metabolites and their excretion in urine.
Four hours after the ex vivo incubation of 5-CQA with individual faecal samples the sum of 5-CQA, CA, and DHCA varied strongly between participants. These findings could result from binding effects of the phenolic compounds with faecal constituents, further degradation or metabolism, and/or the release of bound phenolic substances before the experiment started. We hypothesized that for participants with high plasma AUCs of dihydro compounds, their incubation samples show also high concentrations of CA and DHCA in the incubation medium after four hours. No significant correlation could be found.
This study and all of the outcomes were exploratory. Due to the limited number of participants, we could only investigate tendencies for how the co-ingestion of food affects the bioavailability of CGAs and their respective metabolites following coffee consumption. Therefore, the achieved results are only indicative. Despite this limitation, the data highlight that even though all three treatments had strong similarities in the total bioavailability of CGAs and metabolites from instant coffee, there were between-treatment differences in the kinetics of release. The co-ingestion of breakfast and coffee favoured a slow and continuous release of colonic metabolites while non-metabolized coffee components were observed in plasma within the first hour when coffee was ingested alone.
In conclusion, both a shift in gastrointestinal transit time and the plasma metabolite composition were observed when the ingestion of coffee alone or in combination with breakfast were compared. These results showed that breakfast consumption induces the retarded release of chlorogenic acid metabolites in humans. The data from our human intervention study suggest that the bioavailability of chlorogenic acids from coffee and their derivatives does not only depend on chemical structure, molecular size and active or passive transport ability, but is also influenced by inter-individual differences. Therefore, we strongly recommend that future studies include metabolism experiments that focus on microbiota genotypes and/or the genotyping of individual subjects. This type of research could be pivotal to elucidating whether, and how, genotype affects the metabolic profile after chlorogenic acid intake.
Die Sicherstellung effektiver Gesundheitsdienstleistungen in ländlichen Regionen der Westpfalz erfordert vor dem Hintergrund der demographischen Entwicklung und des fortschreitenden Strukturwandels die Auseinandersetzung mit neuen Konzepten. Im Rahmen des Verbundprojektes „Bildung als Exponent individueller und regionaler Entwicklung – Evidenzbasierte Bedarfserschließung und vernetzte Kompetenzentwicklung (EB)1,
Teilprojekt „Pflege und Gesundheit“, wurde das Konzept der hochschulisch gebildeten Pflegefachperson im Sinne einer Advanced Nursing Practice (ANP)2 aufgegriffen. Expert_innen in der Westpfalz wurden befragt, um die Relevanz einer Erweiterten
Pflegepraxis im Sinne von ANP für die regionale Gesundheitsversorgung sowie die Bedeutung eines solchen Konzepts für die Personalentwicklung und Aspekte des Lebenslangen
Lernens im Pflegeberuf einschätzen zu können.
Phosphodiesterasen (PDE) katalysieren die Hydrolyse der second messenger cAMP und cGMP und spielen damit eine wichtige Rolle in cAMP- und cGMP-vermittelten Signalkaskaden. PDE-Hemmstoffe besitzen pharmakologische Wirkungen und werden daher u.a. als Antikoagulantien, Antiphlogistika und Vasodilatatoren eingesetzt. Neben synthetischen PDE-Hemmstoffen sind zahlreiche natürliche Hemmstoffe bekannt, die sowohl in Arzneipflanzen als auch in Lebensmitteln vorkommen. So sind beispielsweise Methylxanthine, Chlorogensäuren, Alkylpyrazine und Flavonoide als PDE-Hemmstoffe beschrieben. Der Verzehr von Lebensmitteln mit PDE-hemmendem Potential könnte sich aufgrund der pharmakologischen Wirkungen von PDE-Hemmstoffen positiv auf das Risiko von Herz Kreislauf-Erkrankungen auswirken. Daher besteht gesteigertes Interesse, das PDE-hemmende Potential von verschiedenen Lebensmitteln und die dafür verantwortlichen Inhaltsstoffe zu identifizieren. Zwei Humanstudien haben in diesem Zusammenhang gezeigt, dass die PDE-Aktivität in Thrombozyten bei langzeitigem Konsum von Kaffee (Coffea arabica) gehemmt wurde. Dabei wurden die verantwortlichen Inhaltsstoffe in Kaffee nicht identifiziert, weshalb in der vorliegenden Arbeit eine Aktivitäts-geleitete Fraktionierung mit in vitro PDE-Aktivitäts-Assay durchgeführt wurde. Im Rahmen der Aktivitäts geleiteten Fraktionierung wurde eine Fraktion von wasserlöslichen Melanoidinen mit niedrigem Molekulargewicht (< 3 kDa), niedriger Polarität und UV-Aktivität (260 nm, 280 nm, 420 nm) als verantwortlich für die PDE-Hemmung durch Kaffee identifiziert. Als Mechanismus der Hemmung wurde eine nicht-kompetitive Hemmung bestimmt, die vermutlich durch die Chelatisierung von zweiwertigen Kationen durch die Melanoidinfraktion hervorgerufen wird. Da Daten zur Bioverfügbarkeit von intakten Melanoidinen in der Literatur fehlen, bleibt eine physiologische Bedeutung unklar. Weiterhin wurden in der vorliegenden Arbeit Arzneipflanzen mit kulinarischer Bedeutung auf ihr PDE-hemmendes Potential untersucht. Während Extrakte aus Erdbeerbaumfrüchten (Arbutus unedo) und Grüntee (Camellia sinensis) wider Erwarten keine Effekte auf die PDE-Aktivität besaßen, konnte für einen Artischockenblätterextrakt (ALE, Cynara scolymus) und einen Ingwerpulverextrakt (GPE, Zingiber officinale) ein mit Kaffee vergleichbares PDE-hemmendes Potential gezeigt werden. Einzelsubstanztestungen haben gezeigt, dass für das PDE-hemmende Potential des ALE vermutlich ein Synergismus von mehreren Inhaltsstoffen verantwortlich ist, wobei es sich sehr wahrscheinlich um Flavone und Chlorogensäuren handelt. Eine grobe Fraktionierung des GPE zeigte, dass das PDE-hemmende Potential der lipoiden Fraktion zuzuordnen war. Einzelsubstanztestung von [6]-Gingerol lässt vermuten, dass das PDE hemmende Potential von den Gingerolen und deren Derivaten ausgeht. So konnten in der vorliegenden Arbeit zwei neue Lebens- bzw. Arzneimittel mit PDE-hemmendem Potential identifiziert sowie die verantwortlichen Inhaltsstoffe eingegrenzt werden. Zukünftig gilt es zu untersuchen, ob Effekte durch den Verzehr dieser Extrakte oder Lebensmittel zu einem physiologischen Effekt führt, der positive Auswirkungen auf Herz-Kreislauf-Erkrankungen besitzt.
Der vorliegende Artikel befasst sich mit der Realisierung eines einfachen Motion Capturing Verfahrens in MATLAB als Vorschlag für eine Umsetzung in der Schule. Die zugrunde liegende Mathematik kann ab der Mittelstufe leicht vermittelt werden. Je nach technischer Ausstattung können mit einfachen Mitteln farbige Marker in Videos oder Webcam-Streams verfolgt werden. Notwendige Konzepte und Algorithmen werden im Artikel beleuchtet.
The thesis studies change points in absolute time for censored survival data with some contributions to the more common analysis of change points with respect to survival time. We first introduce the notions and estimates of survival analysis, in particular the hazard function and censoring mechanisms. Then, we discuss change point models for survival data. In the literature, usually change points with respect to survival time are studied. Typical examples are piecewise constant and piecewise linear hazard functions. For that kind of models, we propose a new algorithm for numerical calculation of maximum likelihood estimates based on a cross entropy approach which in our simulations outperforms the common Nelder-Mead algorithm.
Our original motivation was the study of censored survival data (e.g., after diagnosis of breast cancer) over several decades. We wanted to investigate if the hazard functions differ between various time periods due, e.g., to progress in cancer treatment. This is a change point problem in the spirit of classical change point analysis. Horváth (1998) proposed a suitable change point test based on estimates of the cumulative hazard function. As an alternative, we propose similar tests based on nonparametric estimates of the hazard function. For one class of tests related to kernel probability density estimates, we develop fully the asymptotic theory for the change point tests. For the other class of estimates, which are versions of the Watson-Leadbetter estimate with censoring taken into account and which are related to the Nelson-Aalen estimate, we discuss some steps towards developing the full asymptotic theory. We close by applying the change point tests to simulated and real data, in particular to the breast cancer survival data from the SEER study.
Kurzusammenfassung
Molke gilt als Rohstoff, der ein in großen Mengen anfallendes Nebenprodukt der Käseindustrie ist. In den vergangenen Jahrzehnten wurde die wirtschaftliche Nutzung durch Wertschöpfung dieses kostengünstigen aber wertvollen Produktes intensiviert. Zu den drei wichtigsten Bestanteilen von Molke gehören Mineralien, Eiweiß und Lactose. Gerade der hohe physiologische Nährwert von Molke bei fast vollständiger Abwesenheit von Fett legt eine Anwendung in der Lebensmittelindustrie nahe. So werden inzwischen Bestandteile von Molke in Süßigkeiten, Diätetika, Tablettenfüll-stoffen, Verdickungsmitteln und Säuglingsernährung verwendet.
Vor der Verwendung von mikrobiellem Lab, welcher keine Spätblähung mehr verursacht, gab es ein Problem mit Nitratbelastung in der Molke durch Zugabe von Kalium- bzw. Natriumnitrat während der Käseherstellung zur Inhibition von Fehlgärungen. Bei Kleinkindern droht Lebensgefahr durch innere Erstickung, da das aus Nitrat gebildete Nitrit (durch Bakterien der Darmflora) Hämoglobin oxidiert. Daher wurden die Molkereien gezwungen sich mit dem Thema zu beschäftigen, um dieses Problem zu lösen. Für Erwachsene ist dies aber ungefährlich.
In dieser Arbeit wurde die Denitrifikation von Molkekonzentrat mit nativen Zellen und mit immobilisierten Zellen von Paracoccus denitrificans durchgeführt. Die indirekte Anwendung von dem Bakterium zur Nitratentfernung aus Molkekonzentrat befasst sich mit der Integration der Regeneration des Eluenten in den Prozess nach dem chromatographischen Verfahren. Das im Eluenten enthaltene Nitrat wird auch in Gegenwart von Natriumchlorid über mehrere Zwischenstufen zu elementarem Stickstoff reduziert. Somit wird der Eluent für eine weitere Regeneration wiederverwendbar und das Abwasseraufkommen des Gesamtprozesses stark reduziert. Eine kontinuierliche Denitrifikation des Eluenten mit einer Natriumchlorid-konzentration von 35 g/L wurde durch native Zellen realisiert. Als geeignete Denitrifikationsbedingungen wurden eine Temperatur von 37 °C, ein pH-Wert von 7,5 und die Zugabe von Acetat als Elektronendonor ermittelt.
Kontinuierliche Denitrifikationen mit nativen Zellen wurden in einer Laboratoriums- und Pilotanlage in Bioreaktoren mit einem Volumen von 5 L bzw. 25 L durchgeführt. Die Abtrennung der nativen Zellen zur Rückführung des Eluenten in die chroma-tographische Stufe erfolgte durch Cross-Flow-Filtration. Die vollständige Entfernung von Nitrat in Molkekonzentrat ist bis zu 450 Liter pro Tag im Pilotmaßstab möglich.
Im Falle immobilisierter Zellen wird die Zellabtrennung vereinfacht, da die Immobilisate 1,5-5 mm groß sind. Die Immobilisate konnten somit durch ein einfaches grobmaschiges Sieb zurückgehalten werden. Die Immobilisierung der Mikroorganis-men Paracoccus denitrificans wurde mit Hilfe des LentiKats® der Fa. genialLab GmbH hergestellt. Mit dem immobilisierten Verfahren wurde Nitrat im Eluent bzw. direkt in Molkekonzentrat denitrifiziert. Die Entfernung von Nitrat im Eluent ist bei gleichen Bedingungen wie mit nativen Zellen möglich. Allerdings zeichnen sich immobilisierte Mikroorganismen durch eine geringere Aktivität im Vergleich zu nativen Zellen aufgrund der Diffusionslimitierung, aus. So wurde durch immobilisierte Zellen eine Abbaugeschwindigkeit von v = 22,2 mgNitrat h-1∙g-1BTM im kontinuierlichen Betrieb erreicht, während durch Verwendung nativer Zellen Abbauraten von bis zu 32,4 mgNitrat h-1∙g-1BTM realisiert werden konnten. Der direkte Nitratabbau im Molkekonzentrat wurde bei Temperaturen von 10 °C bis zu 30 °C durchgeführt. Nach 1 h bei 30 °C konnte 90 mg/L Nitratkonzentrat vom Molkekonzentrat entfernt werden. Eine Akkumulierung von Nitrit ist nicht aufgetreten. Bei niedrigeren Temperaturen wurde der Nitratabbau geringer. Bei einer Temperatur von 10 °C ist es nicht mehr möglich Nitrat abzubauen. Die Untersuchung der wichtigen Inhaltstoffe, wie Protein, Mineralstoffe, Lactose, Glucose und Galactose im Molkekonzentrat wurde nach der Denitrifikation durchgeführt. Eine Änderung der Konzentration konnte nicht nachgewiesen werden.
Schlagworte: Molke, Molkeproteine, Denitrifikation, Nitrat, Immobilisierung, Paracoccus denitrificans
Der Arbeitsbericht stellt die Untersuchung medienpädagogischer Kompetenzen in Kompetenzbeschreibungen der Erwachsenenbildung dar. Dazu werden Kompetenzmodelle, Kompetenzprofile und andere kompetenzorientierte Anforderungsbeschreibungen für Erwachsenenbildner*innen aus Deutschland, Europa, Großbritannien und den USA untersucht.
Im Rahmen dieser Doktorarbeit wurden neue effiziente Katalysatorsysteme für nachhaltige Transformationen entwickelt. Im ersten Projekt meiner Doktorarbeit wurde ein neuer und nachhaltiger Weg zur Synthese von 1,4-Butandiol aus Acetylen und CO2 entwickelt. Mit einer anorganischen Base und Kupferiodid als Katalysator konnte Acetylen mit einer TON von 90 zum Dikaliumacetylendicarboxylat umgesetzt werden. Die anschließende Hydrierung der Dreifachbindung gelang in quantitativen Ausbeuten. Der entscheidende Schritt war nun die direkte Veresterung des Kaliumsuccinats mit Methanol zum Dimethylsuccinat, da eine direkte Hydrierung des Kaliumsuccinats zum entsprechenden Alkohol thermodynamisch nicht möglich ist. Hierzu wurde die Reaktionslösung mit CO2-Druck begast und somit die notwendige Acidität für die Veresterung mit Methanol erzielt. Eine anschließende Hydrierung des Esters zum 1,4-Butandiol wurde in sehr guten Ausbeuten erreicht. Somit wurde erstmals eine Methode für die Synthese der wichtigen Basischemikalie 1,4-Butandiol aus Acetylen und CO2 ermöglicht. Im zweiten Teilprojekt dieser Arbeit wurde ein neuer nachhaltiger Zugang zu biologisch aktiven (E)-β-Alkoxyacrylaten ermöglicht. Hierbei wurde eine metallfreie, basenkatalysierte Carboxylierung mit anschließender Alkoxylierung terminaler Alkine mittels einfacher Dialkylcarbonate entwickelt. Für aromatische Substrate konnte mit Hilfe katalytischer Mengen Kaliummethoxid die entsprechenden Acrylate schon bei Raumtemperatur erzielt werden. Aliphatische Alkine wurde mit der stärkere Base Kalium-tert-butoxid in äquivalenten Mengen bei 90°C erfolgreich umgesetzt. Die Atomökonomie für diese Reaktion beträgt optimale 100 %. Im dritten Teilprojekt dieser Doktorarbeit wurde eine selektive Hydrierung von Fettsäuren, Fettsäureestern und Triglyceriden in Gegenwart von Alkoholen zu den entsprechenden unsymmetrischen Ethern entwickelt. Somit gelang es uns einen neuen, nachhaltigen Zugang zu langkettigen unsymmetrischen Alkylethern aus nachwachsenden Rohstoffen zu erzielen. Diese haben aufgrund ihres niedrigen Schmelzpunktes und der geringen Viskosität eine hohe Anwendungsbreite in Schmiermitteln, Tensiden und Kosmetika. Mit diesem Protokoll konnten sowohl Fettsäuren als auch Ester in reiner Form oder auch in Mischungen umgesetzt werden. Auch Triglyceride aus Rapsöl wurden erfolgreich ohne weitere Aufreinigung umgesetzt. Im letzten Teilprojekt erfolgte die Entwicklung einer Einschritt Sandmeyer-analogen Trifluormethylierung und Trifluormethylthiolierung. Hierbei werden Diazoniumsalze in situ aus den Anilinen generiert und anschließend direkt mit dem in situ generierten Cu-CF3 aus dem Ruppert-Prakash-Reagens und CuSCN umgesetzt. Aus dem Reaktiosgemisch werden die entsprechenden Benzotrifluoride gebildet und als einziges Nebenprodukt wird Stickstoff freigesetzt. Wird zu der Reaktionsmischung zusätzlich NaSCN als Schwefelquelle hinzugegeben werden hierbei die entsprechenden Trifluormethylthiolverbindungen erhalten.
Medieneinsatz in der Hochschullehre. Akademische Lehr-Lernkonzepte zwischen Zumutung und Zu-Mutung.
(2017)
Das vorliegende systematische Review nimmt – ausgehend vom BMBF-geförderten Verbundforschungsprojekt „You(r) Study“ – Forschungsarbeiten zur Rolle digitaler Medien zur Gestaltung von Lehr-Lernarrangements durch Dozierende in den Blick. Ausgehend von konzeptionellen Beiträgen und empirischen Studien werden neben den Lehr-Lernzielen und den Funktionen, die Lehrende digitalen Medien beimessen auch die Rolle von digitalen Medien in verschiedenen Lehrformaten und Disziplinen in den Blick genommen. Aus diesem Vorgehen ergibt sich ein erstes Bild über die Ziele und Perspektiven der Gestaltung von Lehr-Lernarrangements mit und in Medien in der Hochschullehre.
Bedarfserschließung und Angebotsentwicklung im berufsbegleitenden Bachelorstudiengang Mechatronik
(2017)
Der vorliegende Arbeits- und Forschungsbericht beschreibt das Vorgehen zur Entwicklung
des berufsbegleitenden Studienganges Mechatronik an der Hochschule Kaiserslautern.
Hierbei werden der regionale Bedarf und die Kompetenzanforderungen an zukünftige Absolvent_innen erschlossen. Zu diesem Zweck werden vier verschiedene Tools der Kompetenzprofilerstellung vorgestellt. Diese umfassen die Dokumentenanalyse, die Stellenanzeigenanalyse, den Curriculumabgleich und Lehrendeninterviews. Die vier Verfahren werden einander gegenübergestellt und Implikationen für die Praxis abgeleitet. Dieser Bericht soll dazu beitragen, eine Übersicht über die Methoden und das Vorgehen der bedarfsorientierten Studiengangsentwicklung geben.
Im Rahmen der Tätigkeit eines selbständigen Unternehmensberaters ergeben sich in der Zusammenarbeit mit seinen Kunden eine Vielzahl von rechtlichen Fragestellungen. Die vorliegende Arbeit betrachtet dabei insbesondere solche Fragen, die im Bereich des Vertragswesens entstehen. Die Erbringung solcher Leistungen im Vertragswesen durch den Unternehmensberater unterliegt dem Rechtsdienstleistungsgesetz. Die vorliegende Arbeit soll dem Unternehmensberater als praxisnahe Hilfestellung bei der Entscheidung unterstützen, welche Tätigkeiten im Vertragswesen er übernehmen darf, und wo er die Grenzen zur unerlaubten Rechtsberatung überschreitet. Es wird zunächst das Rechtdienstleistungsgesetz mit seinen Voraussetzungen vorgestellt und erläutert, um die Grundlage für das Verständnis der Normen zu schaffen. Anschließend wird mit einem beispielhaften Katalog für typische Leistungen im Vertragswesen eine Orientierungshilfe für den Unternehmensberater gegeben. Für den Katalog werden das Rechtsdienstleistungsgesetz und seine bisher in Urteilen und Kommentaren erfolgte Auslegung als Basis herangezogen, zum Teil ergänzt um Entscheidungen zum vorhergehenden Rechtsberatungsgesetz. Ergänzt wird dies um Ausführungen zur Haftung des Unternehmensberaters für seine Rechtsdienstleistungen und zu einer diesbezüglich möglichen Versicherung. Abschließend wird ein kurzer Einblick in die Regelungen anderer europäischer Länder gegeben.
This dissertation describes an indoor localization system based on oscillating magnetic fields and the underlying processing architecture. The system consists of several fixed anchor points, generating the magnetic fields (transmitter), and wearable magnetic field measurement units, whose position should be determined (receiver). The system is evaluated in different environments and application areas. Additionally, various fields of application are discussed and assessed in ubiquitous and pervasive computing and Ambient Assisted Living. The fusion of magnetic field-based distance information and positions derived from LIDAR distance measurements is described and evaluated.
The system architecture consists of three layers, a physical layer, a layer for position and distance estimation between a magnetic field transmitter and a receiver, and a layer which uses several measurements to different transmitters to estimate the overall position of a wearable measurement unit.
Each layer covers different aspects which have to be taken care of when magnetic field information is processed. Especially the properties of the generated magnetic field information are considered in the processing algorithms.
The physical layer covers the magnetic field generation and magnetic Field-Based information transfer, synchronization of a transmitter and the receivers and the description of the locally measured magnetic fields on the receiver side. After a transfer of this information to a central processing unit, the hardware specific signal levels are transformed to the levels of the theoretical magnetic field models. The values are then used to estimate candidate positions and distances. Due to symmetrical effects of the magnetic fields, it is only possible to reduce the receiver position to 8 points around the transmitter (one position in each of the octants of the coordinate system). The determined positions have a mean error of 108 cm, the average error of the distance is 40 cm.
On top of this, the distance and position information against different transmitters are fused, this covers clock synchronization of transmitters, triggering and scheduling sequences and distance and position based localization and tracking algorithms. The magnetic-field-based indoor localization system has been evaluated in different applications and environments; the mean position error is 60 cm to 70 cm depending on the environment. A comparison against an RF-based indoor localization system shows the robustness of magnetic fields against RF shadows caused by big metal objects.
We additionally present algorithms for regions of interest detection, working on raw magnetic field information and transformed position and distance information. Setups in larger areas can distinguish regions which are further than 50 cm apart, small scale coil setups (3 transmitters in 2m^3) allow to resolve regions below 20 cm.
In the end, we describe a fusion algorithm for a wearable localization system based on 4 LIDAR distance measurement units and magnetic field-based distance estimation. The magnetic field indoor localization system provides distance proximity information which is used to resolve ambiguous position estimates of the LIDAR system. In a room (8m × 10m), we achieve a mean error of 8 cm.
Following the ideas presented in Dahlhaus (2000) and Dahlhaus and Sahm (2000) for time series, we build a Whittle-type approximation of the Gaussian likelihood for locally stationary random fields. To achieve this goal, we extend a Szegö-type formula, for the multidimensional and local stationary case and secondly we derived a set of matrix approximations using elements of the spectral theory of stochastic processes. The minimization of the Whittle likelihood leads to the so-called Whittle estimator \(\widehat{\theta}_{T}\). For the sake of simplicity we assume known mean (without loss of generality zero mean), and hence \(\widehat{\theta}_{T}\) estimates the parameter vector of the covariance matrix \(\Sigma_{\theta}\).
We investigate the asymptotic properties of the Whittle estimate, in particular uniform convergence of the likelihoods, and consistency and Gaussianity of the estimator. A main point is a detailed analysis of the asymptotic bias which is considerably more difficult for random fields than for time series. Furthemore, we prove in case of model misspecification that the minimum of our Whittle likelihood still converges, where the limit is the minimum of the Kullback-Leibler information divergence.
Finally, we evaluate the performance of the Whittle estimator through computational simulations and estimation of conditional autoregressive models, and a real data application.
Die evangelischen Landeskirchen mit ihrem tradierten institutionellen Selbstverständnis verlieren im Zuge der Mitgliedschaftserosion immer mehr den Anschluss an eine sich rasant wandelnde Gesellschaft. Die fortschreitende Pluralisierung, Individualisierung und Mobilität der Gesellschaft sowie die Zunahme von sozialen Organisationsformen alternativ zur klassischen Kleinfamilie stellen die regional agierende und massenkommunizierende evangelische Volkskirche heute vor Herausforderungen, die sie mit ihren bisherigen institutionellen Strukturen offensichtlich nicht mehr in jeder Hinsicht bewältigen kann. Als Körperschaft des öffentlichen Rechts sieht sich die evangelische Kirche selbst auf Augenhöhe zu den staatlichen Gewalten. Auf diese Weise steht sie im Spannungsfeld zwischen dem selbst auferlegten öffentlichen, mitgliederdistanzierten Auftrag einerseits und der Erwartung zur religiösen Bedürfnisbefriedigung andererseits.
Ausgehend von dem letzten Reformimpuls, den die EKD unter dem Titel Kirche der Freiheit im Jahr 2006 an ihre Gliedkirchen aussandte, wird ein differenzierterer Ansatz vorgeschlagen, bei dem die evangelische Kirche eine ihrer wichtigsten Dimensionen, nämlich die der mitgliederbasierten Freiwilligkeitsorganisation in den Fokus rückt. Ein vornehmlich organisationales Selbstverständnis würde der evangelischen Kirche mit der Anwendung von Nonprofit-Governance-Methoden, beispielsweise mit der organisationsweiten Einführung effektiverer Leitungs- und Steuerungsmechanismen, neue und flexiblere Handlungsspielräume eröffnen. Zudem erlaubte ein auf das kirchliche Wesen zugeschnittenes Nonprofit-Marketing das Organisationsziel in Relation zum Marktgeschehen und damit zu den Bedürfnissen der Individuen zu formulieren und zu verfolgen.
In der konsequenten Weiterentwicklung der im Impulspapier der EKD genannten Funktionsgemeinden wird eine funktionale Organisationsmatrix vorgeschlagen, die sich an den vier christlichen Grundvollzügen Koinonia, Diakonia, Leiturgia und Martyria orientiert. Dies impliziert die Substitution des traditionellen Parochialsystems durch eine rein funktionale Organisationsstruktur in Form von strategischen Kerngeschäftsfeldern, unter denen die diversen kirchlichen Dienste programmatisch zusammengefasst werden.
Für die bessere Wiedererkennbarkeit im Außenverhältnis und notwendige Komplexitätsreduzierung im Binnenverhältnis wird die Konzeptionierung einer einheitlichen evangelischen Corporate Identity angeraten, die organisationsweite einheitliche Vorgaben für das Verhalten, die Außendarstellung und Kommunikation im Rahmen einer einheitlichen evangelischen Dachmarke vorsieht. Ziel ist es hier, mit einer stimmigen Corporate Identity eine kirchliche Persönlichkeit zu erschaffen, die ihre religiöse Identitätsbotschaft mit ihrer eigenen Wahrhaftigkeit vermittelt.
Computational simulations run on large supercomputers balance their outputs with the need of the scientist and the capability of the machine. Persistent storage is typically expensive and slow, its peformance grows at a slower rate than the processing power of the machine. This forces scientists to be practical about the size and frequency of the simulation outputs that can be later analyzed to understand the simulation states. Flexibility in the trade-offs of flexibilty and accessibility of the outputs of the simulations are critical the success of scientists using the supercomputers to understand their science. In situ transformations of the simulation state to be persistently stored is the focus of this dissertation.
The extreme size and parallelism of simulations can cause challenges for visualization and data analysis. This is coupled with the need to accept pre partitioned data into the analysis algorithms, which is not always well oriented toward existing software infrastructures. The work in this dissertation is focused on improving current work flows and software to accept data as it is, and efficiently produce smaller, more information rich data, for persistent storage that is easily consumed by end-user scientists. I attack this problem from both a theoretical and practical basis, by managing completely raw data to quantities of information dense visualizations and study methods for managing both the creation and persistence of data products from large scale simulations.
In den vergangenen Jahren hat sich der Bereich der Nanotechnologie zu einem fachübergreifenden Gebiet entwickelt. Nanopartikel besitzen aufgrund ihrer Größe und einem hohen Oberfläche zu Volumen Verhältnis besondere chemische und physikalische Eigenschaften, die sich von denen größerer Partikel unterscheiden. Das Forschungsinteresse der letzten Zeit liegt insbesondere auf deren magnetischem Charakter. Damit verbunden sind auch vielseitige industrielle Einsatzmöglichkeiten. Magnetische, nanostrukturierte Materialien werden in Bereichen wie der Chemie, der Physik sowie der Biomedizin untersucht und angewendet.
In der Chemie werden die Herstellung und die Untersuchung der katalytischen Eigenschaften von Nanopartikeln intensiv erforscht. Zu den zahlreichen Synthesemethoden von nanoskaligen Partikeln zählen zum Beispiel die thermische Zersetzung, die Mitfällung oder die Hydrothermalsynthese. Die katalytische Aktivität und die Selektivität dieser Materialien werden von der Partikelgröße, der Morphologie und der Anzahl an aktiven Oberflächenzentren beeinflusst. Die Entwicklung von stabilen Katalysatoren ist entscheidend für viele Anwendungen. Zur Stabilisierung und zum Schutz gegen Oxidation und Erosion werden oberflächenaktive Substanzen (z. B. Polymere, Tenside), anorganische oder poröse Trägermaterialien (Siliciumdioxid, Zeolithe) eingesetzt. Ein wichtiges Ziel für nachhaltige Prozesse sind leicht abtrennbare und wiederzuverwendende Nanopartikel. Dies ermöglichen zum Beispiel Kern-Schale-Katalysatoren, die eine katalytisch aktive Schale (Rh, Pt, Au) und einen magnetischen Kern aus Fe, Co, Ni besitzen. Verschiedene magnetische Nanopartikel wurden in zahlreichen Reaktionen (z. B. C-C-Kupplungen, Hydrierung von Olefinen, Hydroformylierung) getestet und zeichneten sich als katalytisch aktive und stabile Katalysatoren aus.
Im Bereich der Physik werden die magnetischen und die elektronischen Eigenschaften der Nanopartikel untersucht. Die magnetischen Einheiten werden im Forschungsgebiet der Informationstechnologie als Nanobauteile in Speichermedien eingesetzt. Die Verwendung basiert auf der Nutzung des ferromagnetischen Verhaltens einzelner Nanomaterialien in Speichereinheiten. Bei der Herstellung werden die elektrischen, optischen und magnetischen Eigenschaften der Nanopartikel beeinflusst. So tritt mit abnehmender Partikelgröße ein Übergang vom Ferromagnetismus zum Paramagnetismus auf. Außerdem beginnt die Magnetisierungsrichtung zeitlich und räumlich zu fluktuieren und die magnetisch
gespeicherten Informationen gehen verloren. Die Miniaturisierung der Komponenten (z. B. Computerchips) bei gleichzeitiger Vergrößerung der Datenspeicherdichte ist sehr wichtig. Einer der vielversprechenden Zusammensetzungen dafür sind FePt-Partikel, die auch nach Entfernen des externen elektrischen Feldes ihre Magnetisierungsrichtung nicht sofort verlieren.
Im biomedizinischen Bereich eröffnen magnetische Nanopartikel ebenfalls neue Möglichkeiten. Sie werden als spezielle Kontrastmittel für die bildgebenden Verfahren der Magnetresonanztomografie genutzt. Außerdem können funktionalisierte Partikel als Transportmittel für Wirkstoffe bei einer Krebstherapie eingesetzt werden. Eine gezielte Positionierung des mit Wirkstoff modifizierten magnetischen Nanopartikels im Körper ist dabei möglich. Die Bioverträglichkeit der Materialien wird durch eine Verkapselung der Nanopartikel mit biologisch nicht belastenden, nicht toxischen Substanzen (z. B. Polyvinylalkohol, Polyethylenglykol, Stärke oder Dextran) erreicht.
Eine Materialklasse, die Wissenschaft und Technologie vereinigt und die in den letzten Jahren immer mehr an Interesse gewonnen hat, stellen die Heusler-Verbindungen dar. Dies sind ternäre intermetallische Zusammensetzungen der Form X2YZ, die im Jahr 1903 von Fritz Heusler entdeckt und beschrieben wurden. X und Y stehen meistens für Übergangmetalle, wohingegen Z häufig ein Element der III. – V. Hauptgruppe darstellt. Eine Kombination der unterschiedlichen charakteristischen Merkmale (halbmetallischer Charakter, hohes magnetisches Moment, hohe Curie-Temperatur) in einer Verbindung ermöglicht vielseitige Anwendungen dieser Materialien. Die Eigenschaften der Heusler-Verbindungen können durch die Veränderung der Zusammensetzung (Elementenaustausch) oder durch die Variation der Stöchiometrie der kombinierten Elemente beeinflusst werden. Unter den Heusler-Materialien sind halbmetallische Ferromagneten, ferrimagnetische Zusammensetzungen, Halbleiter und Supraleiter vertreten. Die X2YZ-Kompositionen werden industriell als magneto-optische Materialien, als Formgedächtnislegierungen, in thermoelektrischen Elementen oder als topologische Isolatoren verwendet. Das
Augenmerk der Spintronik liegt bei der hohen Spinpolarisation der Heusler-Verbindungen. Effiziente Bauelemente mit einem hohen Riesenmagnetwiderstand oder einem hohen Tunnelmagnetwiderstand werden in Festplattenleseköpfen von Computern und in magnetischen Sensoren eingebaut. Mit den ersten katalytischen Experimenten an ternären intermetallischen Materialien von Hedvall und Hedin im Jahr 1935 wurde auf ein weiteres Forschungs- und Einsatzbereich für Heusler-Verbindungen hingewiesen.
Keilzinkenverbindungen als Fügetechnik für dünne Bauteile aus mikrobewehrtem Hochleistungsbeton
(2017)
Auf Grundlage von in erster Linie experimentellen Untersuchungen wurden im Rahmen
der Arbeit Keilzinkenverbindungen zum Fügen dünner Bauteile aus mikrobewehrtem
Hochleistungsbeton erforscht. Als Klebstoff kam hierbei ein rein zementgebundener
Hochleistungsmörtel zum Einsatz.
Die Entwicklung von Hochleistungsbetonen und neuartigen Bewehrungsformen, wie
Glas- oder Kohlefasergelegen, ermöglicht die Realisierung von sehr filigranen Konstruktionen.
Aus verschiedenen Gründen, beschränkt sich die Anwendung fast ausschließlich
auf werksmäßig hergestellte Fertigteile. Um daraus größere Strukturen
realisieren zu können, sind geeignete Fügetechniken erforderlich. Einen vielversprechenden
Ansatz stellen hier Klebverbindungen dar. Das Kleben als flächige Fügetechnik
zeichnet sich durch eine kontinuierliche Kraftübertragung und gleichmäßige
Materialauslastung aus.
Der große Vorteil von Zement-Klebstoffen im Vergleich zu Reaktionsharzklebstoffen
ist, dass sie weitestgehend unempfindlich gegenüber Umwelteinflüssen sind. Neben
zwei Hochleistungsmörteln, welche auf einer von Mühlbauer 2012 entwickelten Rezeptur
basieren, wurde ein kommerzieller Hochleistungsmörtel eingesetzt.
In einem ersten Schritt wurden verschiedene Voruntersuchungen durchgeführt. Im
Mittelpunkt standen dabei Tastversuche mit unterschiedlichen Fugenvarianten. Das
Versuchsprogramm sah verschiedene Fugengeometrien und Beanspruchungsarten
vor. Neben Mikrobewehrung kam hierbei auch Stabstahlbewehrung zum Einsatz. Als
besonders vorteilhaft hat sich die Keilgeometrie oder Keilzinkenverbindung, wie aus
dem Holzbau bekannt, herauskristallisiert. Neben einer hohen Traglast weist diese
weitere positive Eigenschaften auf, wie z.B. ein duktiles Tragverhalten.
Auf Grundlage von Kleinteilversuchen wurden in einem nächsten Schritt Bruchkriterien
entwickelt, die die Festigkeit der Klebfuge sowohl für eine kombinierte Schub-
Druck- als auch für eine Schub-Zugbeanspruchung beschreiben.
In einer umfangreichen Versuchsserie wurde schließlich das Tragverhalten von Keilzinkenverbindungen
detailliert untersucht. Neben Zugversuchen wurden dabei auch
Drei- und Vierpunktbiegeversuche durchgeführt. Das Versagen lässt sich vereinfachend
in ein Fugenversagen und ein Bewehrungsversagen unterteilen. Ziel einer
fachgerechten Konstruktion und Ausführung von Keilzinkenverbindungen muss ein
Bewehrungsversagen und damit ein duktiles Tragverhalten sein. Einflussfaktoren auf
das Tragverhalten sind der Flankenneigungswinkel, die Zahnlänge, der Bewehrungsgrad
des Bauteils sowie die Art der Klebflächenvorbereitung und der verwendete
Klebstoff.
Basierend auf den gewonnen Erkenntnissen wurde in einem letzten Schritt ein praxisgerechtes
Bemessungskonzept für zugbeanspruchte, biegebeanspruchte sowie
biege-querkraftbeanspruchte Keilzinkenverbindungen entwickelt.
The present situation of control engineering in the context of automated production can be described as a tension field between its desired outcome and its actual consideration. On the one hand, the share of control engineering compared to the other engineering domains has significantly increased within the last decades due to rising automation degrees of production processes and equipment. On the other hand, the control engineering domain is still underrepresented within the production engineering process. Another limiting factor constitutes a lack of methods and tools to decrease the amount of software engineering efforts and to permit the development of innovative automation applications that ideally support the business requirements.
This thesis addresses this challenging situation by means of the development of a new control engineering methodology. The foundation is built by concepts from computer science to promote structuring and abstraction mechanisms for the software development. In this context, the key sources for this thesis are the paradigm of Service-oriented Architecture and concepts from Model-driven Engineering. To mold these concepts into an integrated engineering procedure, ideas from Systems Engineering are applied. The overall objective is to develop an engineering methodology to improve the efficiency of control engineering by a higher adaptability of control software and decreased programming efforts by reuse.
In the recent years small towns have experienced several negative developments. Especially in rural areas there are demographic problems and in the sector of retailing. Reforms in state administration resulted in the reduction of county administration seats. Also professional health care services are being reduced.
The thesis explores the effectiveness of three middle order centres (which in two cases are formed by more than one town) to fulfil their respective functions for their regions (complementary regions).
The spatial dominance of these towns in the sectors of jobs and services (retailing, secondary education – up to college level – health and entertainment) is surveyed.
The analysis is done with statistical material already collected by various institutions and by several own surveys. Interviews were done with experts.
Thus each middle order center and its complementary region is evaluated.
Haslach/Hausach/Wolfach performs best, albeit their demographic development is not dynamic. Bad Krozingen/Staufen has some shortcomings in its performance by the most dynamic demographic development of the three entities. Titisee-Neustadt's performance can be ranked second.
In a final chapter further research topics are listed.
In this dissertation convergence of binomial trees for option pricing is investigated. The focus is on American and European put and call options. For that purpose variations of the binomial tree model are reviewed.
In the first part of the thesis we investigated the convergence behavior of the already known trees from the literature (CRR, RB, Tian and CP) for the European options. The CRR and the RB tree suffer from irregular convergence, so our first aim is to find a way to get the smooth convergence. We first show what causes these oscillations. That will also help us to improve the rate of convergence. As a result we introduce the Tian and the CP tree and we proved that the order of convergence for these trees is \(O \left(\frac{1}{n} \right)\).
Afterwards we introduce the Split tree and explain its properties. We prove the convergence of it and we found an explicit first order error formula. In our setting, the splitting time \(t_{k} = k\Delta t\) is not fixed, i.e. it can be any time between 0 and the maturity time \(T\). This is the main difference compared to the model from the literature. Namely, we show that the good properties of the CRR tree when \(S_{0} = K\) can be preserved even without this condition (which is mainly the case). We achieved the convergence of \(O \left(n^{-\frac{3}{2}} \right)\) and we typically get better results if we split our tree later.
We discuss the portfolio selection problem of an investor/portfolio manager in an arbitrage-free financial market where a money market account, coupon bonds and a stock are traded continuously. We allow for stochastic interest rates and in particular consider one and two-factor Vasicek models for the instantaneous
short rates. In both cases we consider a complete and an incomplete market setting by adding a suitable number of bonds.
The goal of an investor is to find a portfolio which maximizes expected utility
from terminal wealth under budget and present expected short-fall (PESF) risk
constraints. We analyze this portfolio optimization problem in both complete and
incomplete financial markets in three different cases: (a) when the PESF risk is
minimum, (b) when the PESF risk is between minimum and maximum and (c) without risk constraints. (a) corresponds to the portfolio insurer problem, in (b) the risk constraint is binding, i.e., it is satisfied with equality, and (c) corresponds
to the unconstrained Merton investment.
In all cases we find the optimal terminal wealth and portfolio process using the
martingale method and Malliavin calculus respectively. In particular we solve in the incomplete market settings the dual problem explicitly. We compare the
optimal terminal wealth in the cases mentioned using numerical examples. Without
risk constraints, we further compare the investment strategies for complete
and incomplete market numerically.
Wie Proteine sich innerhalb weniger Millisekunden korrekt falten können, ist eine der fundamentalen Fragen in der Biochemie. Ein beim Faltungsprozess durchlaufener Übergangszustand ist der molten globule Zustand (MG Zustand), der sich unter bestimmten Bedingungen stabilisieren und untersuchen lässt. In diesem Zustand ähnelt die Sekundärstruktur dem nativen Zustand, während die Tertiärstruktur eher dem vollständig entfalteten Zustand entspricht. In dieser Arbeit wurde der MG Zustand am Beispiel des Maltose bindenden Proteins (MBP) untersucht. Dazu wurde MBP bei pH 3,2 im MG-Zustand stabilisiert und dies mittels Fluoreszenz Spektroskopie bestätigt. Die Abstände zwischen definierten Aminosäuren im MG Zustand wurden durch Spinlabels, die an gezielt mutierten Cysteinpaaren angebracht wurden, mittels Elektronenspinresonanz (EPR) gemessen und mit den Abständen derselben Aminosäuren im nativen Zustand verglichen. Anhand von sieben verschiedenen Doppelmutanten wurde die periphere Struktur mittels gepulster EPR analysiert, zwei weitere Doppelmutanten dienten dazu, die Struktur der molekularen Bindungstasche von MBP mittels CW EPR zu untersuchen. Die Anwesenheit von Maltose führte im MG Zustand zu einer deutlichen Veränderung der Abstände bestimmter Spinlabels in der peripheren Struktur. Dies deutet darauf hin, dass MBP Maltose sogar im MG Zustand binden kann. Durch isotherme Titrationskalorimetrie (ITC) wurde diese Vermutung bestätigt: die Ergebnisse zeigen jedoch, dass der Bindungsprozess zwischen MBP und Maltose im MG Zustand mit 11 fach geringerer Bindungsenthalpie erfolgt wie im nativen Zustand. Die Abstände der Spinlabel Paare neben der Bindungstasche von MBP unterschieden sich im MG Zustand vom nativen Zustand weder mit noch ohne Maltose. Diese Ergebnisse weisen darauf hin, dass MBP im MG Zustand rund um die Bindungstasche bereits eine klar ausgebildete Tertiärstruktur besitzt. Um diese Befunde zu bestätigen, sollten nun Untersuchungen anhand weiterer Doppelmutanten und mittels empfindlicherer Messungen wie z.B. DQC durchgeführt werden.