Refine
Year of publication
Document Type
- Doctoral Thesis (1877) (remove)
Language
- English (940)
- German (931)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (19)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (370)
- Kaiserslautern - Fachbereich Mathematik (292)
- Kaiserslautern - Fachbereich Informatik (235)
- Kaiserslautern - Fachbereich Biologie (134)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (64)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (37)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (29)
- Kaiserslautern - Fachbereich Physik (25)
- Landau - Fachbereich Natur- und Umweltwissenschaften (23)
- Landau - Fachbereich Psychologie (7)
- Kaiserslautern - Fachbereich Architektur (5)
- Fraunhofer (ITWM) (4)
- Landau - Fachbereich Erziehungswissenschaften (4)
- Landau - Fachbereich Kultur- und Sozialwissenschaften (2)
- Universität (1)
On the Effect of Nanofillers on the Environmental Stress Cracking Resistance of Glassy Polymers
(2019)
It is well known that reinforcing polymers with small amounts of nano-sized fillers is one of the most effective methods for simultaneously improving their mechanical and thermal properties. However, only a small number of studies have focused on environ-mental stress cracking (ESC), which is a major issue for premature failures of plastic products in service. Therefore, the contribution of this work focused on the influence of nano-SiO2 particles on the morphological, optical, mechanical, thermal, as well as envi-ronmental stress cracking properties of amorphous-based nanocomposites.
Polycarbonate (PC), polystyrene (PS) and poly(methyl methacrylate) (PMMA) nanocom-posites containing different amounts and sizes of nano-SiO2 particles were prepared using a twin-screw extruder followed by injection molding. Adding a small amount of nano-SiO2 caused a reduction in optical properties but improved the tensile, toughness, and thermal properties of the polymer nanocomposites. The significant enhancement in mechanical and thermal properties was attributed to the adequate level of dispersion and interfacial interaction of the SiO2 nanoparticles in the polymer matrix. This situation possibly increased the efficiency of stress transfer across the nanocomposite compo-nents. Moreover, the data revealed a clear dependency on the filler size. The polymer nanocomposites filled with smaller nanofillers exhibited an outstanding enhancement in both mechanical properties and transparency compared with nanocomposites filled with larger particles. The best compromise of strength, toughness, and thermal proper-ties was achieved in PC-based nanocomposites. Therefore, special attention to the influ-ence of nanofiller on the ESC resistance was given to PC.
The ESC resistance of the materials was investigated under static loading with and without the presence of stress-cracking agents. Interestingly, the incorporation of nano-SiO2 greatly enhanced the ESC resistance of PC in all investigated fluids. This result was particularly evident with the smaller quantities and sizes of nano-SiO2. The enhancement in ESC resistance was more effective in mild agents and air, where the quality of the deformation process was vastly altered with the presence of nano-SiO2. This finding confirmed that the new structural arrangements on the molecular scale in-duced by nanoparticles dominate over the ESC agent absorption effect and result in greatly improving the ESC resistance of the materials. This effect was more pronounced with increasing molecular weight of PC due to an increase in craze stability and fibril density. The most important and new finding is that the ESC behavior of polymer-based nanocomposites/ stress-cracking agent combinations can be scaled using the Hansen solubility parameter. Thus allowed us to predict the risk of ESC as a function of the filler content for different stress-cracking agents without performing extensive tests. For a comparison of different amorphous polymer-based nanocomposites at a given nano-SiO2 particle content, the ESC resistance of materials improved in the following order: PMMA/SiO2 < PS/SiO2 < low molecular weight PC/SiO2 < high molecular weight PC/SiO2. In most cases, nanocomposites with 1 vol.% of nano-SiO2 particles exhibited the largest improvement in ESC resistance.
However, the remarkable improvement in the ESC resistance—particularly in PC-based nanocomposites—created some challenges related to material characterization because testing times (failure time) significantly increased. Accordingly, the superposition ap-proach has been applied to construct a master curve of crack propagation model from the available short-term tests at different temperatures. Good agreement of the master curves with the experimental data revealed that the superposition approach is a suitable comparative method for predicting slow crack growth behavior, particularly for long-duration cracking tests as in mild agents. This methodology made it possible to mini-mize testing time.
Additionally, modeling and simulations using the finite element method revealed that multi-field modeling could provide reasonable predictions for diffusion processes and their impact on fracture behavior in different stress cracking agents. This finding sug-gests that the implemented model may be a useful tool for quick screening and mitigat-ing the risk of ESC failures in plastic products.
Die räumliche Planung begegnet häufig Herausforderungen, zu deren Bewältigung nicht auf existierendes Wissen zurückgegriffen werden kann. Um neuartiges Wissen zu erzielen, werden insbesondere Modellvorhaben – kleinmaßstäbliche, befristete reale Feldexperimente – als Instrument eingesetzt. Diese zielen darauf ab, wiederverwendbares Wissen reproduzierbar zu erzeugen. Im Rahmen eines Modellvorhabens werden in verschiedenen Modellräumen vielfältige innovative Projekte initiiert, über einen festen Zeitraum umgesetzt sowie bewertet. Akademische oder private Institutionen begleiten Modellvorhaben wissenschaftlich, um allgemeingültige und übertragbare Erkenntnisse zu identifizieren. Die Ergebnisse dieser umfassenden Evaluation werden in einem Abschlussbericht dokumentiert. Erfahrungen zeigen allerdings, dass dies zur Verteilung der Ergebnisse nicht ausreicht, um die Nutzung und Wiederverwendung der in Modellvorhaben generierten Erkenntnisse sicherzustellen. Dies liegt insbesondere daran, dass die Abschlussberichte zu wenig anwendungsorientiert und zu umfangreich sind. So ist der Vergleich zwischen vorhandenen Berichten und einem laufenden Modellvorhaben mit einem zu hohen Aufwand verbunden, wodurch sich ein unausgeglichenes Aufwand-Ertrag-Verhältnis ergibt. Somit wird das Lernen aus Modellvorhaben erschwert.
Um eine effektive und effiziente Dissemination und Verstetigung sowie Wiederverwendbarkeit von Wissen generiert in Modellvorhaben zu erzielen, wurde im Rahmen der vorliegenden Forschungsarbeit ein Modell entwickelt. In einem ersten Schritt wurde für die Analyse von Modellvorhaben eine allgemeingültige Struktur geschaffen, die mit dem generellen Ablauf eines Projekts im Rahmen des Projektmanagements vergleichbar ist. Diese Struktur reduziert den Aufwand Erkenntnisse und Wissen jeweils für die folgenden hier definierten Phasen zu nutzen: Identifikation einer neuen Herausforderung; Projektaufruf; Bewerbungen der möglichen Teilnehmer; Bewertungen der Bewerbungen durch den Initiator; Durchführung; Auswertung; Dissemination, Transfer und Verstetigung.
Im nächsten Schritt wurde in die einzelnen Phasen eines Modellvorhabens ein Wissensmanagementprozess – die Bausteine Wissensziele, -identifikation, -erwerb, - entwicklung, -bewertung, -bewahrung, -(ver)teilung und -nutzung – integriert, um die gemeinsame Nutzungseinheit vom umfassenden Abschlussbericht auf kleinere, in sich abgeschlossene Informationseinheiten zu reduzieren. Auf diese Weise wird der Aufwand für die Identifikation, den Erwerb und die Nutzung von Wissen verringert. Am Ende jeder Phase wird eine Bewertung durchgeführt sowie das erzielte Wissen effizient geteilt. Dafür ist eine systematische Interaktion zwischen Akteuren von Modellvorhaben und eine zentrale Sammlung des Wissens notwendig. Ein wesentliches Ergebnis dieser Arbeit ist die Entwicklung einer neuartigen Austauschinfrastruktur, die das generierte Wissen einerseits bewahrt und andererseits systematisch verteilt. Dadurch kann bereits im Verlauf eines Modellvorhabens gewonnenes Wissen ausgetauscht und wiederverwendet werden, sodass
die Phase der Dissemination, Transfer und Verstetigung in den Prozess verschoben wird. Die Infrastruktur soll frei zugänglich sein und nutzerfreundlich gestaltet werden.
Durch das entwickelte Modell wird eine effektive und effiziente Wiederverwendung von Wissen generiert in Modellvorhaben ermöglicht sowie eine belastbare Grundlage für neue Projekte in der räumlichen Planung geschaffen.
Model uncertainty is a challenge that is inherent in many applications of mathematical models in various areas, for instance in mathematical finance and stochastic control. Optimization procedures in general take place under a particular model. This model, however, might be misspecified due to statistical estimation errors and incomplete information. In that sense, any specified model must be understood as an approximation of the unknown "true" model. Difficulties arise since a strategy which is optimal under the approximating model might perform rather bad in the true model. A natural way to deal with model uncertainty is to consider worst-case optimization.
The optimization problems that we are interested in are utility maximization problems in continuous-time financial markets. It is well known that drift parameters in such markets are notoriously difficult to estimate. To obtain strategies that are robust with respect to a possible misspecification of the drift we consider a worst-case utility maximization problem with ellipsoidal uncertainty sets for the drift parameter and with a constraint on the strategies that prevents a pure bond investment.
By a dual approach we derive an explicit representation of the optimal strategy and prove a minimax theorem. This enables us to show that the optimal strategy converges to a generalized uniform diversification strategy as uncertainty increases.
To come up with a reasonable uncertainty set, investors can use filtering techniques to estimate the drift of asset returns based on return observations as well as external sources of information, so-called expert opinions. In a Black-Scholes type financial market with a Gaussian drift process we investigate the asymptotic behavior of the filter as the frequency of expert opinions tends to infinity. We derive limit theorems stating that the information obtained from observing the discrete-time expert opinions is asymptotically the same as that from observing a certain diffusion process which can be interpreted as a continuous-time expert. Our convergence results carry over to convergence of the value function in a portfolio optimization problem with logarithmic utility.
Lastly, we use our observations about how expert opinions improve drift estimates for our robust utility maximization problem. We show that our duality approach carries over to a financial market with non-constant drift and time-dependence in the uncertainty set. A time-dependent uncertainty set can then be defined based on a generic filter. We apply this to various investor filtrations and investigate which effect expert opinions have on the robust strategies.
Private data analytics systems preferably provide required analytic accuracy to analysts and specified privacy to individuals whose data is analyzed. Devising a general system that works for a broad range of datasets and analytic scenarios has proven to be difficult.
Despite the advent of differentially private systems with proven formal privacy guarantees, industry still uses inferior ad-hoc mechanisms that provide better analytic accuracy. Differentially private mechanisms often need to add large amounts of noise to statistical results, which impairs their usability.
In my thesis I follow two approaches to improve the usability of private data analytics systems in general and differentially private systems in particular. First, I revisit ad-hoc mechanisms and explore the possibilities of systems that do not provide Differential Privacy or only a weak version thereof. Based on an attack analysis I devise a set of new protection mechanisms including Query Based Bookkeeping (QBB). In contrast to previous systems QBB only requires the history of analysts’ queries in order to provide privacy protection. In particular, QBB does not require knowledge about the protected individuals’ data.
In my second approach I use the insights gained with QBB to propose UniTraX, the first differentially private analytics system that allows to analyze part of a protected dataset without affecting the other parts and without giving up on accuracy. I show UniTraX’s usability by way of multiple case studies on real-world datasets across different domains. UniTraX allows more queries than previous differentially private data analytics systems at moderate runtime overheads.
Im Rahmen dieser Dissertationsarbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden im Ligandenrückgrat und in N-Position funktionalisiert, um chirale C2-symmetrische tridentate Liganden mit Stickstoffdonoratomen bzw. bifunktionelle pentadentate Liganden mit Stickstoff- und Phosphordonoratomen zu generieren. Die C2-symmetrischen tridentaten Liganden wurden mit Eisen(II)- und Ruthenium(II)vorstufen zu monometallischen Katalysatoren umgesetzt. Diese wurden erfolgreich in der Hydrosilylierung und Transferhydrierung von Carbonylverbindungen angewendet. Ebenso wurden erste Untersuchungen der Reaktionsmechanismenverläufe durchgeführt. Mit Hilfe der gut zugänglichen bifunktionellen Bispyrazolylpyridinliganden konnten zahlreiche mono- und multimetallische Übergangsmetallkomplexverbindungen synthetisiert und teilweise auf Kooperativität in der katalytischen Reduzierung von Ketonen getestet werden. Dabei wurde bei den durchgeführten Hydrierungs- und Transferhydrierungsreaktionen eine deutliche Aktivitätssteigerung einiger multimetallischer Katalysatoren im Vergleich zu deren monometallischen Derivaten beobachtet. Durch geschickte Wahl der Übergangsmetallkombinationen konnten zusätzlich erste Erkenntnisse über die Kooperativität innerhalb der multimetallischen Katalysatoren gewonnen werden.
The usage of sensors in modern technical systems and consumer products is in a rapid increase. This advancement can be characterized by two major factors, namely, the mass introduction of consumer oriented sensing devices to the market and the sheer amount of sensor data being generated. These characteristics raise subsequent challenges regarding both the consumer sensing devices' reliability and the management and utilization of the generated sensor data. This thesis addresses these challenges through two main contributions. It presents a novel framework that leverages sentiment analysis techniques in order to assess the quality of consumer sensing devices. It also couples semantic technologies with big data technologies to present a new optimized approach for realization and management of semantic sensor data, hence providing a robust means of integration, analysis, and reuse of the generated data. The thesis also presents several applications that show the potential of the contributions in real-life scenarios.
Due to the broad range, growing feature set and fast release pace of new sensor-based products, evaluating these products is very challenging as standard product testing is not practical. As an alternative, an end-to-end aspect-based sentiment summarizer pipeline for evaluation of consumer sensing devices is presented. The pipeline uses product reviews to extract the sentiment at the aspect level and includes several components namely, product name extractor, aspects extractor and a lexicon-based sentiment extractor which handles multiple sentiment analysis challenges such as sentiment shifters, negations, and comparative sentences among others. The proposed summarizer's components generally outperform the state-of-the-art approaches. As a use case, features of the market leading fitness trackers are evaluated and a dynamic visual summarizer is presented to display the evaluation results and to provide personalized product recommendations for potential customers.
The increased usage of sensing devices in the consumer market is accompanied with increased deployment of sensors in various other fields such as industry, agriculture, and energy production systems. This necessitates using efficient and scalable methods for storing and processing of sensor data. Coupling big data technologies with semantic techniques not only helps to achieve the desired storage and processing goals, but also facilitates data integration, data analysis, and the utilization of data in unforeseen future applications through preserving the data generation context. This thesis proposes an efficient and scalable solution for semantification, storage and processing of raw sensor data through ontological modelling of sensor data and a novel encoding scheme that harnesses the split between the statements of the conceptual model of an ontology (TBox) and the individual facts (ABox) along with in-memory processing capabilities of modern big data systems. A sample use case is further introduced where a smartphone is deployed in a transportation bus to collect various sensor data which is then utilized in detecting street anomalies.
In addition to the aforementioned contributions, and to highlight the potential use cases of sensor data publicly available, a recommender system is developed using running route data, used for proximity-based retrieval, to provide personalized suggestions for new routes considering the runner's performance, visual and nature of route preferences.
This thesis aims at enhancing the integration of sensing devices in daily life applications through facilitating the public acquisition of consumer sensing devices. It also aims at achieving better integration and processing of sensor data in order to enable new potential usage scenarios of the raw generated data.
Alkyl methoxypyrazines (MPs) have been identified in foodstuffs of plant origin as potent flavor compounds, contributing significantly to the characteristic vegetative, so-called green sensory impression of products made thereof. Of particular interest are 2-isopropyl-3-methoxypyrazin (IPMP), 2-methoxy-3-sec-butylpyrazin (SBMP) and 2-isobutyl-3-methoxypyrazin (IBMP) as they are often dominating in flavor due to their low odor thresholds. Biogenesis of MPs takes place in various species, resulting in variing concentration levels and distributions (ppt levels in Vitis vinifera wine berries, ppb levels in vegetables). The before mentioned and further MPs are also found in body fluids of insects such as ladybugs, e. g. in the species Coccinella septempunctata and Harmonia axyridis. Ladybugs may play a role in the generation of off-flavors in wine in case of their incorporation during harvest and wine making. Furthermore, MPs are products from the metabolism of certain microorganisms and could lead to off-flavors indirectly via contact materials like cork stoppers for wine.
The last step in the proposed biosynthetic pathway(s) was clarified als O-methylation of alykl hydroxypyrazines, whereas the initial steps considering naturally occurring amino acids as starting materials are not yet fully explored. In case of SBMP, the alkyl side chain may thus derive from L-isoleucine, resulting in the same, namely (S)-configuration of the stereo center in SBMP.
Considering analytical approaches, MPs in high concentration levels as in vegetables are accessible using classical extraction techniques, simple separation and detection techniques. On the other hand, for lower concentration ranges near the odor thresholds of MPs in wine and for the highly complex matrix of wine most analytical methods do not yield the necessary levels of detections.
In this work a trace-level method for routine analysis and quantitation of MPs in the concentration range of the odor thresholds in white wine of 1 to 2 ng/L was developed. The extraction of the analytes was based on automated headspace solid phase micro extraction (HS-SPME). The separation was done either by heart-cut multidimensional GC (H/C MDGC) or comprehensive two-dimensional GC (GCxGC). MPs were detected using mass spectrometry (MS) in the selected ion monitoring (SIM) mode, especially for higher concentrations. To better clarify co-elution situations and for lower MP concentrations, tandem MS (MS/MS) was used in the selected reaction monitoring (SRM) mode. For a more reliable quatitation of trace levels, the stable isotope dilution assay (SIDA) was applied. The optimized method using HS-SPME H/C MDGC-MS/MS had levels of detection at concentrations below the odor thresholds of MPs in wine and allowed for the analysis of further MPs (isomers of dimethyl methoxypyrazine). As the core piece of enantiodifferentiation, one of the analytical columns in MDGC or GCxGC was replaced by a column with chiral selectors on the stationary phase, enabling the evaluation of the enantiomeric composition of SBMP in various samples.
The quantitation of MPs in vegetable samples in this work revealed levels in the range of a few ng/kg up to µg/kg, which is in accordance with results from literature. Quantitative studies of wine (Sauvignon blanc and Cabernet blanc) indicated influences of oenological and viticultural processes on MP levels. The evaluation of the enantiomeric composition of SBMP resulted in the exclusive detection of (S)-SBMP in all analyzed samples, various vegetables, wine and ladybug species. The congruency of the configuration of the stereo center in the side chain of (S)-SBMP and the side chain of L-Isoleucin supports the hypothesis that natural amino acids serve as starting material in the biosynthesis of MPs. Extending the optimized H/C MDGC method, a successful separation of the isomers 3-methoxy-2,5-dimethylpyrazin (DMMP) and 2-methoxy-3,5-dimethylpyrazin (MDMP) was achieved. Of these isomers only MDMP was detected in cork and wine with an atypical cork off-flavor and it was identified for the first time in two ladybug species, Harmonia axyridis and Coccinella septempunctata.
The methods developed in this work allowed for the quantitation of MPs in the range of a few ng/L. This can be used for further studies on influences on endogenic MP levels in Vitis vinifera or on influences on MP levels in wine by oenological processes or by contamination from different sources. For further clarification on the biogenesis of MPs, studies using labeled precursors or intermediates have to be developed. For the analysis of the resulting compounds from these fundamental studies, the quantitative (and enantioselective) analytical methods described here are essential.
Planar force or pressure is a fundamental physical aspect during any people-vs-people and people-vs-environment activities and interactions. It is as significant as the more established linear and angular acceleration (usually acquired by inertial measurement units). There have been several studies involving planar pressure in the discipline of activity recognition, as reviewed in the first chapter. These studies have shown that planar pressure is a promising sensing modality for activity recognition. However, they still take a niche part in the entire discipline, using ad hoc systems and data analysis methods. Mostly these studies were not followed by further elaborative works. The situation calls for a general framework that can help push planar pressure sensing into the mainstream.
This dissertation systematically investigates using planar pressure distribution sensing technology for ubiquitous and wearable activity recognition purposes. We propose a generic Textile Pressure Mapping (TPM) Framework, which encapsulates (1) design knowledge and guidelines, (2) a multi-layered tool including hardware, software and algorithms, and (3) an ensemble of empirical study examples. Through validation with various empirical studies, the unified TPM framework covers the full scope of application recognition, including the ambient, object, and wearable subspaces.
The hardware part constructs a general architecture and implementations in the large-scale and mobile directions separately. The software toolkit consists of four heterogeneous tiers: driver, data processing, machine learning, visualization/feedback. The algorithm chapter describes generic data processing techniques and a unified TPM feature set. The TPM framework offers a universal solution for other researchers and developers to evaluate TPM sensing modality in their application scenarios.
The significant findings from the empirical studies have shown that TPM is a versatile sensing modality. Specifically, in the ambient subspace, a sports mat or carpet with TPM sensors embedded underneath can distinguish different sports activities or different people's gait based on the dynamic change of body-print; a pressure sensitive tablecloth can detect various dining actions by the force propagated from the cutlery through the plates to the tabletop. In the object subspace, swirl office chairs with TPM sensors under the cover can be used to detect the seater's real-time posture; TPM can be used to detect emotion-related touch interactions for smart objects, toys or robots. In the wearable subspace, TPM sensors can be used to perform pressure-based mechanomyography to detect muscle and body movement; it can also be tailored to cover the surface of a soccer shoe to distinguish different kicking angles and intensities.
All the empirical evaluations have resulted in accuracies well-above the chance level of the corresponding number of classes, e.g., the `swirl chair' study has classification accuracy of 79.5% out of 10 posture classes and in the `soccer shoe' study the accuracy is 98.8% among 17 combinations of angle and intensity.
Die Teilnahme an Weiterbildung wird immer beliebter und seit geraumer Zeit auch auf einem kontinuierlich hohen Niveau nachgefragt. Zunehmend agieren auch immer mehr Hochschulen als Anbieter auf dem Weiterbildungsmarkt, deren Relevanz durch die Bologna-Reform und der bildungspolitischen Betonung der Strategie einer Recurrent Education untermauert wurde. Die Lernenden, die als lebenslang Lernende auch im Erwachsenenalter in ihre Zukunft investieren, gelten als weiterbildungsaffine Teilnehmende, die über eine Vielzahl an gesammelten biographischen Lern- und Berufserfahrungen verfügen und häufig berufs- und lebensbegleitend wissenschaftliche Weiterbildung partizipieren. Über eine Kosten-Nutzen-Kalkulation von Weiterbildungsteilnahmen hinaus, stehen seit der Bologna-Reform neben den Lernergebnissen gleichsam die durch die Teilnahmen erzielten Weiterbildungswirkungen als Outcome im Fokus. Der bildungspolitische Blick auf diesen wissensbasierten Outcome bedeutet auch, stärker die individuelle Kompetenzbilanz der Teilnehmenden bei der Betrachtung ihrer Bildungsbemühungen einzubeziehen. Wenn bei der Beurteilung wirksamer Weiterbildungsteilnahmen vor allem die Lernenden und deren Kompetenzentwicklung im Mittelpunkt stehen, stellt sich die Frage, welche nachhaltigen und langfristigen Effekte die Lernenden selbst der Weiterbildung zurechnen und erlebbar auch als Erweiterung der eigenen Handlungsvielfalt wahrnehmen. Die hiesige Interviewstudie, angesiedelt im Feld der Teilnehmerforschung, rekonstruiert typische Handlungsmuster als Aneignungsperformanz von Fernstudierenden im angeleiteten Selbststudium und interpretiert diese im Hinblick auf die wahrgenommene Kompetenzentwicklung durch die Weiterbildung. Damit ist das Ziel verbunden Hinweise für die Gestaltung outcomeorientierter Lehr-Lernarrangements zu erarbeiten.
In this thesis we consider the directional analysis of stationary point processes. We focus on three non-parametric methods based on second order analysis which we have defined as Integral method, Ellipsoid method, and Projection method. We present the methods in a general setting and then focus on their application in the 2D and 3D case of a particular type of anisotropy mechanism called geometric anisotropy. We mainly consider regular point patterns motivated by our application to real 3D data coming from glaciology. Note that directional analysis of 3D data is not so prominent in the literature.
We compare the performance of the methods, which depends on the relative parameters, in a simulation study both in 2D and 3D. Based on the results we give recommendations on how to choose the methods´ parameters in practice.
We apply the directional analysis to the 3D data coming from glaciology, which consist in the locations of air-bubbles in polar ice cores. The aim of this study is to provide information about the deformation rate in the ice and the corresponding thinning of ice layers at different depths. This information is substantial for the glaciologists in order to build ice dating models and consequently to give a correct interpretation of the climate information which can be found by analyzing ice cores. In this thesis we consider data coming from three different ice cores: the Talos Dome core, the EDML core and the Renland core.
Motivated by the ice application, we study how isotropic and stationary noise influences the directional analysis. In fact, due to the relaxation of the ice after drilling, noise bubbles can form within the ice samples. In this context we take two classification algorithms into consideration, which aim to classify points in a superposition of a regular isotropic and stationary point process with Poisson noise.
We introduce two methods to visualize anisotropy, which are particularly useful in 3D and apply them to the ice data. Finally, we consider the problem of testing anisotropy and the limiting behavior of the geometric anisotropy transform.
While the design step should be free from computational related constraints and operations due to its artistic aspect, the modeling phase has to prepare the model for the later stages of the pipeline.
This dissertation is concerned with the design and implementation of a framework for local remeshing and optimization. Based on the experience gathered, a full study about mesh quality criteria is also part of this work.
The contributions can be highlighted as: (1) a local meshing technique based on a completely novel approach constrained to the preservation of the mesh of non interesting areas. With this concept, designers can work on the design details of specific regions of the model without introducing more polygons elsewhere; (2) a tool capable of recovering the shape of a refined area to its decimated version, enabling details on optimized meshes of detailed models; (3) the integration of novel techniques into a single framework for meshing and smoothing which is constrained to surface structure; (4) the development of a mesh quality criteria priority structure, being able to classify and prioritize according to the application of the mesh.
Although efficient meshing techniques have been proposed along the years, most of them lack the possibility to mesh smaller regions of the base mesh, preserving the mesh quality and density of outer areas.
Considering this limitation, this dissertation seeks answers to the following research questions:
1. Given that mesh quality is relative to the application it is intended for, is it possible to design a general mesh evaluation plan?
2. How to prioritize specific mesh criteria over others?
3. Given an optimized mesh and its original design, how to improve the representation of single regions of the first, without degrading the mesh quality elsewhere?
Four main achievements came from the respective answers:
1. The Application Driven Mesh Quality Criteria Structure: Due to high variation in mesh standards because of various computer aided operations performed for different applications, e.g. animation or stress simulation, a structure for better visualization of mesh quality criteria is proposed. The criteria can be used to guide the mesh optimization, making the task consistent and reliable. This dissertation also proposes a methodology to optimize the criteria values, which is adaptable to the needs of a specific application.
2. Curvature Driven Meshing Algorithm: A novel approach, a local meshing technique, which works on a desired area of the mesh while preserving its boundaries as well as the rest of the topology. It causes a slow growth in the overall amount of polygons by making only small regions denser. The method can also be used to recover the details of a reference mesh to its decimated version while refining it. Moreover, it employs a geometric fast and easy to implement approach representing surface features as simple circles, being used to guide the meshing. It also generates quad-dominant meshes, with triangle count directly dependent on the size of the boundary.
3. Curvature-based Method for Anisotropic Mesh Smoothing: A geometric-based method is extended to 3D space to be able to produce anisotropic elements where needed. It is made possible by mapping the original space to another which embeds the surface curvature. This methodology is used to enhance the smoothing algorithm by making the nearly regularized elements follow the surface features, preserving the original design. The mesh optimization method also preserves mesh topology, while resizing elements according to the local mesh resolution, effectively enhancing the design aspects intended.
4. Framework for Local Restructure of Meshed Surfaces: The combination of both methods creates a complete tool for recovering surface details through mesh refinement and curvature aware mesh smoothing.
Basierend auf den Erkenntnissen und Erfahrungen zum Klimawandel ergaben sich in den letzten Jahren weltweit enorme energie- und klimapolitische Veränderungen. Dies führt zu einem immer stärken Wandel der Erzeugungs-, Verbrauchs- und Versorgungsstrukturen unserer Energiesysteme. Der Fokus der Energieerzeugung auf fluktuierenden erneuerbaren Energieträgern erfordert einen weitreichenderen Einsatz von Flexibilitäten als dies bisher der Fall war.
Diese Arbeit diskutiert den Einsatz von Wärmepumpen und Speichersystemen als Flexibilitäten im Kontext des Zellularen Ansatzes der Energieversorgung. Dazu werden die Flexibilitätspotentiale von Wärmepumpen -Speichersystemen auf drei Betrachtungsebenen untersucht und validiert. Erstere berücksichtigt die Wärmepumpe, den thermischen Speicher und thermische Lasten in einer generellen Potentialbetrachtung. Darauf aufbauend folgt die Betrachtung der Wärmepumpen-Speichersysteme im Rahmen einer Haushalts-Zelle als energetische Einheit, gefolgt von Untersuchungen im Niederspannungs-Zellkontext. Zur Abbildung des Flexibilitätsverhaltens werden detaillierte Modelle der Wandler und Speicher sowie deren Steuerungen entwickelt und anhand von Zeitreihensimulationen analysiert und evaluiert.
Die zentrale Frage ob Wärmepumpen mit Speichersystemen einen Beitrag als Flexibilität zum Gelingen der Energiewende leisten können kann mit einem klaren Ja beantwortet werden. Dennoch sind die beim Einsatz von Wärmepumpen-Speichersystemen als Flexibilität zu beachtenden Randbedingungen vielfältig und bedürfen, je nach Anwendungszweck der Flexibilität, einer genauen Betrachtung. Die entscheidenden Faktoren sind dabei die Außentemperatur, der zeitliche Kontext, das Netz und die Wirtschaftlichkeit.
In computer graphics, realistic rendering of virtual scenes is a computationally complex problem. State-of-the-art rendering technology must become more scalable to
meet the performance requirements for demanding real-time applications.
This dissertation is concerned with core algorithms for rendering, focusing on the
ray tracing method in particular, to support and saturate recent massively parallel computer systems, i.e., to distribute the complex computations very efficiently
among a large number of processing elements. More specifically, the three targeted
main contributions are:
1. Collaboration framework for large-scale distributed memory computers
The purpose of the collaboration framework is to enable scalable rendering
in real-time on a distributed memory computer. As an infrastructure layer it
manages the explicit communication within a network of distributed memory
nodes transparently for the rendering application. The research is focused on
designing a communication protocol resilient against delays and negligible in
overhead, relying exclusively on one-sided and asynchronous data transfers.
The hypothesis is that a loosely coupled system like this is able to scale linearly
with the number of nodes, which is tested by directly measuring all possible
communication-induced delays as well as the overall rendering throughput.
2. Ray tracing algorithms designed for vector processing
Vector processors are to be efficiently utilized for improved ray tracing performance. This requires the basic, scalar traversal algorithm to be reformulated
in order to expose a high degree of fine-grained data parallelism. Two approaches are investigated: traversing multiple rays simultaneously, and performing
multiple traversal steps at once. Efficiently establishing coherence in a group
of rays as well as avoiding sorting of the nodes in a multi-traversal step are the
defining research goals.
3. Multi-threaded schedule and memory management for the ray tracing acceleration structure
Construction times of high-quality acceleration structures are to be reduced by
improvements to multi-threaded scalability and utilization of vector processors. Research is directed at eliminating the following scalability bottlenecks:
dynamic memory growth caused by the primitive splits required for high-
quality structures, and top-level hierarchy construction where simple task par-
allelism is not readily available. Additional research addresses how to expose
scatter/gather-free data-parallelism for efficient vector processing.
Together, these contributions form a scalable, high-performance basis for real-time,
ray tracing-based rendering, and a prototype path tracing application implemented
on top of this basis serves as a demonstration.
The key insight driving this dissertation is that the computational power necessary
for realistic light transport for real-time rendering applications demands massively
parallel computers, which in turn require highly scalable algorithms. Therefore this
dissertation provides important research along the path towards virtual reality.
Many loads acting on a vehicle depend on the condition and quality of roads
traveled as well as on the driving style of the motorist. Thus, during vehicle development,
good knowledge on these further operations conditions is advantageous.
For that purpose, usage models for different kinds of vehicles are considered. Based
on these mathematical descriptions, representative routes for multiple user
types can be simulated in a predefined geographical region. The obtained individual
driving schedules consist of coordinates of starting and target points and can
thus be routed on the true road network. Additionally, different factors, like the
topography, can be evaluated along the track.
Available statistics resulting from travel survey are integrated to guarantee reasonable
trip length. Population figures are used to estimate the number of vehicles in
contained administrative units. The creation of thousands of those geo-referenced
trips then allows the determination of realistic measures of the durability loads.
Private as well as commercial use of vehicles is modeled. For the former, commuters
are modeled as the main user group conducting daily drives to work and
additional leisure time a shopping trip during workweek. For the latter, taxis as
example for users of passenger cars are considered. The model of light-duty commercial
vehicles is split into two types of driving patterns, stars and tours, and in
the common traffic classes of long-distance, local and city traffic.
Algorithms to simulate reasonable target points based on geographical and statistical
data are presented in detail. Examples for the evaluation of routes based
on topographical factors and speed profiles comparing the influence of the driving
style are included.
Im Rahmen dieser Arbeit wurden im ersten von vier Teilen fünf Brønsted-saure, mesoporöse Organokieselgele synthetisiert, vier auf Basis eines BTEB-PMOs und eines auf der eines SBA-15s. Diese wiesen hohe spezifische Oberflächen zwischen 581 und 710 m2/g auf und geordnete, 2D-hexagonale Strukturen. Drei dieser Materialien wurden näher auf ihre Eigenschaft als Katalysator untersucht. Während sie in Kondensationsreaktionen geringe bis moderate Aktivität zeigten, erbrachte das SO3H-BTEB-PMO in der THP-Schützung von Isoamylalkohol und Phenol bereits nach 10 min mit nur 0.1 mol-% Katalysator einen vollständigen Umsatz. In den entsprechenden Entschützungen war die Aktivität vergleichbar mit der von pTsOH. Der Katalysator konnte mehrmals regeneriert werden, ohne dabei erheblich an Aktivität zu verlieren.
Im zweiten Teil der vorliegenden Arbeit wurde das SO3H-BTEB-PMO dazu genutzt, um vier kationisch funktionalisierte Phenothiazine zu immobilisieren. Die Phenothiazine wurden allesamt in Kooperation im Rahmen des DFG-Projekts TH 550/20-1 von M.Sc. Hilla Khelwati im Arbeitskreis von Prof. Dr. T. J. J. Müller an der HHU Düsseldorf synthetisiert. So konnten neuartige, redoxaktive Hybridmaterialien mit spezifischen Oberflächen zwischen 500 und 688 m2/g, 2D-hexagonaler Struktur und Phenothiazin-Beladungen zwischen 167 und 243 µmol/g erhalten werden. Die Umwandlung in ihre stabilen Radikalkationen gelang durch gezielte Bestrahlung mit Licht, wobei selbst nach zehn Monaten Lagerung im Dunkeln noch radikalische Spezies in nur gering verminderter Intensität detektiert werden konnten. Zwei weitere, kationisch funktionalisierte Phenothiazine wurden nach demselben Prinzip auf BTEB-NP immobilisiert. Dabei besaßen die beiden Organokieselgele spezifische Oberflächen von 335 und 565 m2/g und Phenothiazin-Beladungen von 394 bzw. 137 µmol/g. Die letzten beiden Phenothiazine, diesmal mit Triethoxysilylgruppen versehen, wurden mittels Grafting auf das BTEB-NP-Gerüst aufgebracht, wobei diese chemisch oxidiert werden mussten, um stabile Radikalkationen zu erhalten. Es zeigte sich, dass bei der Bestrahlung mit Licht bei den kationisch funktionalisierten Phenothiazinen die Umgebung innerhalb der Pore für die beobachtete Stabilität der Radikalkationen essentiell ist, welche bei den gegrafteten Phenothiazinen nicht gegeben war. Die Hybridmaterialien mit den gegrafteten Phenothiazinen besaßen Oberflächen von 172 und 920 m2/g und Phenothiazin-Beladungen von 809 bzw. 88.9 µmol/g.
Der dritte Bereich beschäftigte sich mit der Synthese eines epi-Chinin-BTEB-PMOs für die Anwendung in der Katalyse der Mannich-Reaktion von Ketiminen mit dem Nucleophil 2,4-Pentandion. Dabei konnten hohe Umsätze zwischen 73 und 98%, bei Stereoselektivitäten zwischen 69 und 98% ee, erhalten werden. Das mesoporöse Katalysatorsystem besaß eine spezifische Oberfläche von 812 m2/g, eine 2D-hexagonale Struktur und eine Beladung an aktiven Zentren von 151 µmol/g. Der Katalysator konnte mehrmals regeneriert werden, bei leichten Einbußen im Umsatz und gleichbleibender Selektivität.
Im vierten und letzten Abschnitt wurden Möglichkeiten untersucht, Vanadium- und Aluminium-Spezies in das BTEB-PMO-Grundgerüst zu inkorporieren, um somit Katalysatoren für die Epoxidierung von Olefinen zu erhalten. Dabei konnte eine große Anzahl an Materialien erhalten werden, die jedoch keine geordnete Struktur aufwiesen und sich lediglich in der Epoxidierung von (Z)-Cycloocten sehr aktiv zeigten.
Under the notion of Cyber-Physical Systems an increasingly important research area has
evolved with the aim of improving the connectivity and interoperability of previously
separate system functions. Today, the advanced networking and processing capabilities
of embedded systems make it possible to establish strongly distributed, heterogeneous
systems of systems. In such configurations, the system boundary does not necessarily
end with the hardware, but can also take into account the wider context such as people
and environmental factors. In addition to being open and adaptive to other networked
systems at integration time, such systems need to be able to adapt themselves in accordance
with dynamic changes in their application environments. Considering that many
of the potential application domains are inherently safety-critical, it has to be ensured
that the necessary modifications in the individual system behavior are safe. However,
currently available state-of-the-practice and state-of-the-art approaches for safety assurance
and certification are not applicable to this context.
To provide a feasible solution approach, this thesis introduces a framework that allows
“just-in-time” safety certification for the dynamic adaptation behavior of networked
systems. Dynamic safety contracts (DSCs) are presented as the core solution concept
for monitoring and synthesis of decentralized safety knowledge. Ultimately, this opens
up a path towards standardized service provision concepts as a set of safety-related runtime
evidences. DSCs enable the modular specification of relevant safety features in
networked applications as a series of formalized demand-guarantee dependencies. The
specified safety features can be hierarchically integrated and linked to an interpretation
level for accessing the scope of possible safe behavioral adaptations. In this way, the networked
adaptation behavior can be conditionally certified with respect to the fulfilled
DSC safety features during operation. As long as the continuous evaluation process
provides safe adaptation behavior for a networked application context, safety can be
guaranteed for a networked system mode at runtime. Significant safety-related changes
in the application context, however, can lead to situations in which no safe adaptation
behavior is available for the current system state. In such cases, the remaining DSC
guarantees can be utilized to determine optimal degradation concepts for the dynamic
applications.
For the operationalization of the DSCs approach, suitable specification elements and
mechanisms have been defined. Based on a dedicated GUI-engineering framework it is
shown how DSCs can be systematically developed and transformed into appropriate runtime
representations. Furthermore, a safety engineering backbone is outlined to support
the DSC modeling process in concrete application scenarios. The conducted validation
activities show the feasibility and adequacy of the proposed DSCs approach. In parallel,
limitations and areas of future improvement are pointed out.
Die vorliegende Arbeit lässt sich in drei Themengebiete unterteilen. Jedes davon kann durch ein Übergangsmetall der sechsten Nebengruppe repräsentiert werden. Ein Vertreter der sperrigen Alkylcyclopentadienyl-Liganden wurde stets als Hilfsligand verwendet. Mehr als 40 Komplexe des Chroms, Molybdäns und Wolframs mit sperrigen Cyclopentadienyl-Liganden konnten im Rahmen dieser Arbeit hergestellt und untersucht werden. Die meisten Strukturmotive konnten dabei röntgenkristallographisch aufgeklärt werden.
Mit dem synthetisch und sterisch besonders aufwändigen Pentaisopropyl-cyclopentadienyl-Liganden konnten allein sieben Chromkomplexe hergestellt und charakterisiert werden. Eine sehr hohe Reaktivität der Ausgangsverbindungen der Form [RCpCr(µ-Br)]2 mit RCp = Cp’’’ und 5Cp gegenüber Nucleophilen zeigte sich in Umsetzungen mit Natrium-cyclopentadieniden, Natrium-bis(trimethylsilyl)amid, einem N-heterocylischen Carben, unterschiedlichen Natrium-phenolaten, Natrium-phenylacetylid, unterschiedlichen Grignard-Reagenzien, Lithiumaluminiumhydrid, Natriumazid und Kaliumcyanid. Gemischt substituierte Pentaalkyl-Chromocene [Cp’’’CrCp’’] und [5CpCrCp] mit unterschiedlich substituierten Hilfsliganden konnten erfolgreich synthetisiert werden. Mit sperrigen Nucleophilen oder mit einem sperrigen N-heterocyclischen Carbenliganden wurden die Einkernkomplexe [RCpCrYL] mit der Kombination aus einem anionischen Liganden Y und einem neutralen Donorliganden L (Y/L = Br/NHC, CH3/NHC, N(SiMe3)2/THF und O(tBu)2C6H3/THF) gebildet. Die Umsetzungen der Chrom(II)-Ausgangsverbindungen mit Phenolato-Liganden lieferten Produkte mit unterschiedlichen Strukturmotiven je nach Sperrigkeit der Substituenten am aromatischen Sechsring des eingesetzten Liganden. Dabei konnte neben dem Einkernkomplex [Cp’’’Cr(O(tBu)2C6H3)(THF)] eine Zweikernverbindung [Cp’’’Cr(µ-OPh)]2 isoliert und kristallographisch aufgeklärt werden. Die µ,η1:η2-Koordination der Phenylacetylido-Brücken des Zweikernkomplexes [Cp’’’Cr(µ,η1:η2-C≡CPh)]2 konnte mittels Röntgenstrukturanalyse belegt werden. Die Umsetzungen der Bromido-verbrückten Ausgangsverbindungen mit Me- oder Ph-MgX erfolgten unter Bildung entsprechender Zweikernkomplexe mit Alkyl- oder Aryl-Brückenliganden. Beim Einsatz von Et- oder iPr-MgX gelang durch eine β-H-Eliminierung ein Zugang zu einer Hydrido-Spezies des Chroms mit der Form [RCpCr(µ-H)]2 mit RCp = Cp’’’ und 5Cp. Die Vierkernkomplexe [Cp’’’Cr(µ-X)]4 entstanden mit dem linear verbrückenden Cyanid oder mit Tetrahydridoaluminat als Nucleophil. [(Cp’’’Cr)3(µ3-N)4(CrBr)] wurde durch eine Umsetzung mit Azid unter Abspaltung von Distickstoff erhalten.
Ein Vertreter der Molybdän-Komplexe mit Acetato-Brücken [Cp’’Mo(µ-OAc)]2 konnte erhalten und anschließend mit Trimethylbromsilan weiter umgesetzt werden. Eine Oxidation der Metallzentren zu Molybdän(III) anstelle eines Austausches der verbrückenden Acetato-Liganden wurde dabei beobachtet.
Wolfram-Komplexe der Form [RCpW(CO)3CH3] mit RCp = Cp’’, Cr’’’, 23Cp und 4Cp wurden zunächst ausgehend von W(CO)6 synthetisiert und anschließend mit PCl5 und PBr5 halogeniert. Die isolierten Komplexe [RCpWCl4] und [RCpWBr4] mit RCp = Cp’’, Cr’’’, 23Cp und 4Cp konnten in guten Ausbeuten erhalten werden. Anschließende Reduktionen mit Mangan lieferten Zweikernkomplexe des Wolframs mit verbrückenden Halogenido-Liganden [RCpW(µ-Cl)2]2 und [RCpW(µ-Br)2]2 mit RCp = Cp’’, Cr’’’ und 4Cp. Neben [Cp’’W(CO)2(µ-I)]2 konnte durch Reduktion von [Cp’’W(CO)2I3] auch ein Vertreter der „semibridging“-Komplexe, [Cp’’W(CO)2]2, erhalten werden.
Die Entwicklung des ersten 3D-druckbaren Smartphonephotometers zur Erfassung kinetischer und statischer Messdaten enzymatischer und chemischer Reaktionen am Smartphone ohne den Einsatz zusätzlicher elektronischer Komponenten oder aufwändiger optischer Komponenten wird vorgestellt. Die Entwicklung erfolgt sowohl im Bereich der Umweltanalytik zum Nachweis von Schwermetallbelastungen in Gewässerproben im Rahmen von Citizen Sciences Anwendungen als auch als point of need Analysesystem zum industriellen Einsatz in Winzereibetrieben unter jeweils angepassten Zielsetzungen und Beispielsystemen. Für die verschiedenen Anwendungsbereiche werden unterschiedliche Systeme mit angepassten Zielsetzungen entwickelt. Ein küvettenbasiertes System wird in Hinblick auf die Anforderungen des Citizen Sciences Bereichs entwickelt. Ein kapillarbasiertes Smartphonephotometer und –nephelometer wird entwickelt um den Anforderungen in Winzereibetrieben optimal zu entsprechen.
Verwendung finden im Bereich der Umweltanalytik enzymatische Assay, die in herkömmlichen Küvetten durchgeführt werden. Die Assays beruhen auf der Erfassung inhibitorischer Effekte auf die Aktivität von Enzymen und Enzymkaskaden durch Schwermetallbelastungen in Gewässerproben. Im Anwendungsfeld der Weinanalytik werden chemisch Parameter am Smartphonephotometer bestimmt. Die photometrische Analyse wird in vorkonfektionierbaren Assaykapillaren durchgeführt. Dies ermöglicht die Realisierung minimaler Anforderungen an die durchführenden Personen bei maximaler Reproduzierbarkeit der Untersuchungsergebnisse.
Die Smartphonephotometer sind unter Verwendung der smartphoneeigenen Blitzlicht-LED als Lichtquelle in der Lage Änderungen der Extinktion in den Wellenlängenbereichen von 410-545 nm, 425-650 und 555-675 nm zu quantifizieren. Die Einschränkung der spezifischen Wellenlänge wird durch die inhomogenen Emissionsspektren der LED der Blitzlicht-LED des Smartphones verursacht. Nephelometrische Trübungsmessungen können bis zu einer Trübung von 250 FNU quantitativ durchgeführt werden.
Topological insulators (TI) are a fascinating new state of matter. Like usual insulators, their band structure possesses a band gap, such that they cannot conduct current in their bulk. However, they are able to conduct current along their edges and surfaces, due to edge states that cross the band gap. What makes TIs so interesting and potentially useful are these robust unidirectional edge currents. They are immune to significant defects and disorder, which means that they provide scattering-free transport.
In photonics, using topological protection has a huge potential for applications, e.g. for robust optical data transfer [1-3] – even on the quantum level [4, 5] – or to make devices more stable and robust [6, 7]. Therefore, the field of topological insulators has spread to optics to create the new and active research field of topological photonics [8-10].
Well-defined and controllable model systems can help to provide deeper insight into the mechanisms of topologically protected transport. These model systems provide a vast control over parameters. For example, arbitrary lattice types without defects can be examined, and single lattice sites can be manipulated. Furthermore, they allow for the observation of effects that usually happen at extremely short time-scales in solids. Model systems based on photonic waveguides are ideal candidates for this.
They consist of optical waveguides arranged on a lattice. Due to evanescent coupling, light that is inserted into one waveguide spreads along the lattice. This coupling of light between waveguides can be seen as an analogue to electrons hopping/tunneling between atomic lattice sites in a solid.
The theoretical basis for this analogy is given by the mathematical equivalence between Schrödinger and paraxial Helmholtz equation. This means that in these waveguide systems, the role of time is assigned to a spatial axis. The field evolution along the waveguides' propagation axis z thus models the temporal evolution of an electron's wave-function in solid states. Electric and magnetic fields acting on electrons in solids need to be incorporated into the photonic platform by introducing artificial fields. These artificial gauge fields need to act on photons in the same way that their electro-magnetic counterparts act on electrons. E.g., to create a photonic analogue of a topological insulator the waveguides are bent helically along their propagation axis to model the effect of a magnetic field [3]. This means that the fabrication of these waveguide arrays needs to be done in 3D.
In this thesis, a new method to 3D micro-print waveguides is introduced. The inverse structure is fabricated via direct laser writing, and subsequently infiltrated with a material with higher refractive index contrast. We will use these model systems of evanescently coupled waveguides to look at different effects in topological systems, in particular at Floquet topological systems.
We will start with a topologically trivial system, consisting of two waveguide arrays with different artificial gauge fields. There, we observe that an interface between these trivial gauge fields has a profound impact on the wave vector of the light traveling across it. We deduce an analog to Snell's law and verify it experimentally.
Then we will move on to Floquet topological systems, consisting of helical waveguides. At the interface between two Floquet topological insulators with opposite helicity of the waveguides, we find additional trivial interface modes that trap the light. This allows to investigate the interaction between trivial and topological modes in the lattice.
Furthermore, we address the question if topological edge states are robust under the influence of time-dependent defects. In a one-dimensional topological model (the Su-Schrieffer-Heeger model [11]) we apply periodic temporal modulations to an edge wave-guide. We find Floquet copies of the edge state, that couple to the bulk in a certain frequency window and thus depopulate the edge state.
In the two-dimensional Floquet topological insulator, we introduce single defects at the edge. When these defects share the temporal periodicity of the helical bulk waveguides, they have no influence on a topological edge mode. Then, the light moves around/through the defect without being scattered into the bulk. Defects with different periodicity, however, can – likewise to the defects in the SSH model – induce scattering of the edge state into the bulk.
In the end we will briefly highlight a newly emerging method for the fabrication of waveguides with low refractive index contrast. Moreover, we will introduce new ways to create artificial gauge fields by the use of orbital angular momentum states in waveguides.
Entwicklung thermoplastischer Faserkunststoffverbunde aus carbonfaserverstärkten PPS/PES-Blends
(2019)
Der Anteil von Faserkunststoffverbunden (FKV) in heutigen Verkehrsflugzeugen nimmt
rund 50% der Gesamtmasse ein. Thermoplastische Verbundwerkstoffe werden dabei
vorzugsweise wegen ihrer fertigungstechnischen Vorteile (Umformbarkeit, Schweißbarkeit)
und ihrer hohen Zähigkeit ausgewählt. Ihr Anteil an den Verbundbauteilen ist
jedoch noch relativ gering, vor allem wegen vergleichsweise hohen Materialkosten
insbesondere für kohlenstofffaserverstärktem Polyetheretherketone (PEEK).
Die vorliegende Arbeit fokussiert die Herstellung thermoplastischer Blends aus Polyphenylensulfid
(PPS) und Polyethersulfon (PES) sowie deren Weiterverarbeitung zu
Hochleistungs-FKV im Autoklavprozess. Es konnte gezeigt werden, dass mechanische
und thermomechanische Eigenschaften beider Polymere in die Faserverbundstrukturen
lokal und global überführbar sind. Der Transfer in FKV-Strukturen ist abhängig von der
lokalen Anordnung der im PPS verteilten PES-Phase. Die Abschätzung der Faserbenetzung
durch die Polymerphasen sowie die Fraktographie verdeutlichten, dass der
Eigenschaftstransfer in den Verbund über Grenzflächeninteraktionen gesteuert werden
kann. Weiterhin führten die Interaktionen der Polymer-Phasen zu einer Strukturviskosität
der Blends, welche sich in einem deutlich elastischerem Fließverhalten des
Matrixgemisches äußerte. Mittels der oberflächenenergetischen Analysen an Fasern
und Polymerschmelzen wurden die konkurrierende Affinitäten der Phasen ermittelt
und modellhaft diskutiert. Es zeigte sich, dass die abgeschätzten Kapillarkräfte der
Polymere signifikant genug sein können, um die Imprägnierung zu beeinflussen. Der
Einsatz eines Verträglichkeitsvermittlers kann dabei die Gemisch-Stabilität fördern sowie
Gegenkräfte zur Imprägnierung in Gang setzen. Gleichzeitig wurde die Phasenkompatibilität
als notwendig für den Eigenschaftstransfer deklariert. Die wichtigen Interaktionen
zwischen Polymeren und Fasern müssen in solchen Systemen durch die Anpassung
von Benetzungs- und Phasenformierungsmechanismen gesteuert werden, um schnelle
Verarbeitungsprozesse und damit qualitativ hochwertige Faserverbundstrukturen zu
ermöglichen.
Most modern multiprocessors offer weak memory behavior to improve their performance in terms of throughput. They allow the order of memory operations to be observed differently by each processor. This is opposite to the concept of sequential consistency (SC) which enforces a unique sequential view on all operations for all processors. Because most software has been and still is developed with SC in mind, we face a gap between the expected behavior and the actual behavior on modern architectures. The issues described only affect multithreaded software and therefore most programmers might never face them. However, multi-threaded bare metal software like operating systems, embedded software, and real-time software have to consider memory consistency and ensure that the order of memory operations does not yield unexpected results. This software is more critical as general consumer software in terms of consequences, and therefore new methods are needed to ensure their correct behavior.
In general, a memory system is considered weak if it allows behavior that is not possible in a sequential system. For example, in the SPARC processor with total store ordering (TSO) consistency, all writes might be delayed by store buffers before they eventually are processed by the main memory. This allows the issuing process to work with its own written values before other processes observed them (i.e., reading its own value before it leaves the store buffer). Because this behavior is not possible with sequential consistency, TSO is considered to be weaker than SC. Programming in the context of weak memory architectures requires a proper comprehension of how the model deviates from expected sequential behavior. For verification of these programs formal representations are required that cover the weak behavior in order to utilize formal verification tools.
This thesis explores different verification approaches and respectively fitting representations of a multitude of memory models. In a joint effort, we started with the concept of testing memory operation traces in regard of their consistency with different memory consistency models. A memory operation trace is directly derived from a program trace and consists of a sequence of read and write operations for each process. Analyzing the testing problem, we are able to prove that the problem is NP-complete for most memory models. In that process, a satisfiability (SAT) encoding for given problem instances was developed, that can be used in reachability and robustness analysis.
In order to cover all program executions instead of just a single program trace, additional representations are introduced and explored throughout this thesis. One of the representations introduced is a novel approach to specify a weak memory system using temporal logics. A set of linear temporal logic (LTL) formulas is developed that describes all properties required to restrict possible traces to those consistent to the given memory model. The resulting LTL specifications can directly be used in model checking, e.g., to check safety conditions. Unfortunately, the derived LTL specifications suffer from the state explosion problem: Even small examples, like the Peterson mutual exclusion algorithm, tend to generate huge formulas and require vast amounts of memory for verification. For this reason, it is concluded that using the proposed verification approach these specifications are not well suited for verification of real world software. Nonetheless, they provide comprehensive and formally correct descriptions that might be used elsewhere, e.g., programming or teaching.
Another approach to represent these models are operational semantics. In this thesis, operational semantics of weak memory models are provided in the form of reference machines that are both correct and complete regarding the memory model specification. Operational semantics allow to simulate systems with weak memory models step by step. This provides an elegant way to study the effects that lead to weak consistent behavior, while still providing a basis for formal verification. The operational models are then incorporated in verification tools for multithreaded software. These state space exploration tools proved suitable for verification of multithreaded software in a weak consistent memory environment. However, because not only the memory system but also the processor are expressed as operational semantics, some verification approach will not be feasible due to the large size of the state space.
Finally, to tackle the beforementioned issue, a state transition system for parallel programs is proposed. The transition system is defined by a set of structural operational semantics (SOS) rules and a suitable memory structure that can cover multiple memory models. This allows to influence the state space by use of smart representations and approximation approaches in future work.
Linking protistan community shifts along salinity gradients with cellular haloadaptation strategies
(2019)
Salinity is one of the most structuring environmental factors for microeukaryotic communities. Using eDNA barcoding, I detected significant shifts in microeukaryotic community compositions occurring at distinct salinities between brackish and marine conditions in the Baltic Sea. I, furthermore, conducted a metadata analysis including my and other marine and hypersaline community sequence data to confirm the existence of salinity-related transition boundaries and significant changes in alpha diversity patterns along a brackish to hypersaline gradient. One hypothesis for the formation of salinity-dependent transition boundaries between brackish to hypersaline conditions is the use of different cellular haloadaptation strategies. To test this hypothesis, I conducted metatranscriptome analyses of microeukaryotic communities along a pronounced salinity gradient (40 – 380 ‰). Clustering of functional transcripts revealed differences in metabolic properties and metabolic capacities between microeukaryotic communities at specific salinities, corresponding to the transition boundaries already observed in the taxonomic eDNA barcoding approach. In specific, microeukaryotic communities thriving at mid-hypersaline conditions (≤ 150 ‰) seem to predominantly apply the ‘low-salt – organic-solutes-in’ strategy by accumulating compatible solutes to counteract osmotic stress. Indications were found for both the intracellular synthesis of compatible solutes as well as for cellular transport systems. In contrast, communities of extreme-hypersaline habitats (≥ 200 ‰) may preferentially use the ‘high-salt-in’ strategy, i. e. the intracellular accumulation of inorganic ions in high concentrations, which is implied by the increased expression of Mg2+, K+, Cl- transporters and channels.
In order to characterize the ‘low-salt – organic-solutes-in’ strategy applied by protists in more detail, I conducted a time-resolved transcriptome analysis of the heterotrophic ciliate Schmidingerothrix salinarum serving as model organism. S. salinarum was thus subjected to a salt-up shock to investigate the intracellular response to osmotic stress by shifts of gene expression. After increasing the external salinity, an increased expression of two-component signal transduction systems and MAPK cascades was observed. In an early reaction, the expression of transport mechanisms for K+, Cl- and Ca2+ increased, which may enhance the capacity of K+, Cl- and Ca2+ in the cytoplasm to compensate possibly harmful Na+ influx. Expression of enzymes for the synthesis of possible compatible solutes, starting with glycine betaine, followed by ectoine and later proline, could imply that the inorganic ions K+, Cl- and Ca2+ are gradually replaced by the synthesized compatible solutes. Additionally, expressed transporters for choline (precursor of glycine betaine) and proline could indicate an intracellular accumulation of compatible solutes to balance the external salinity. During this accumulation, the up-regulated ion export mechanisms may increase the capacity for Na+ expulsion from the cytoplasm and ion compartmentalization between cell organelles seem to happen.
The results of my PhD project revealed first evidence at molecular level for the salinity-dependent use of different haloadaptation strategies in microeukaryotes and significantly extend existing knowledge about haloadaptation processes in ciliates. The results provide ground for future research, such as (comparative) transcriptome analysis of ciliates thriving in extreme-hypersaline habitats or experiments like qRT-PCR to validate transcriptome results.
Der zunehmende Ausbau dezentraler Erzeugungsanlagen sowie die steigende Anzahl an Elektrofahrzeugen stellen die Niederspannungsnetze vor neue Herausforderungen. Neben der Einhaltung des zulässigen Spannungsbands führen Erzeugungsanlagen und neue Lasten zu einer zunehmenden thermischen Auslastung der Leitungen. Einfache, konventionelle Maßnahmen wie Topologieänderungen zu vermascht betriebenen Niederspannungsnetzen sind ein erster hilfreicher und kostengünstiger Ansatz, bieten aber keinen grundsätzlichen Schutz vor einer thermischen Überlastung der Betriebsmittel. Diese Arbeit befasst sich mit der Konzeption eines Spannungs- und Wirkleistungsreglers für vermaschte Niederspannungsnetze. Durch den Regler erfolgt eine messtechnische Erfassung der Spannungen und Ströme in einzelnen Messpunkten des Niederspannungsnetzes. Mit Hilfe eines speziellen Kennlinienverfahrens kann eine Leistungsverschiebung in einzelnen Netzmaschen hervorgerufen und vorgegebene Soll- oder Grenzwerte eingehalten werden. In vorliegender Arbeit werden die analytischen Grundlagen des Reglers, seine Hardware sowie das Kennlinienverfahren zusammen mit den realisierbaren Regelkonzepten vorgestellt. Die Ergebnisse aus Simulationsstudien, Labor- und Feldtests stellen die Effektivität des Reglers eindeutig dar und werden diskutiert.
Anwenderunterstützung bei der Nutzung und Überprüfung von optischen 3D-Oberflächenmessgeräten
(2019)
Technische Oberflächen werden mit immer komplexeren, dreidimensionalen Strukturen hergestellt, um gewünschte Funktionseigenschaften zu erhalten. Mit taktilen Rauheitsmessgeräten lassen sich diese allerdings nur schwer charakterisieren. Besser eignen sich hierfür optische Rauheitsmessgeräte, die die Oberfläche flächenhaft erfassen können. Diese unterscheiden sich allerdings in ihren Eigenschaften und Einstellungen von den in der Industrie bekannten und bewährten taktilen Systemen. Daher wird in dieser Arbeit ein Assistenzsystem vorgestellt, das die Anwender unterstützt, ihr optisches Rauheitsmessgerät sicher und normgerecht nach DIN EN ISO 25178 einzusetzen.Das Assistenzsystem führt Schritt für Schritt durch die Planung einer Messaufgabe, durch die Überprüfung zur Kontrolle der korrekten Funktion des Gerätes und der Eignung für die Messaufgabe, und im letzten Schritt durch die normgerechte Auswertung der Messung, um die gewünschten 3D-Oberflächenkennwerte zu erhalten.
Die Funktion der c-di-GMP modulierenden Membranproteine NbdA und MucR in Pseudomonas aeruginosa
(2019)
NbdA und MucR sind Multi-Domänenproteine aus Pseudomonas aeruginosa. Beide Proteine besitzen eine ähnliche Domänenorganisation mit einer N-terminalen, membranständigen
MHYT-Domäne sowie einer GGDEF- und einer EAL-Domäne im Cytoplasma. Die
cytosolischen Domänen von MucR sind beide aktiv, während NbdA neben der intakten
EAL-Domäne eine degenerierte GGDEF-Domäne mit dem Motiv AGDEF aufweist. Bioinformatischen
Vorhersagen zufolge soll die MHYT-Domäne eine sensorische Funktion für diatomische Gase wie Stickstoffmonoxid oder Sauerstoff vermitteln. Die phänotypische Charakterisierung der markerlosen PAO1-Deletionsmutanten \(Delta\)nbdA, \(Delta\)mucR und \(Delta\)nbdA \(Delta\)mucR zeigte, dass NbdA und MucR nicht in die NO-induzierte
Dispersion involviert sind. Ebenso konnte in einem neu etablierten heterologen in-vivo-System in E. coli keine NO-sensorische Funktion der Proteine detektiert werden. Im Weiteren wurde festgestellt, dass die MHYT-Domäne keinen ersichtlichen Einfluss auf die
Enzymaktivität von NbdA und MucR unter aeroben Bedingungen hat. Demzufolge fungiert
die Membrandomäne vermutlich weder als Sensor für Sauerstoff, noch für NO. Anhand heterologer Komplementationstests konnte eine PDE-Aktivität des NbdA-Volllängenproteins
nachgewiesen werden. Zudem wurde gezeigt, dass die degenerierte AGDEF-Domäne einen regulatorischen Effekt auf die EAL-Domäne hat, der essentiell für die in-
vivo-Aktivität von NbdA ist. In-vivo-Untersuchungen bestätigten die postulierte DGC-Aktivität von MucR. Weiterhin konnte belegt werden, dass MucR ein bifunktionelles Enzym
ist. Entgegen den Erwartungen scheint es jedoch im Planktonischen als DGC und im
Biofilm als PDE zu fungieren.
Ein weiterer Aspekt dieser Arbeit war die Charakterisierung der homologen Überexpression
von nbdA in P. aeruginosa, welche teilweise unerwartete Phänotypen ergab. Anhand
der homologen Überproduktion einer inaktiven NbdA-Variante stellte sich heraus, dass die
Hemmung der Motilität unabhängig von der Aktivität von NbdA auftritt. Massenspektrometrische
Analysen deuteten daraufhin, dass NbdA lokal c-di-GMP hydrolysiert. Diese
Ergebnisse implizieren, dass NbdA eine Trigger-PDE ist, deren primäre Funktion die Regulation
anderer makromolekularer Zielmoleküle ist. In Pseudomonas fluorescens Pf0-1 ist bekannt, dass das NbdA-Homolog Pfl01_1252 mit den Homologen von MucR (Pfl01_2525) und SadC (Pfl01_4451) interagiert. Ergebnisse einer früheren Arbeit lassen eine Interaktion
von NbdA und SadC ebenso in P. aeruginosa vermuten. Daher ist denkbar, dass sich
NbdA im gleichen Netzwerk wie MucR und SadC befindet und deren Aktivität reguliert.
The systems in industrial automation management (IAM) are information systems. The management parts of such systems are software components that support the manufacturing processes. The operational parts control highly plug-compatible devices, such as controllers, sensors and motors. Process variability and topology variability are the two main characteristics of software families in this domain. Furthermore, three roles of stakeholders -- requirement engineers, hardware-oriented engineers, and software developers -- participate in different derivation stages and have different variability concerns. In current practice, the development and reuse of such systems is costly and time-consuming, due to the complexity of topology and process variability. To overcome these challenges, the goal of this thesis is to develop an approach to improve the software product derivation process for systems in industrial automation management, where different variability types are concerned in different derivation stages. Current state-of-the-art approaches commonly use general-purpose variability modeling languages to represent variability, which is not sufficient for IAM systems. The process and topology variability requires more user-centered modeling and representation. The insufficiency of variability modeling leads to low efficiency during the staged derivation process involving different stakeholders. Up to now, product line approaches for systematic variability modeling and realization have not been well established for such complex domains. The model-based derivation approach presented in this thesis integrates feature modeling with domain-specific models for expressing processes and topology. The multi-variability modeling framework includes the meta-models of the three variability types and their associations. The realization and implementation of the multi-variability involves the mapping and the tracing of variants to their corresponding software product line assets. Based on the foundation of multi-variability modeling and realization, a derivation infrastructure is developed, which enables a semi-automated software derivation approach. It supports the configuration of different variability types to be integrated into the staged derivation process of the involved stakeholders. The derivation approach is evaluated in an industry-grade case study of a complex software system. The feasibility is demonstrated by applying the approach in the case study. By using the approach, both the size of the reusable core assets and the automation level of derivation are significantly improved. Furthermore, semi-structured interviews with engineers in practice have evaluated the usefulness and ease-of-use of the proposed approach. The results show a positive attitude towards applying the approach in practice, and high potential to generalize it to other related domains.
Shared memory concurrency is the pervasive programming model for multicore architectures
such as x86, Power, and ARM. Depending on the memory organization, each architecture follows
a somewhat different shared memory model. All these models, however, have one common
feature: they allow certain outcomes for concurrent programs that cannot be explained
by interleaving execution. In addition to the complexity due to architectures, compilers like
GCC and LLVM perform various program transformations, which also affect the outcomes of
concurrent programs.
To be able to program these systems correctly and effectively, it is important to define a
formal language-level concurrency model. For efficiency, it is important that the model is
weak enough to allow various compiler optimizations on shared memory accesses as well
as efficient mappings to the architectures. For programmability, the model should be strong
enough to disallow bogus “out-of-thin-air” executions and provide strong guarantees for well-synchronized
programs. Because of these conflicting requirements, defining such a formal
model is very difficult. This is why, despite years of research, major programming languages
such as C/C++ and Java do not yet have completely adequate formal models defining their
concurrency semantics.
In this thesis, we address this challenge and develop a formal concurrency model that is very
good both in terms of compilation efficiency and of programmability. Unlike most previous
approaches, which were defined either operationally or axiomatically on single executions,
our formal model is based on event structures, which represents multiple program executions,
and thus gives us more structure to define the semantics of concurrency.
In more detail, our formalization has two variants: the weaker version, WEAKEST, and the
stronger version, WEAKESTMO. The WEAKEST model simulates the promising semantics proposed
by Kang et al., while WEAKESTMO is incomparable to the promising semantics. Moreover,
WEAKESTMO discards certain questionable behaviors allowed by the promising semantics.
We show that the proposed WEAKESTMO model resolve out-of-thin-air problem, provide
standard data-race-freedom (DRF) guarantees, allow the desirable optimizations, and can be
mapped to the architectures like x86, PowerPC, and ARMv7. Additionally, our models are
flexible enough to leverage existing results from the literature to establish data-race-freedom
(DRF) guarantees and correctness of compilation.
In addition, in order to ensure the correctness of compilation by a major compiler, we developed
a translation validator targeting LLVM’s “opt” transformations of concurrent C/C++
programs. Using the validator, we identified a few subtle compilation bugs, which were reported
and were fixed. Additionally, we observe that LLVM concurrency semantics differs
from that of C11; there are transformations which are justified in C11 but not in LLVM and
vice versa. Considering the subtle aspects of LLVM concurrency, we formalized a fragment
of LLVM’s concurrency semantics and integrated it into our WEAKESTMO model.
Various physical phenomenons with sudden transients that results into structrual changes can be modeled via
switched nonlinear differential algebraic equations (DAEs) of the type
\[
E_{\sigma}\dot{x}=A_{\sigma}x+f_{\sigma}+g_{\sigma}(x). \tag{DAE}
\]
where \(E_p,A_p \in \mathbb{R}^{n\times n}, x\mapsto g_p(x),\) is a mapping, \(p \in \{1,\cdots,P\}, P\in \mathbb{N}
f \in \mathbb{R} \rightarrow \mathbb{R}^n , \sigma: \mathbb{R} \rightarrow \{1,\cdots, P\}\).
Two related common tasks are:
Task 1: Investigate if above (DAE) has a solution and if it is unique.
Task 2: Find a connection among a solution of above (DAE) and solutions of related
partial differential equations.
In the linear case \(g(x) \equiv 0\) the task 1 has been tackeled already in a
distributional solution framework.
A main goal of the dissertation is to give contribution to task 1 for the
nonlinear case \(g(x) \not \equiv 0\) ; also contributions to the task 2 are given for
switched nonlinear DAEs arising while modeling sudden transients in water
distribution networks. In addition, this thesis contains the following further
contributions:
The notion of structured switched nonlinear DAEs has been introduced,
allowing also non regular distributions as solutions. This extend a previous
framework that allowed only piecewise smooth functions as solutions. Further six mild conditions were given to ensure existence and uniqueness of the solution within the space of piecewise smooth distribution. The main
condition, namely the regularity of the matrix pair \((E,A)\), is interpreted geometrically for those switched nonlinear DAEs arising from water network graphs.
Another contribution is the introduction of these switched nonlinear DAEs
as a simplication of the PDE model used classically for modeling water networks. Finally, with the support of numerical simulations of the PDE model it has been illustrated that this switched nonlinear DAE model is a good approximation for the PDE model in case of a small compressibility coefficient.
Im Rahmen der Untersuchungen zu dieser Dissertation sollten literaturbekannte sowie neue heterocyclische aromatische Liganden synthetisiert werden. Diese Liganden haben die Aufgabe, zwei Metalle in unmittelbarer Nähe zueinander zu komplexieren. Dies ebnet den Weg zum Studium kooperativer Effekte. Die vorliegende Dissertation gliedert sich in drei Themenbereiche, wobei jeweils die Synthese und Charakterisierung von drei verschiedenen Ligandensystemen (A: 4,6-Dimethyl-2-(4H-1,2,4-triazol-4-yl)pyrimidin, B: derivatisierter Dipyrimidinylliganden, C: 2-(Pyrimidin-2-yl)chinolin) sowie deren Komplexierung mit Übergangsmetallen der Gruppen VI, VIII-XI gesondert diskutiert werden.
4,6-Dimethyl-2-(4H-1,2,4-triazol-4-yl)pyrimidin kann vermutlich aus elektronischen Gründen nicht zweifach am Triazolfragment methyliert werden. Diese doppelte Methylierung wäre jedoch erforderlich, um N-heterocyclische Dicarbene zu generieren. Deshalb war der Zugang zu dinuklearen Komplexen über diesen Weg nicht möglich. Erste Hinweise zur erneuten Methylierung einer Triazolylidengruppe eines mono-NHC-Komplexes, der diesen Liganden trägt, wurden aber gefunden. Darüber hinaus wurden ein iridium- und ein rhodiumbasierter NHC-Komplex synthetisiert, welche die Transferhydrierung von Ketonen mit Isopropanol als Wasserstoffquelle katalysieren. Mit derivatisierten Dipyrimdinylliganden konnten erfolgreich roll-over cyclometallierte Komplexe generiert werden, die den Zugang zu homo- und heterodinuklearen Komplexen erlauben. Kooperative Effekte verschiedener dinuklearer Komplexe wurden mit Hilfe der UV/Vis-Spektroskopie detektiert. Die Interpretation dieser Effekte ist Gegenstand laufender und künftiger Arbeiten. Ein generelles Problem war die geringe Löslichkeit vieler der im Rahmen dieser Arbeit untersuchten Metallkomplexe. Dadurch war eine Reihe weiterer dinuklearer Komplexe nicht zugänglich, mit denen ein vertieftes Verständnis kooperativer Effekte möglich gewesen wäre. Der Ligand 2-(Pyrimidin-2-yl)chinolin, sollte mit einem literaturbekannten Derivat von fac-Ir(ppy)3 im Sinne einer roll-over Cyclometallierung umgesetzt werden, um im nächsten Schritt an seiner freien N,N-Koordinationstasche ein zweites Metall zu binden. Auch dies hätte das Studium kooperativer Effekte erlaubt. Die roll-over cyclometallierte Verbindung wurde jedoch nicht erhalten. Es bildete sich ein N,N-koordinierter Komplex, der thermisch nicht in die C,N-Koordination umlagerte. In der Zukunft müssen an diesem Liganden weitere sterisch anspruchsvolle Gruppen eingeführt werden, um den roll-over Prozess voranzutreiben.
Topology-Based Characterization and Visual Analysis of Feature Evolution in Large-Scale Simulations
(2019)
This manuscript presents a topology-based analysis and visualization framework that enables the effective exploration of feature evolution in large-scale simulations. Such simulations pose additional challenges to the already complex task of feature tracking and visualization, since the vast number of features and the size of the simulation data make it infeasible to naively identify, track, analyze, render, store, and interact with data. The presented methodology addresses these issues via three core contributions. First, the manuscript defines a novel topological abstraction, called the Nested Tracking Graph (NTG), that records the temporal evolution of features that exhibit a nesting hierarchy, such as superlevel set components for multiple levels, or filtered features across multiple thresholds. In contrast to common tracking graphs that are only capable of describing feature evolution at one hierarchy level, NTGs effectively summarize their evolution across all hierarchy levels in one compact visualization. The second core contribution is a view-approximation oriented image database generation approach (VOIDGA) that stores, at simulation runtime, a reduced set of feature images. Instead of storing the features themselves---which is often infeasable due to bandwidth constraints---the images of these databases can be used to approximate the depicted features from any view angle within an acceptable visual error, which requires far less disk space and only introduces a neglectable overhead. The final core contribution combines these approaches into a methodology that stores in situ the least amount of information necessary to support flexible post hoc analysis utilizing NTGs and view approximation techniques.
Synapses are the fundamental structures that regulate the functionality of the neural circuit. The ability of the synapse to modulate its structure and function at a fast rate due to various sensory inputs provides the strength to the nervous system to incorporate new adaptations and behaviors in the animal. The synapses are very dynamic throughout the life of the animal starting from early development. Continuous events of formation and elimination of synapse, activation and inhibition of synaptic function are observed in almost all synapses. These processes occur at a high speed and require controlled cellular mechanisms. Imbalance in these processes results in defective nervous system and has been reported in many neurological disorders. Thus, it is important to understand the mechanisms that regulate process of synapse development maintenance and function.
Kinases and phosphatases are the key regulators of cellular mechanisms. Understanding the function of these molecules in the neuron will shed light on the molecular mechanisms of synaptic plasticity. Using Drosophila melanogaster larval neuromuscular junction as a model, Bulat et al. (2014) performed a large RNAi based screen targeting kinome and phosphatome of Drosophila to identify the essential kinases and phosphatases and found Myeloid leukemia factor-1 adaptor molecule (Madm) and Protein phosphatase 4 (PP4) as novel regulators of synapse development and maintenance. The function of these molecules in the nervous system has not been reported and hence I investigated on the role of Madm and PP4 in the regulation of synapse development, maintenance and function.
Myeloid leukemia factor-1 adaptor molecule (Madm), a ubiquitously expressing psuedokinase essentially functions to regulate synaptic growth, stability and function. Using a combination of genetic and high throughput imaging, I could demonstrate that Madm functions to regulate the synaptic growth and stability from the presynapse and synaptic organization form the postsynapse. Also, I could demonstrate that Madm functions in association with mTOR pathway to regulate synapse growth acting downstream of 4E-BP. In addition, using electrophysiology, we could demonstrate that Madm is essential for the basic synaptic transmission with an additive function of retrograde synaptic potentiation. In summary, I could demonstrate that Madm is a novel regulator of synaptic development, maintenance and function.
Protein phosphatase 4 (PP4), a ubiquitously expressing protein phosphatase is involved in the regulation of multiple aspects of the nervous system. I could demonstrate that PP4 is essential for the development of nervous system and the metamorphosis. Using genetics and imaging analysis, I could demonstrate that loss of PP4 results in the abnormal morphology of cell organelles. In addition, I could show that loss of PP4 results in defective brain development with poorly developed structures.
Altogether, in this study, I could demonstrate the importance of novel molecules, a pesudokinase Madm and protein phosphatases PP4 in the nervous system to regulate distinct aspects of the neuron.
Destructive diseases of the lung like lung cancer or fibrosis are still often lethal. Also in case of fibrosis in the liver, the only possible cure is transplantation.
In this thesis, we investigate 3D micro computed synchrotron radiation (SR\( \mu \)CT) images of capillary blood vessels in mouse lungs and livers. The specimen show so-called compensatory lung growth as well as different states of pulmonary and hepatic fibrosis.
During compensatory lung growth, after resecting part of the lung, the remaining part compensates for this loss by extending into the empty space. This process is accompanied by an active vessel growing.
In general, the human lung can not compensate for such a loss. Thus, understanding this process in mice is important to improve treatment options in case of diseases like lung cancer.
In case of fibrosis, the formation of scars within the organ's tissue forces the capillary vessels to grow to ensure blood supply.
Thus, the process of fibrosis as well as compensatory lung growth can be accessed by considering the capillary architecture.
As preparation of 2D microscopic images is faster, easier, and cheaper compared to SR\( \mu \)CT images, they currently form the basis of medical investigation. Yet, characteristics like direction and shape of objects can only properly be analyzed using 3D imaging techniques. Hence, analyzing SR\( \mu \)CT data provides valuable additional information.
For the fibrotic specimen, we apply image analysis methods well-known from material science. We measure the vessel diameter using the granulometry distribution function and describe the inter-vessel distance by the spherical contact distribution. Moreover, we estimate the directional distribution of the capillary structure. All features turn out to be useful to characterize fibrosis based on the deformation of capillary vessels.
It is already known that the most efficient mechanism of vessel growing forms small torus-shaped holes within the capillary structure, so-called intussusceptive pillars. Analyzing their location and number strongly contributes to the characterization of vessel growing. Hence, for all three applications, this is of great interest. This thesis provides the first algorithm to detect intussusceptive pillars in SR\( \mu \)CT images. After segmentation of raw image data, our algorithm works automatically and allows for a quantitative evaluation of a large amount of data.
The analysis of SR\( \mu \)CT data using our pillar algorithm as well as the granulometry, spherical contact distribution, and directional analysis extends the current state-of-the-art in medical studies. Although it is not possible to replace certain 3D features by 2D features without losing information, our results could be used to examine 2D features approximating the 3D findings reasonably well.
Visualization is vital to the scientific discovery process.
An interactive high-fidelity rendering provides accelerated insight into complex structures, models and relationships.
However, the efficient mapping of visualization tasks to high performance architectures is often difficult, being subject to a challenging mixture of hardware and software architectural complexities in combination with domain-specific hurdles.
These difficulties are often exacerbated on heterogeneous architectures.
In this thesis, a variety of ray casting-based techniques are developed and investigated with respect to a more efficient usage of heterogeneous HPC systems for distributed visualization, addressing challenges in mesh-free rendering, in-situ compression, task-based workload formulation, and remote visualization at large scale.
A novel direct raytracing scheme for on-the-fly free surface reconstruction of particle-based simulations using an extended anisoptropic kernel model is investigated on different state-of-the-art cluster setups.
The versatile system renders up to 170 million particles on 32 distributed compute nodes at close to interactive frame rates at 4K resolution with ambient occlusion.
To address the widening gap between high computational throughput and prohibitively slow I/O subsystems, in situ topological contour tree analysis is combined with a compact image-based data representation to provide an effective and easy-to-control trade-off between storage overhead and visualization fidelity.
Experiments show significant reductions in storage requirements, while preserving flexibility for exploration and analysis.
Driven by an increasingly heterogeneous system landscape, a flexible distributed direct volume rendering and hybrid compositing framework is presented.
Based on a task-based dynamic runtime environment, it enables adaptable performance-oriented deployment on various platform configurations.
Comprehensive benchmarks with respect to task granularity and scaling are conducted to verify the characteristics and potential of the novel task-based system design.
A core challenge of HPC visualization is the physical separation of visualization resources and end-users.
Using more tiles than previously thought reasonable, a distributed, low-latency multi-tile streaming system is demonstrated, being able to sustain a stable 80 Hz when streaming up to 256 synchronized 3840x2160 tiles and achieve 365 Hz at 3840x2160 for sort-first compositing over the internet, thereby enabling lightweight visualization clients and leaving all the heavy lifting to the remote supercomputer.
Die Alterungsbeständigkeit und Sicherheit von geklebten Verbindungen sind von großer
Bedeutung in industriellen Anwendungen. Die Ausfallwahrscheinlichkeit einer geklebten
Verbindung nach einer bestimmten Zeit kann hierbei durch verschiedene Alterungseffekte,
wie beispielsweise Temperatur und Luftfeuchtigkeit, beeinflusst werden. Die Korrelation der
Ergebnisse aus beschleunigten Laboralterungstests mit dem Langzeitverhalten der
Verbindungen unter Einsatzbedingungen bleibt häufig eine ungelöste Herausforderung. In der
vorliegenden Arbeit wurden computerbasierte Methoden für die nichtlineare Regressionsanalyse,
die Abschätzung der Zuverlässigkeit und die Vorhersage der Sicherheit auf
experimentelle Daten angewendet, die durch beschleunigte Alterung von Zugscherproben
sowie Substanz-Schulterproben generiert wurden. Die Modellierung des Alterungsverhaltens
wurde mit kombinierten Funktionen in Anlehnung an die Modelle nach EYRING und PECK
durchgeführt. Beide Modellierungsansätze erschienen hierbei geeignet zur Beschreibung der
experimentellen Daten. Die Sicherheitsvorhersage wurde anhand der Versagenswahrscheinlichkeit
sowie des Sicherheitsindex β allerdings auf Basis des EYRING-Modells
durchgeführt, da dieses die experimentellen Daten der Referenzbedingung konservativer
beschreibt.
Die Dissertation mit dem Titel „bio-psycho-soziale Gesundheit der Studierenden der TU Kaiserslautern“ ist auf dem Hintergrund der Frage entstanden, wie die Gesundheit von Studierenden erhalten und gefördert werden kann. Die Gesundheitsprävention hat auch im Bereich der Hochschulen in den letzten Jahren erheblich an Bedeutung gewonnen, einerseits durch die steigende Anzahl psychischer Erkrankungen bei Studierenden, andererseits durch die Umsetzung des Präventionsgesetzes, das am 01.01.2016 in Kraft getreten ist. Die Arbeit gibt zentrale Hinweise auf Belastungen und Beanspruchungen von Studierenden der TUK und zeigt einen möglichen Weg zum Aufbau eines systematischen Gesundheitsmanagements an einer Universität. Unterfüttert anhand konkreter Beispiele aus der Praxis wird dargestellt, wie Präventionsmaßnahmen im Setting Universität durchgeführt werden können. Ein Beitrag zur Gesundheitsberichterstattung von Studierenden wird durch unterschiedliche Darstellungen zentraler Ergebnisse die Gesundheit der Studierenden betreffend geleistet. Im empirischen Teil der Arbeit werden sechs Hypothesen überprüft die anhand eines definierten Merkmalskanons Zusammenhänge und Unterschiede unterschiedlicher gesundheitsrelevanter Facetten herausarbeiten. Im Konkreten sind dies die Konstrukte Depressives Syndrom, Stress, Erschöpfung, Burnout, Engagement, soziale Unterstützung, allgemeine Lebenszufriedenheit in Kombination mit der Studienphase (Bachelor vs. Master), dem Hochschulsemester, Genderaspekten, körperlicher Aktivität sowie dem Leistungsumfang im Studium.
Gegenstand dieser Arbeit ist die optische Erzeugung von Magnetisierungsverteilungen und der Propagation von Spinwellen durch diese. Spinwellen sind kollektive Anregungen des Spinsystems eines magnetischen Materials - das zugehörige Quasiteilchen wird Magnon genannt. Diese Dissertation wurde im Rahmen von Projekt B04 des transregionalen Sonderforschungsbereiches SFB/TRR 173 "Spin+X - Spin in its collective environment" der Deutschen Forschungsgemeinschaft (DFG) durchgeführt. Das Forschungsprogramm befasst sich mit der Wechselwirkung von Elektronenspins mit deren Umgebung und umfasst neben der theoretischen und experimentellen Grundlagenforschung auch die Übertragung auf technische Anwendungen. In der vorliegenden Arbeit wird die Manipulation von Magnonenströmen in magnetischen Materialien diskutiert. Generell gibt es zwei Methoden zur Modifikation der Eigenschaften eines Materials: Entweder die chemische Zusammensetzung oder die Struktur der Probe wird verändert. Zur räumlichen Veränderung des Materials werden üblicherweise Lithografie-, Abscheidungs- und Ätzprozesse verwendet. Diese Verfahren legen die Eigenschaften des Materials irreversibel fest. In dieser Arbeit wird eine neue Methode zur transienten Modulation der Eigenschaften von magnetischen Materialien entwickelt und an verschiedenen Anwendungen demonstriert. Ein Laser in Kombination mit einem räumlichen Lichtmodulator, auf welchem Computer generierte Hologramme dargestellt werden, erlaubt die Erzeugung von fast beliebigen Intensitätsverteilungen auf einem dünnen magnetischen Film – Yttrium Eisen Granat mit wenigen µm Filmdicke. Das Laserlicht wird von der Probe absorbiert und erzeugt somit optisch induzierte thermische Profile. Daraus resultiert ebenfalls eine lokale Modifikation der Sättigungsmagnetisierung und somit entstehen Magnetisierungslandschaften. Durch zeitliche Modulation der Intensität des Lichts und Wärmeabgabe an die Umgebung, sind diese magnetischen Strukturen dynamisch und rekonfigurierbar. Solche Magnetisierungslandschaften werden in dieser Arbeit verwendet um die Propagation von Spinwellen in der Probe zu beeinflussen. So werden zum Beispiel auf einer einzigen Probe ein- und quasi-zweidimensionale magnonische Kristalle mit unterschiedlichen Gitterkonstanten realisiert. Ein vektorieller Netzwerkanalysator bestimmt das Transmissions- und Reflexionsspektrum. Die auftretenden Bandlücken lassen sich sowohl mit der Transfermatrixmethode beschreiben als auch mit der Dispersionsrelation von Spinwellen vergleichen. Die ermittelten experimentellen Ergebnisse entsprechen den Erwartungen. Eine weitere Anwendung der neu entwickelten Strukturierungsmethode ist die Konvertierung von unterschiedlichen Spinwellentypen. Die Propagation von Spinwellen in parallel zur Filmebene magnetisierten Proben ist streng anisotrop. Magnetostatische Rückwärts-Volumenmoden, die entlang der Magnetisierungsrichtung propagieren, und Oberflächenmoden, die sich senkrecht zu dieser Richtung ausbreiten, existieren üblicherweise nicht simultan bei einer gegebenen Frequenz und sonstigen äußeren Parametern. Durch Verwendung von optisch induzierten Magnetisierungsgradienten lässt sich sowohl experimentell als auch mittels Simulationen zeigen, dass eine Änderung der Propagationsrichtung um bis zu 90° – und somit eine Modenkonvertierung – möglich ist. Der dritte Anwendungsbereich von Magnetisierungslandschaften in dieser Arbeit ist die Spinwellen-Optik. Die räumliche Modulation der Sättigungsmagnetisierung verändert den lokalen Brechungsindex für Spinwellen. Analog zur konventionellen Optik mit Licht können somit Komponenten zur Beeinflussung der Spinwellenpropagation konstruiert werden. In Simulationen werden Spiegel zur Ablenkung von Spinwellenstrahlen, Axicons zur Erzeugung von Bessel-Strahlen und Gradientenindexlinsen zur Fokussierung von Spinwellen gezeigt. Außerdem können Gradientenindexlinsen dazu verwendet werden um Fourieroptik mit Spinwellen zu realisieren.
In this thesis, we consider the problem of processing similarity queries over a dataset of top-k rankings and class constrained objects. Top-k rankings are the most natural and widely used technique to compress a large amount of information into a concise form. Spearman’s Footrule distance is used to compute the similarity between rankings, considering how well rankings agree on the positions (ranks) of ranked items. This setup allows the application of metric distance-based pruning strategies, and, alternatively, enables the use of traditional inverted indices for retrieving rankings that overlap in items. Although both techniques can be individually applied, we hypothesize that blending these two would lead to better performance. First, we formulate theoretical bounds over the rankings, based on Spearman's Footrule distance, which are essential for adapting existing, inverted index based techniques to the setting of top-k rankings. Further, we propose a hybrid indexing strategy, designed for efficiently processing similarity range queries, which incorporates inverted indices and metric space indices, such as M- or BK-trees, resulting in a structure that resembles both indexing methods with tunable emphasis on one or the other. Moreover, optimizations to the inverted index component are presented, for early termination and minimizing bookkeeping. As vast amounts of data are being generated on a daily bases, we further present a distributed, highly tunable, approach, implemented in Apache Spark, for efficiently processing similarity join queries over top-k rankings. To combine distance-based filtering with inverted indices, the algorithm works in several phases. The partial results are joined for the computation of the final result set. As the last contribution of the thesis, we consider processing k-nearest-neighbor (k-NN) queries over class-constrained objects, with the additional requirement that the result objects are of a specific type. We introduce the MISP index, which first indexes the objects by their (combination of) class belonging, followed by a similarity search sub index for each subset of objects. The number of such subsets can combinatorially explode, thus, we provide a cost model that analyzes the performance of the MISP index structure under different configurations, with the aim of finding the most efficient one for the dataset being searched.
Ultrahochfester Beton (UHB oder aus dem Englischen Ultra High Performance Concrete, kurz UHPC) weist eine Druckfestigkeit im Bereich von 150 bis 250 MPa auf. Eine gesteigerte Zugfestigkeit und ein duktiles Verhalten werden durch die Zugabe von Mikrostahlfasern erzielt (Ultra High Performance Fibre Reinforced Concrete, UHPFRC). Der Fasergehalt ist in der Regel höher als bei normalfestem Faserbeton, sodass aufgrund der Fasern ein „Strain-hardening“ Verhalten erreicht werden kann: in einem Biegezugversuch kann die Last nach der Erstrissbildung weiter gesteigert werden bis zur Ausbildung mehrerer feiner Risse. Da der Beitrag der Fasern zum Zugtragverhalten des UHPFRC ein wesentlicher ist, müssen die Bauteile im gerissenen Zustand bemessen werden. Während der statische und dynamische Widerstand bereits umfangreich untersucht wurde, liegen nur wenige Untersuchungen bezüglich das Dauerstandzugverhaltens von gerissenem ultrahochfestem Beton vor. Untersuchungen an normalfestem faserverstärktem Beton haben gezeigt, dass die zeitabhängigen Zugverformungen im gerissenen Zustand größer sind als die in ungerissenem Material.
Um die zu erwartenden Verformungen abschätzen zu können und um das Kriechverhalten des Materials bis zum Versagen zu analysieren, wurde im Rahmen dieser Arbeit ein umfangreiches Versuchsprogramm durchgeführt. Über 60 uniaxiale Zug- und Biegezugprobekörper wurden unter Dauerlast über einen Zeitraum von bis zu 15 Monaten beansprucht. Davon wurden 22 Probekörper nach vier Monaten hinsichtlich ihrer Resttragfähigkeit getestet. Die restlichen Probekörper befinden sich für Langzeit-Messungen weiterhin in den Dauerlastprüfständen. Es wurden dabei verschiedene Parameter untersucht: u.a. das Belastungsniveau, Art und Umfang der Nachbehandlung des Betons, das Betonalter zu Beginn der Belastung, der Fasergehalt und die Faserschlankheit. Das Schwinden der unbelasteten Probekörper sowie das Druckkriechen belasteter Probekörper wurden an der verwendeten Mischung gemessen.
Der UHPFRC wies im Allgemeinen ein sehr stabiles Verhalten auf und es zeigte sich keine unkontrollierte Zunahme der Verformungen infolge eines Faserauszugs. Lediglich bei einem Probekörper kam es bei einer Last von 79% der aufgebrachten Last am Ende der Vorbelastung zum Versagen. Der Autor sieht dabei eine ungünstige Faserausrichtung als mögliche Ursache des frühzeitigen Versagens des Probekörpers an, was auf einen bedeutenden Einfluss dieses Parameters auf die Tragfähigkeit schließen lässt. Hinsichtlich der Bemessung von gerissenen UHPFRC-Bauteilen unter Dauerlast wurde ein Vorschlag für die Bemessung der Dauerstandfestigkeit ausgearbeitet.
Darüber hinaus wurden Faserauszugversuche durchgeführt und das Verbund-Schlupfverhalten der verwendeten Fasern ermittelt. Einige Probekörper wurden nach uniaxialen Zugversuchen per Computertomographie gescannt, um den Zusammenhang der Fasern im Versagensquerschnitt zur Zugfestigkeit der Probekörper zu untersuchen. Die untersuchten Probekörper wiesen unterschiedliche Zugfestigkeiten auf. Diese konnten durch die verschiedenen Faseranzahlen im Versagensquerschnitt gut abgebildet werden.
Die Versorgungsaufgaben für Niederspannungsnetze werden sich in den kommenden Jahrzehnten durch die weitere Verbreitung von Photovoltaikanlagen, Wärmepumpenheizungen und Elektroautomobilen gegenüber denen des Jahres 2018 voraussichtlich stark ändern. In der Praxis verbreitete Planungsgrundsätze für den Neubau von Niederspannungsnetzen sind veraltet, denn sie stammen vielfach in ihren Grundzügen aus Zeiten, in denen die neuen Lasten und Einspeisungen nicht erwartet und dementsprechend nicht berücksichtigt wurden. Der Bedarf für neue Planungsgrundsätze fällt zeitlich mit der Verfügbarkeit regelbarer Ortsnetztransformatoren (rONT) zusammen, die zur Verbesserung der Spannungsverhältnisse im Netz eingesetzt werden können. Die hier entwickelten neuen Planungsgrundsätze erfordern für ländliche und vorstädtische Versorgungsaufgaben (nicht jedoch für städtische Versorgungsaufgaben) den rONT-Einsatz, um die hohen erwarteten Leistungen des Jahres 2040 zu geringen Kosten beherrschen zu können. Eine geeignete rONT-Standardregelkennlinie wird angegeben. In allen Fällen werden abschnittsweise parallelverlegte Kabel mit dem Querschnitt 240 mm² empfohlen.
Graphs and flow networks are important mathematical concepts that enable the modeling and analysis of a large variety of real world problems in different domains such as engineering, medicine or computer science. The number, sizes and complexities of those problems permanently increased during the last decades. This led to an increased demand of techniques that help domain experts in understanding their data and its underlying structure to enable an efficient analysis and decision making process.
To tackle this challenge, this work presents several new techniques that utilize concepts of visual analysis to provide domain scientists with new visualization methodologies and tools. Therefore, this work provides novel concepts and approaches for diverse aspects of the visual analysis such as data transformation, visual mapping, parameter refinement and analysis, model building and visualization as well as user interaction.
The presented techniques form a framework that enriches domain scientists with new visual analysis tools and help them analyze their data and gain insight from the underlying structures. To show the applicability and effectiveness of the presented approaches, this work tackles different applications such as networking, product flow management and vascular systems, while preserving the generality to be applicable to further domains.
Study 1 (Chapter 2) is an empirical case study that concerns the nature of teaching–learning transactions that facilitate self-directed learning in vocational education and training of young adults in England. It addresses in part the concern that fostering the skills necessary for self-directed learning is an important endeavor of vocational education and training in many contexts internationally. However, there is a distinct lack of studies that investigate the extent to which facilitation of self-directed learning is present within vocational education and training in different contexts. An exploratory thematic qualitative analysis of inspectors’ comments within general Further Education college Ofsted inspection reports was conducted to investigate the balance of control of the learning process between teacher and learner within vocational education and training of young adults in England. A clear difference between outstanding and inadequate provision is reported. Inadequate provision was overwhelmingly teacher-directed. Outstanding provision reflected a collaborative relationship between teacher and learner in directing the learning process, despite the Ofsted framework not explicitly identifying the need for learner involvement in directing the learning process. The chapter offers insight into the understanding of how an effective balance of control of learning between teacher and learner may be realized in vocational education and training settings and highlights the need to consider the modulating role of contextual factors.
Following the further research directions outlined in Chapter 2, study 2 (Chapter 3) is a theoretical chapter that addresses the issue that fostering adult learners’ competence to adapt appropriately to our ever-changing world is a primary concern of adult education. The purpose of the chapter is novel and examines whether the consideration of modes of learning (instruction, performance, and inquiry) could assist in the design of adult education that facilitates self-directed learning and enables learners to think and perform adaptively. The concept of modes of learning originated from the typology of Houle (1980). However, to date, no study has reached beyond this typology, especially concerning the potential of using modes of learning in the design of adult education. Specifically, an apparent oversight in adult learning theory is the foremost importance of the consideration of whether inquiry is included in the learning process: its inclusion potentially differentiates the purpose of instruction, the nature of learners’ performance, and the underlying epistemological positioning. To redress this concern, two models of modes of learning are proposed and contrasted. The reinforcing model of modes of learning (instruction, performance, without inquiry) promotes teacher-directed learning. A key consequence of employing this model in adult education is that learners may become accustomed to habitually reinforcing patterns of perceiving, thinking, judging, feeling, and acting—performance that may be rather inflexible and represented by a distinct lack of a perceived need to adapt to social contextual changes: a lack of motivation for self-directed learning. Rather, the adapting model of modes of learning (instruction, performance, with inquiry) may facilitate learners to be adaptive in their performance—by encouraging an enhanced learner sensitivity toward changing social contextual conditions: potentially enhancing learners’ motivation for self-directed learning.
In line with the further research directions highlighted in Chapter 3, concerning the need to consider the nature and treatment of educational experiences that are conductive to learner growth and development, study 3 (Chapter 4) presents a systematic review of the experiential learning theory; a theory that perhaps cannot be uncoupled from self-directed learning theory, especially in regard to understanding the cognitive aspect of self-directed learning, which represents an important direction for further research on self-directed learning. D. A. Kolb’s (1984) experiential learning cycle is perhaps the most scholarly influential and cited model regarding experiential learning theory. However, a key issue in interpreting Kolb’s model concerns a lack of clarity regarding what constitutes a concrete experience, exactly. A systematic literature review was conducted in order to examine: what constitutes a concrete experience and what is the nature of treatment of a concrete experience in experiential learning? The analysis revealed five themes: learners are involved, active, participants; knowledge is situated in place and time; learners are exposed to novel experiences, which involves risk; learning demands inquiry to specific real-world problems; and critical reflection acts as a mediator of meaningful learning. Accordingly, a revision to Kolb’s model is proposed: experiential learning consists of contextually rich concrete experience, critical reflective observation, contextual-specific abstract conceptualization, and pragmatic active experimentation. Further empirical studies are required to test the model proposed. Finally, in Chapter 5 key findings of the studies are summarized, including that the models proposed in Chapters 3 and 4 (Figures 2 and 4, respectively) may be important considerations for further research on self-directed learning.
Wearable activity recognition aims to identify and assess human activities with the help
of computer systems by evaluating signals of sensors which can be attached to the human
body. This provides us with valuable information in several areas: in health care, e.g. fluid
and food intake monitoring; in sports, e.g. training support and monitoring; in entertainment,
e.g. human-computer interface using body movements; in industrial scenarios, e.g.
computer support for detected work tasks. Several challenges exist for wearable activity
recognition: a large number of nonrelevant activities (null class), the evaluation of large
numbers of sensor signals (curse of dimensionality), ambiguity of sensor signals compared
to the activities and finally the high variability of human activity in general.
This thesis develops a new activity recognition strategy, called invariants classification,
which addresses these challenges, especially the variability in human activities. The
core idea is that often even highly variable actions include short, more or less invariant
sub-actions which are due to hard physical constraints. If someone opens a door, the
movement of the hand to the door handle is not fixed. However the door handle has to
be pushed to open the door. The invariants classification algorithm is structured in four
phases: segmentation, invariant identification, classification, and spotting. The segmentation
divides the continuous sensor data stream into meaningful parts, which are related
to sub-activities. Our segmentation strategy uses the zero crossings of the central difference
quotient of the sensor signals, as segment borders. The invariant identification finds
the invariant sub-activities by means of clustering and a selection strategy dependent on
certain features. The classification identifies the segments of a specific activity class, using
models generated from the invariant sub-activities. The models include the invariant
sub-activity signal and features calculated on sensor signals related to the sub-activity. In
the spotting, the classified segments are used to find the entire activity class instances in
the continuous sensor data stream. For this purpose, we use the position of the invariant
sub-activity in the related activity class instance for the estimation of the borders of the
activity instances.
In this thesis, we show that our new activity recognition strategy, built on invariant
sub-activities, is beneficial. We tested it on three human activity datasets with wearable
inertial measurement units (IMU). Compared to previous publications on the same
datasets we got improvement in the activity recognition in several classes, some with a
large margin. Our segmentation achieves a sensible method to separate the sensor data in
relation to the underlying activities. Relying on sub-activities makes us independent from
imprecise labels on the training data. After the identification of invariant sub-activities,
we calculate a value called cluster precision for each sensor signal and each class activity.
This tells us which classes can be easily classified and which sensor channels support
the classification best. Finally, in the training for each activity class, our algorithm selects
suitable signal channels with invariant sub-activities on different points in time and
with different length. This makes our strategy a multi-dimensional asynchronous motif
detection with variable motif length.
Economics of Downside Risk
(2019)
Ever since establishment of portfolio selection theory by Markowitz (1952), the use of Standard deviation as a measure of risk has heavily been criticized. The aim of this thesis is to refine classical portfolio selection and asset pricing theory by using a downside deviation risk measure. It is defined as below-target semideviation and referred to as downside risk.
Downside efficient portfolios maximize expected payoff given a prescribed upper bound for downside risk and, thus, are analogs to mean-variance efficient portfolios in the sense of Markowitz. The present thesis provides an alternative proof of existence of downside efficient portfolios and identifies a sufficient criterion for their uniqueness. A specific representation of their form brings structural similarity to mean-variance efficient portfolios to light. Eventually, a separation theorem for the existence and uniqueness of portfolios that maximize the trade-off between downside risk and return is established.
The notion of a downside risk asset market equilibrium (DRAME) in an asset market with finitely many investors is introduced. This thesis addresses the existence and uniqueness Problem of such equilibria and specifies a DRAME pricing formula. In contrast to prices obtained from the mean-variance CAPM pricing formula, DRAME prices are arbitrage-free and strictly positive.
The final part of this thesis addresses practical issues. An algorithm that allows for an effective computation of downside efficient portfolios from simulated or historical financial data is outlined. In a simulation study, it is revealed in which scenarios downside efficient portfolios
outperform mean-variance efficient portfolios.
The simulation of physical phenomena involving the dynamic behavior of fluids and gases
has numerous applications in various fields of science and engineering. Of particular interest
is the material transport behavior, the tendency of a flow field to displace parts of the
medium. Therefore, many visualization techniques rely on particle trajectories.
Lagrangian Flow Field Representation. In typical Eulerian settings, trajectories are
computed from the simulation output using numerical integration schemes. Accuracy concerns
arise because, due to limitations of storage space and bandwidth, often only a fraction
of the computed simulation time steps are available. Prior work has shown empirically that
a Lagrangian, trajectory-based representation can improve accuracy [Agr+14]. Determining
the parameters of such a representation in advance is difficult; a relationship between the
temporal and spatial resolution and the accuracy of resulting trajectories needs to be established.
We provide an error measure for upper bounds of the error of individual trajectories.
We show how areas at risk for high errors can be identified, thereby making it possible to
prioritize areas in time and space to allocate scarce storage resources.
Comparative Visual Analysis of Flow Field Ensembles. Independent of the representation,
errors of the simulation itself are often caused by inaccurate initial conditions,
limitations of the chosen simulation model, and numerical errors. To gain a better understanding
of the possible outcomes, multiple simulation runs can be calculated, resulting in
sets of simulation output referred to as ensembles. Of particular interest when studying the
material transport behavior of ensembles is the identification of areas where the simulation
runs agree or disagree. We introduce and evaluate an interactive method that enables application
scientists to reliably identify and examine regions of agreement and disagreement,
while taking into account the local transport behavior within individual simulation runs.
Particle-Based Representation and Visualization of Uncertain Flow Data Sets. Unlike
simulation ensembles, where uncertainty of the solution appears in the form of different
simulation runs, moment-based Eulerian multi-phase fluid simulations are probabilistic in
nature. These simulations, used in process engineering to simulate the behavior of bubbles in
liquid media, are aimed toward reducing the need for real-world experiments. The locations
of individual bubbles are not modeled explicitly, but stochastically through the properties of
locally defined bubble populations. Comparisons between simulation results and physical
experiments are difficult. We describe and analyze an approach that generates representative
sets of bubbles for moment-based simulation data. Using our approach, application scientists
can directly, visually compare simulation results and physical experiments.
Carotenoids are organic lipophilic tetraterpenes ubiquitously present in Nature and found across the three domains of life (Archaea, Bacteria and Eukaryotes). Their structure is characterized by an extensive conjugated double-bond system, which serves as a light-absorbing chromophore, hence determining its colour, and enables carotenoids to absorb energy from other molecules and to act as antioxidant agents. Humans obtain carotenoids mainly via the consumption of fruits and vegetables, and to a smaller extent from other food sources such as fish and eggs. The concentration of carotenoids in the human plasma and tissues has been positively associated with a lower incidence of several chronic diseases including, cancer, diabetes, macular degeneration and cardiovascular conditions, likely due to their antioxidant properties. However, an important aspect of carotenoids, namely β- and α-carotene and β-cryptoxanthin, in human health and development, is their potential to be converted by the body into Vitamin A.
Yet, bioavailability of carotenoids is relatively low (< 30%) and dependent, among others, on dietary factors, such as amount and type of dietary lipids and the presence of dietary fibres. One dietary factor that has been found to negatively impact carotenoid bioaccessibility and cellular uptake in vitro is high concentrations of divalent cations during simulated gastro-intestinal digestion. Nevertheless, the mechanism of action of divalent cations remains unclear. The goal of this thesis was to better understand how divalent cations act during digestion and modulate carotenoid bioavailability. In vitro trials of simulated gastro-intestinal digestion and cellular uptake were run to investigate how varying concentrations of calcium, magnesium and zinc affected the bioaccessibility of both pure carotenoids and carotenoids from food matrices. In order to validate or refute results obtained in vitro, a randomized and double blinded placebo controlled cross-over postprandial trial (24 male participants) was carried out, testing the effect of 3 supplementary calcium doses (0 mg, 500 mg and 1000 mg) on the bioavailability of carotenoids from a spinach based meal. In vitro trials showed that addition of the divalent cations significantly decreased the bioaccessibility of both pure carotenoids (P < 0.001) and those from food matrices (P < 0.01). This effect was dependent on the type of mineral and its concentration. Strongest effects were seen for increasing concentrations of calcium followed by magnesium and zinc. The addition of divalent cations also altered the physico-chemical properties, i.e. viscosity and surface tension, of the digestas. However, the extent of this effect varied according to the type of matrix. The effects on bioaccessibility and physico-chemical properties were accompanied by variations of the zeta-potential of the particles in solution. Taken together, results from the in vitro trials strongly suggested that divalent cations were able to bind bile salts and other surfactant agents, affecting their solubility. The observed i) decrease in macroviscosity, ii) increase in surface tension, and the iii) reduction of the zeta-potential of the digesta, confirmed the removal of surfactant agents from the system, most likely due to precipitation as a result of the lower solubility of the mineral-surfactant complexes. As such, micellarization of carotenoids was hindered, explaining their reduced bioaccessibility. As for the human trial, results showed that there was no significant influence of supplementation with either 500 or 1000 mg of supplemental calcium (in form of carbonate) on the bioavailability of a spinach based meal, as measured by the area-under curve of carotenoid concentrations in the plasma-triacylglycerol rich fraction, suggesting that the in vitro results are not supported in such an in vivo scenario, which may be explained by the initial low bioaccessibility of spinach carotenoids and the dissolution kinetics of the calcium pills. Further investigations are necessary to understand how divalent cations act during in vivo digestion and potentially interact with lipophilic nutrients and food constituents.
Die Nachrechnung bestehender Bauwerke muss grundsätzlich auf Basis der aktuellen, bauaufsichtlich eingeführten technischen Baubestimmungen geführt werden. Dazu werden charakteristische Materialkennwerte der verwendeten Baustoffe benötigt.
Im Rahmen einer Vordimensionierung kann die Betondruckfestigkeit durch Umrechnung von aus der Herstellzeit dokumentierten Werten abgeschätzt werden. Für eine abgesicherte Nachrechnung hingegen muss die charakteristische Betondruckfestigkeit durch Untersuchungen am Bauwerk ermittelt werden, um den Einfluss verschiedener last- oder zeitabhängiger Prozesse zu erfassen.
Zur statistischen Bewertung der experimentell ermittelten Werte der In-situ-Betondruckfestigkeit existieren verschiedene Verfahren. Besonders bei kleinem Stichprobenumfang führen die bisher gebräuchlichen Verfahren nach DIN EN 1990:2010-12 und DIN EN 13791:2008-05 jedoch teilweise zu ingenieurmäßig als kritisch einzustufenden Ergebnissen, welche die tatsächliche In-situ-Betondruckfestigkeit erheblich über- oder unterschätzen können.
Aufbauend auf Untersuchungen an realen, umfangreichen Datensätzen wurde in dieser Arbeit ein neues Verfahren mit den vom Stichprobenumfang und dem Variationskoeffizienten abhängigen modifizierten Ansätzen A und B zur Bestimmung der charakteristischen In-situ-Betondruckfestigkeit, basierend auf experimentell, mit direkten Prüfverfahren ermittelten Einzelwerten, entwickelt.
Zur Bestimmung des Nachrechnungswertes der Betondruckfestigkeit gilt es über den charakteristischen Wert der In-situ-Betondruckfestigkeit hinaus auch noch den Unterschied zwischen Bauwerks- und Normprobekörperdruckfestigkeit sowie den Einfluss von Dauerstandseffekten zu bewerten.
Die durchgeführten Untersuchungen zeigen, dass bei Bestandsbetonen, wie auch bereits im Neubaufall, das Verhältnis zwischen Bauwerks- und Normprobekörperfestigkeit ca. 0,85 beträgt. Auch bei der experimentellen Ermittlung der In-situ-Betondruckfestigkeit an aus dem Bauwerk entnommenen Proben ist der Unterschied zwischen Kurzzeit- und Dauerstandsfestigkeit mit dem im Neubaufall gebräuchlichen Faktor αcc = 0,85 zu berücksichtigen.
Neben der Druckfestigkeit, ist im Rahmen der Nachrechnung von Bestandsbauwerken auch teilweise die Zugfestigkeit oder der Elastizitätsmodul von Bestandsbetonen zu bewerten. Die in DIN EN 1992-1-1:2011-01 enthaltenen Beziehungen zwischen Druck- und Zugfestigkeit sowie zwischen Druckfestigkeit und Elastizitätsmodul sind jedoch ausschließlich für im Neubaufall verwendete Betone nach DIN EN 206-1:2001-07 ausgelegt.
Die Untersuchungen zeigen, dass die in DIN EN 1992-1-1:2011-01 enthaltene Korrelation zwischen Druck- und Zugfestigkeit auch zur groben Abschätzung der Zugfestigkeit von Bestandsbetonen verwendet werden kann. Im Einzelfall sind jedoch auch große Abweichungen nicht auzuschließen. Bedingt durch den großen Einfluss der Gesteinskörnung ist nur eine sehr grobe Abschätzung des Elastizitätsmoduls aus der In-situ-Betondruckfestigkeit möglich.
In this dissertation we apply financial mathematical modelling to electricity markets. Electricity is different from any other underlying of financial contracts: it is not storable. This means that electrical energy in one time point cannot be transferred to another. As a consequence, power contracts with disjoint delivery time spans basically have a different underlying. The main idea throughout this thesis is exactly this two-dimensionality of time: every electricity contract is not only characterized by its trading time but also by its delivery time.
The basis of this dissertation are four scientific papers corresponding to the Chapters 3 to 6, two of which have already been published in peer-reviewed journals. Throughout this thesis two model classes play a significant role: factor models and structural models. All ideas are applied to or supported by these two model classes. All empirical studies in this dissertation are conducted on electricity price data from the German market and Chapter 4 in particular studies an intraday derivative unique to the German market. Therefore, electricity market design is introduced by the example of Germany in Chapter 1. Subsequently, Chapter 2 introduces the general mathematical theory necessary for modelling electricity prices, such as Lévy processes and the Esscher transform. This chapter is the mathematical basis of the Chapters 3 to 6.
Chapter 3 studies factor models applied to the German day-ahead spot prices. We introduce a qualitative measure for seasonality functions based on three requirements. Furthermore, we introduce a relation of factor models to ARMA processes, which induces a new method to estimate the mean reversion speed.
Chapter 4 conducts a theoretical and empirical study of a pricing method for a new electricity derivative: the German intraday cap and floor futures. We introduce the general theory of derivative pricing and propose a method based on the Hull-White model of interest rate modelling, which is a one-factor model. We include week futures prices to generate a price forward curve (PFC), which is then used instead of a fixed deterministic seasonality function. The idea that we can combine all market prices, and in particular futures prices, to improve the model quality also plays the major role in Chapter 5 and Chapter 6.
In Chapter 5 we develop a Heath-Jarrow-Morton (HJM) framework that models intraday, day-ahead, and futures prices. This approach is based on two stochastic processes motivated by economic interpretations and separates the stochastic dynamics in trading and delivery time. Furthermore, this framework allows for the use of classical day-ahead spot price models such as the ones of Schwartz and Smith (2000), Lucia and Schwartz (2002) and includes many model classes such as structural models and factor models.
Chapter 6 unifies the classical theory of storage and the concept of a risk premium through the introduction of an unobservable intrinsic electricity price. Since all tradable electricity contracts are derivatives of this actual intrinsic price, their prices should all be derived as conditional expectation under the risk-neutral measure. Through the intrinsic electricity price we develop a framework, which also includes many existing modelling approaches, such as the HJM framework of Chapter 5.
Wärmedämm-Verbundsysteme (WDVS) zählen gegenwärtig zu den am meisten eingesetzten Fassadenkonstruktionen, dennoch oder gerade deswegen stoßen die Systeme in der Architektur auf Ablehnung. Auf der technischen Seite wird mit der Anfälligkeit für Algen-/Pilzwuchs, Spechtlöchern oder dem Brandschutz argumentiert. Die architektonische Seite wettert gegen das unwahrhaftige Erscheinungsbild einer massiven Putzwand und äußert Bedenken beim Einsatz im Bestand. Auch im Feuilleton regt sich Widerstand und Angst gewohnte Stadtbilder zu verlieren. Trotz der Probleme können sich Architekten unter den gegebenen politischen Rahmenbedingungen und Kostenzwängen nicht mehr dem WDV-System entziehen. Die Moraldiskussion, die sich unmittelbar an der Fassade abarbeitet und ebenso problematische Verbundbauweisen ausblendet, verdeutlicht, dass es sich vorwiegend um ein Wahrnehmungsproblem handelt. WDV-Systeme gelten als unecht, billig und gestaltungsarm. Damit sich diese architektonische Wahrnehmung von WDV-Systemen nachhaltig verändert, werden systematisch Möglichkeiten und Potenziale vorgestellt, um WDVS zur Bedingung der Gestaltung werden zu lassen. In diesem Sinne interpretiert die Arbeit WDV-Systeme als architektonisches Mittel, das einer gestalterischen Logik folgt, welche sich unmittelbar aus den Gegebenheiten des Systems heraus entwickelt.
Glycine constitutes the major neurotransmitter at inhibitory synapses of lower brain regions.
A rapid removal of glycine from the synaptic cleft and consequent recycling is crucial for
synaptic transmission in systems with high effort on temporal precision. This is mainly
achieved by glycine translocation via two glycine transporters (GlyTs), namely GlyT1 and
GlyT2. At inhibitory synapses, GlyT2 was found to be specifically expressed by neurons,
supplying the presynapse with glycine needed for vesicle filling. In contrast, GlyT1 is attributed
to astrocytes and primarily mediates the termination of synaptic transmission by glycine
removal from the synaptic cleft. Employing patch-clamp recordings from principal neurons of
the lateral superior olive (LSO) in acute brainstem slices of GlyT1b/c knockout (KO) mice and
wildtype (WT) littermates at postnatal day 20, I analyzed how postsynaptic responses are
changed in a GlyT1-depleted environment. During spontaneous vesicle release I found no
change of postsynaptic responses, contradicting my initial hypothesis of prolonged decay
times. Electrical stimulation of fibers of the medial nucleus of the trapezoid body (MNTB),
which are known to form fast, reliable and highly precise synapses with LSO principal neurons,
revealed that GlyT1 is involved in proper synaptic function during sustained, high frequent
synaptic transmission. Stimulation with 50 Hz led to a stronger decay time and latency
prolongation in GlyT1b/c KO, accelerating to 60% longer decay times and 30% longer latencies.
Additionally, a more pronounced frequency-dependent depression and fidelity decrease was
observed during stimulation with 200 Hz in GlyT1b/c KO, resulting in 67% smaller amplitudes
and only 25% of WT fidelity at the end of the challenge. Basic properties like readily releasable
pool, release probability, and quantal size (q) were not altered in GlyT1b/c KO, but
interestingly q decreased during 50 Hz and 100 Hz challenges to about 84%, which was not
observed in WT. I conclude that stronger accumulation of extracellular glycine due to GlyT1
loss leads to prolonged activation of postsynaptic glycine receptors (GlyRs). As a further
consequence, activation of presynaptic GlyRs in the vicinity of the synaptic cleft might be
enhanced, accompanied by a stronger occurrence of shunting inhibition. Furthermore, I
assume a GlyT1-dependent glycine shuttle, which is absent at GlyT1b/c KO synapses. This
could result in a diminished glycine supply to GlyT2 located at more distant sites, causing a
disturbed replenishment during periods with excess release of glycine. Conclusively, my study
reveals a contribution of astrocytes in fast and reliable synaptic transmission at the MNTB-LSO
synapse, which in turn is crucial for proper sound source localization.
The main focus of the research lies in the interpretation and application of results and correlations of soil properties from in situ testing and subsequent use in terramechanical applications. The empirical correlations and current procedures were mainly developed for medium to large depths, and therefore they were re-evaluated and adjusted herein to reflect the current state of knowledge for the assessment of near-surface soil. For testing technologies, a field investigation to a moon analogue site was carried out. Focus was placed in the assessment of the near surface soil properties. Samples were collected for subsequent analysis in laboratory conditions. Further laboratory experiments in extraterrestrial soil simulants and other terrestrial soils were conducted and correlations with relative density and shear strength parameters were attempted. The correlations from the small scale laboratory experiments, and the new re-evaluated correlation for relative density were checked against the data from the field investigation. Additionally, single tire-soil tests were carried out, which enable the investigation of the localized soil response in order to advance current wheel designs and subsequently the vehicle’s mobility. Furthermore, numerical simulations were done to aid the investigation of the tire-soil interaction. Summing up, current relationships for estimating relative density of near surface soil were re-evaluated, and subsequently correlated to shear strength parameters that are the main input to model soil in numerical analyses. Single tire-soil tests were carried out and were used as a reference to calibrate the interaction of the tire and the soil and subsequently were utilized to model rolling scenarios which enable the assessment of soil trafficability and vehicle’s mobility.
Faser-Kunststoff-Verbunde erfahren aufgrund ihrer guten gewichtsspezifischen mechanischen Kennwerte eine zunehmende Verbreitung in verschiedensten Anwendungsfeldern. Eine Voraussetzung für die Ausnutzung der Leichtbaupotenziale bei gleichzeitiger Begrenzung der Herstellkosten ist jedoch eine werkstoffgerechte Lasteinleitung durch geeignete Verbindungsverfahren.
Gegenstand dieser Arbeit ist die Untersuchung eines Ansatzes zur Herstellung von Strukturen aus Faser-Kunststoff-Verbund durch eine getrennte Herstellung von teilausgehärteten Substrukturen mit anschließender Verbindung durch gemeinsame Vollaushärtung. Zur umfassenden Analyse der Prozessfenster und Potenziale werden zunächst am Beispiel eines faserverstärkten Werkstoffes auf Epoxidharzbasis die wichtigsten Zustands- und Eigenschaftsänderungen während der Vernetzung des Matrixharzes charakterisiert. Als Resultat dieser Analysen können die Entwicklung des Aushärtegrads bei verschiedener Temperaturführung im Aushärteprozess sowie die grundlegenden mechanischen Eigenschaften von Matrixwerkstoff und Verbund bei verschiedenen Aushärtegraden quantifiziert werden.
Aufbauend auf diesen Ergebnissen werden anhand experimenteller Untersuchungen an durch gemeinsame Aushärtung hergestellten Laminaten die Verbindungseigenschaften in Abhängigkeit von unterschiedlichen Einflussfaktoren ermittelt. Für die zwei Prozessvarianten Autoklavprozess und Resin Transfer Molding (RTM) wird die Energiefreisetzungsrate unter Mode I-Belastung bei Variation des Aushärtegrads der zu verbindenden Laminate analysiert. Die Variation der Verbindungseigenschaften wird anhand von rasterelektronenmikroskopischen Untersuchungen der Bruchfläche erklärt. Weiterhin wird der Einfluss der Oberflächeneigenschaften durch Anwendung verschiedener Vorbehandlungen analysiert. Die Oberflächeneigenschaften Oberflächenspannung, Topografie und chemische Zusammensetzung werden gemessen und hinsichtlich ihrer Prognosefähigkeit für die Verbindungseigenschaften diskutiert.
Zur Demonstration der Umsetzbarkeit der Herstellmethode auf Bauteilebene werden für den Einsatz im Luftfahrtbereich typische Details hergestellt und mechanisch geprüft. Die Eigenschaften der in der hier untersuchten Methodik hergestellten Details zeigen nur geringe Abweichungen im Vergleich zu denen der Referenzmethode.
Der Werkstoff Sheet Molding Compound (SMC) wurde in den 1960er Jahren entwickelt
und ermöglichte erstmals die großserientaugliche Herstellung von Faser-
Kunststoff-Verbund (FKV) Bauteilen. Heutzutage werden ca. 20 % aller in Europa
hergestellten Glasfasern in diesem Verfahren zu FKV verarbeitet. Die ökologischen
und ökonomischen Anforderungen an FKV-Bauteile steigen kontinuierlich. Es werden
immer leichtere, mechanisch höher belastbare und auch bio-basierte Pendants zu
bekannten Lösungen gefordert. Im Rahmen dieser Arbeit wurde der Einsatz von biobasierten
und nachwachsenden Rohstoffen als alternative Füllstoffe für duroplastische
SMC-Halbzeuge untersucht. Die Verarbeitung der alternativen Füllstoffe in
SMC-Halbzeugen darf keine negativen Einflüsse auf die Produktions- und Verarbeitungsabläufe
mit sich bringen. Weiterhin soll durch den Einsatz der alternativen Füllstoffe
eine Dichtereduktion um ca. 15 %, bei gleichbleibenden mechanischen Eigenschaften,
erreicht werden. Die Verwendung der bio-basierten und nachwachsenden
Füllstoffe darf nicht in Konkurrenz zur Nahrungsmittelindustrie stehen.
Zu Beginn der Arbeit wurden in Kooperation mit SMC-Experten und SMC-Herstellern
die Spezifikationen und Anforderungen an ein Standard-SMC definiert. Anschließend
wurde ein SMC-Halbzeug auf Basis eines ungesättigten Polyesterharzes, konventioneller
mineralischer Füllstoffe und Glasfasern entwickelt. Dieses Halbzeug erfüllt mit
einer Dichte von 1,95 g/cm³, einem E-Modul von 10,4 GPa und einer Zugfestigkeit
von 100 MPa die geforderten Spezifikationen und diente im weiteren Verlauf der Arbeit
als Referenz.
Im Rahmen der Arbeit wurde nachgewiesen, dass die Verarbeitung von bio-basierten
und nachwachsenden Rohstoffen eine Adaption der zuvor entwickelten Harzpaste
erfordert und Sonnenblumenkernschalenmehl als Füllstoff die konventionellen Füllstoffe
zu 100 % ersetzen kann. Die resultierende Halbzeugdichte beträgt 1,55 g/cm³
und liegt damit 20 % unter dem Referenzmaterial. Sowohl die mechanischen Kennwerte
(E-Modul 10,8 GPa und Zugfestigkeit 96 MPa) als auch die Herstellung und
Verarbeitung der Harzpaste erreichen die Referenzwerte und sind mit konventionellen
Halbzeugen vergleichbar. Im Rahmen der Arbeit konnte somit die Tauglichkeit
bio-basierter und nachwachsender Füllstoffe für einen möglichen Serieneinsatz in
SMC-Halbzeugen nachgewiesen werden.
Sheet Molding Compound (SMC) was developed in the 1960s and initially enabled
the production of glass fiber reinforced polymer composite (GFRPC) in mass scale
production. Nowadays, both material and process are well established for the production
of semi-structural components in various applications from construction industry
to automotive components. Currently, approximately 20% of all glass fibers produced
in Europe are processed to SMC. Increasing strict ecological and economical requirements
for construction materials, force further development of SMC in order to
strengthen its sales markets and open up new ones.
The objective of this work is the development of a SMC semi-finished product, using
bio-based and renewable materials as alternative filler materials. The processing of
the alternative fillers must not have any negative influence on the production and
processing procedures. Furthermore, the use of alternative fillers should achieve a
density reduction of 15% while maintaining the same mechanical properties. The use
of bio-based and renewable fillers must not compete with the food industry.
At first, specifications and requirements for a standard SMC were defined in cooperation
with SMC experts and producers. Afterwards a SMC semi-finished product
based on unsaturated polyester resin, glass fibers and conventional mineral fillers
was developed. With a density of 1.95 g/cm³, a Young’s modulus of 10.4 GPa and a
tensile strength of 100 MPa this SMC fulfills the specifications and is used as a reference
for further development.
In a second step a SMC with bio-based and renewable fillers was developed. This
work proofs the complete replacement of conventional filler materials by bio-based
and renewable filler materials. Therefore an adaption of the resin paste is necessary.
The best results were achieved with a resin paste using sunflower hulls flour as filler
material. The resulting semi-finished product shows a density of 1.55 g/cm³ and both
processability and mechanical properties are comparable to conventional SMC materials With a fiber mass content of 30% by weight, a Young’s modulus of 10.8 GPa
and a tensile strength of 96 MPa are achieved.
Modifizierte, phosphatfreie Organomineralharze in glas- und basaltfaserverstärkten Kunststoffen
(2019)
Die vorliegende Arbeit befasst sich mit der Modifikation duroplastischer, kalthärtender Organomineralharzmatrices für glas- und basaltfaserverstärkte Kunststoffe, welche zukünftig Anwendung in der Kurzliner-Sanierung defekter und korrosiv belasteter Rohrleitungen finden sollen. Bei dem heute zur Anwendung kommenden, so genannten 3P-Harz (Polyisocyanat, Polykieselsäure, Phosphat), dienen organische Phosphorsäureester als Emulgatoren der reaktiven PMDI/WG-Emulsion. Diese unterliegen jedoch der Gefahr, durch die EU-Verordnung REACH (EG-Nr. 1907/2006) restriktiert zu werden. Es wird gezeigt, dass die Substitution der organischen Phosphorsäureester durch epoxidiertes Leinsamenöl (ELO) aus nachwachsenden Rohstoffen ohne Einbußen der Verarbeitbarkeit und der (bruch-)mechanischen Eigenschaften möglich ist. Dadurch bleibt eine REACH-Konformität des Harzsystems gewährleistet. Die weitergehende gezielte Modifikation der in situ mit Polysilikatpartikeln gefüllten Polyharnstoffharze mittels silan-terminierter Polymere (STP) führt außerdem zu Verbesserungen der Bruchzähigkeit durch Matrix/Partikel-Brückenbildungen.
Gegenüber dem phosphathaltigen Stand der Technik Harz wird durch die entwickelten 2P-Matrices (Polyisocyanat, Polykieselsäure) eine erhöhte Schadenstoleranz in GFK wie auch in neuartigen BFK nachgewiesen. Ferner wird die Dauerhaftigkeit erhöht und ein unerwünschtes Ausdiffundieren phosphathaltiger, umweltbelastender Emulgatoren wird vermieden. Es werden synergistische Effekte wirksam, welche aufgrund der STP-Modifikation in GFK und neuartigen BFK zu einer verbesserten Faser/Matrix-Haftung und somit einer erhöhten Lebensdauer führen. Der Einsatz von glasähnlichen aber thermisch- und korrosionsbeständigen Basaltfasern, welche in energiearmen Prozessen aus natürlichem Lavagestein gewonnen werden, wird positiv bewertet.
Eine große Bandbreite tribologisch belasteter Bauteile kann durch Verwendung einer Oberflächenbeschichtung verbessert werden. Mit Beschichtungswerkstoffen aus Hochleistungspolymeren und funktionellen Füllstoffen lassen sich in tribologischen Systemen niedrige Reib- und Verschleißwerte realisieren.
Diese Arbeit zielt auf die Entwicklung von PBI (Polybenzimidazol)-Hochleitungsbeschichtungen für den Einsatz in tribologisch beanspruchten Systemen ab. Die gewonnenen Erkenntnisse ergänzen die bislang unzureichend beschriebenen bzw. erforschten Prozesse zur Herstellung von PBI-basierten Beschichtungen. Als Matrixmaterialien werden PBI sowie PAI (Polyamidimid) als Referenzsystem untersucht. Eine systematische Entwicklung von Lösungsprozessen bildet dabei das erste Prozessfenster zur Herstellung von gelöstem und flüssig verarbeitbarem PBI.
Die Entwicklung der Temperprozesse, basierend auf thermischen Analysen mittels dynamischen Differenzkalorimetrie (DSC), stellt in dieser Arbeit ein weiteres Prozessfenster der Beschichtungsherstellung dar. Die daraus resultierenden ungefüllten PBI-Schichten (ohne Füllstoffe) werden systematischen Untersuchungen unterzogen. Thermische Untersuchungen, wie Thermogravimetrie (TGA), die dynamisch-mechanisch-thermische Analyse (DMTA) sowie DSC-Messungen, veranschaulichen die hohe Temperaturbeständigkeit und damit ein breites Temperatureinsatzfenster der PBI-Beschichtungen.
Tribologische Untersuchungsergebnisse, insbesondere der Gleitverschleißprüfungen an ungefüllten PBI-Beschichtungen, stellen dessen hervorragende tribologische Leistungsfähigkeit im Vergleich zu den am Markt etablierten PAI-Systemen dar. Begleitend zu tribologischen Analysen werden mechanische, thermische und strukturelle Untersuchungen durchgeführt und miteinander in Korrelation gebracht.Die Herstellung von PBI-PAI-Blends und die anschließenden tribologischen, mechanischen, thermischen und strukturellen Untersuchungen zeigen das Verbesserungspotential eines PAI-Systems durch die Zugabe von PBI-Anteilen. Die Ergebnisse zeigten, dass es möglich ist, ein PAI-System durch die Zugabe von PBI-Anteilen den speziellen Anwendungen entsprechend anzupassen.
Die Modifizierung der PBI-Beschichtungen mit Füllstoffen wie Graphit, PTFE usw. sowie deren Bewertung anhand von Gleitverschleißuntersuchungen, bei Variation der Prüfparameter, ermöglichen einen direkten Vergleich mit marktetablierten PAI-Beschichtungscompound und einem kommerziell erhältlichen PBI-Halbzeug. Die ermittelten Messwerte verdeutlichen hierbei das Potential (Verschleißwiderstand, thermische Stabilität) von PBI-Beschichtungen in tribologisch hoch belasteten Systemen.
Zur Verbesserung der Abrasivbeständigkeit werden die PBI-Beschichtungen mit harten Titancarbid-Partikeln verstärkt. Eine systematische Untersuchung der Abrasion sowie ein Modell zur Vorhersage des Abrasivverschleißes werden erarbeitet.
A wide range of tribologically stressed components can be improved by using a surface coating. Coatings based on high-performance polymers and functional fillers lead to low friction and wear in tribological systems.
The objective of this work is the development of high performance coatings based on polybenzimidazole for tribologically stressed systems. The investigations should complete the inadequately described or researched processes for the production of PBI-based coatings. The matrix materials investigated are PBI and PAI (reference system). The systematic development of solution processes represents the first process window for the production of dissolved and liquid processable PBI.
The development of annealing processes, based on thermal analyzes (DSC), represents an additional process window of coating production in this work. The resulting pure PBI coatings (without fillers) are subjected to systematic investigations. Thermal characterizations such as Thermogravimetry (TGA), Dynamic Mechanical Thermal Analysis (DMTA) and Differential Scanning Calorimetry (DSC) measurements demonstrate the high temperature resistance and a wide temperature range of PBI coatings.
Tribological test results, in particular the sliding wear tests on pure PBI coatings, show their outstanding tribological performance in comparison to the PAI systems established on the market. Accompanying to tribological analyzes, mechanical, thermal and structural investigations are carried out and correlated with each other.
The preparation of PBI-PAI blends and the subsequent tribological, mechanical, thermal and structural investigations show the potential for improvement of a PAI system by the addition of PBI fractions. The possibility of adapting a PAI system to the relevant applications by adding PBI fractions to reduce the high material costs of the PBI polymer is presented in this work.
The modification of the PBI coatings with fillers such as graphite, PTFE, etc. as well as the subsequent sliding wear tests, with variation of the test parameters (pressure and
velocity-variation), allow a direct comparison with the market-established PAI coating compound and a commercially available PBI bulk material. The measured values illustrate the suitability of PBI coatings for tribologically highly loaded systems.
To improve the abrasion resistance, the PBI coatings are reinforced with hard titanium carbide particles. Systematic investigations on the abrasion wear as well as a model for the prediction of the abrasive wear are developed.
Faserkunststoffverbunde (FKV) haben durch die Substitution metallischer Strukturen
ein großes Leichtbaupotential. Die Integration von aktiven Materialien wie Formgedächtnislegierungen
(FGL) in Bauteile aus FKV ermöglicht die Herstellung aktiver
Hybridverbunde, wodurch eine zusätzliche Bauraum- und Gewichtsersparnis möglich
ist bzw. völlig neue Lösungsansätze denkbar werden.
Dabei hat die Kraftübertragung zwischen FGL und FKV einen entscheidenden Einfluss
auf die Performance solcher aktiver Hybridverbunde. Nur bei einer ausreichenden
Kraftübertragung kann das vollständige Aktorikpotential der FGL ausgenutzt
werden. Dabei sind zwei Bereiche zu unterscheiden, die sich durch unterschiedliche
Belastungsszenarien auszeichnen. Während im Randbereich Schubspannungen auftreten,
da dort die Kraft aus der FGL in den FKV eingeleitet wird, ist der mittlere Bereich
von Normalspannungen geprägt, die zu einem Ablösen der FGL vom FKV führen
können.
Im Rahmen dieser Arbeit wurden deshalb Methoden zur Charakterisierung der Kraftübertragung
in beiden Bereichen identifiziert. Zusätzlich wurden verschiedene Kraftübertragungsmechanismen
vergleichend untersucht. Durch eine modellhafte Betrachtung
wurde ein besseres Verständnis der Versagensmechanismen erreicht.
Dabei konnte gezeigt werden, dass mittels Pull-Out Versuchen ein Vergleich zwischen
verschiedenen Kraftübertragungsmechanismen möglich ist. Formschlüssige
Verbindungen ermöglichten eine Steigerung der Pull-Out Kraft um mehr als das 10-
fache im Vergleich zu unbehandelten Drähten. Allerdings wurde auch deutlich, dass
die Temperatur großen Einfluss auf die Matrixeigenschaften und damit auf das Interface
zwischen FGL und FKV hat. Durch die Verwendung einer Spannungsoptik
konnte die inhomogene Spannungsverteilung sowie der Versagensfortschritt visualisiert
werden. Mit Hilfe von 90°-Schälversuchen konnte gezeigt werden, dass durch
das Aufsticken der FGL-Drähte auf dem FKV ein Ablösen im mittleren Bereich verhindert
werden kann. Anhand von Verformungsversuchen an aktiven Hybridverbunden
konnten diese Ergebnisse bestätigt werden. Durch die in dieser Arbeit gewonnenen Ergebnisse ist zukünftig möglich, die Performance aktiver Hybridverbunde zu steigern, da die von den FGL generierte Kraft nahezu vollständig in den Hybridverbund eingeleitet werden kann, ohne dass es zu einem strukturellen Versagen kommt.
In this thesis, we deal with the worst-case portfolio optimization problem occuring in discrete-time markets.
First, we consider the discrete-time market model in the presence of crash threats. We construct the discrete worst-case optimal portfolio strategy by the indifference principle in the case of the logarithmic utility. After that we extend this problem to general utility functions and derive the discrete worst-case optimal portfolio processes, which are characterized by a dynamic programming equation. Furthermore, the convergence of the discrete worst-case optimal portfolio processes are investigated when we deal with the explicit utility functions.
In order to further study the relation of the worst-case optimal value function in discrete-time models to continuous-time models we establish the finite-difference approach. By deriving the discrete HJB equation we verify the worst-case optimal value function in discrete-time models, which satisfies a system of dynamic programming inequalities. With increasing degree of fineness of the time discretization, the convergence of the worst-case value function in discrete-time models to that in continuous-time models are proved by using a viscosity solution method.
Wetted contacts play an important role in many fields. A prominent example in engineering is the lubricated contact between tool and workpiece in machining processes with cutting liquids. In such contacts, highly dynamic processes occur in the fluid at small length scales under extreme conditions regarding temperature, pressure, and shear. Experimental studies of these phenomena are generally not feasible. Thus, only little information on the actual processes in the contact zone is available. A tractable route for obtaining such information is molecular dynamics (MD) simulation. As input for these simulations, only a potential model that describes the interactions on the atomistic scale, is needed. On that basis also complex processes can be predicted. In the present work, a simple model potential was used, i.e. the Lennard-Jones truncated and shifted potential (LJTS), which was parameterized to describe the solids, the fluid, and their interactions. A novel method for determining fluid properties with non-equilibrium MD simulations was developed, which yields thermal, caloric and transport properties in a single simulation run. It can also be used for studying the influence of shear on these properties. With the new method, a comprehensive study of properties of the LJTS fluid was carried out. Furthermore, it was investigated how these fluid properties change near the solid-fluid interface and how these changes affect the conductive heat transfer between the solid and the fluid. Finally, a nanotribological process was studied, in which all these phenomena occur simultaneously.
Untersuchung der spektroskopischen und kinetischen Eigenschaften von Dihydroxysäure-Dehydratasen
(2019)
Eisen-Schwefel-Cluster sind wichtige Cofaktoren, die an der Redox- und Nicht-Redox-Katalyse beteiligt sind. Enzyme der Lyase-Familie wie Aconitase, Fumarase und DihydroxysäureDehydratase enthalten Cluster, die an drei Cystein-Liganden koordiniert sind. Das Eisenion, das an einen Nicht-Cysteinyl-Liganden koordiniert ist, wirkt als Lewis-Säure und interagiert mit dem Substrat über die Hydroxygruppe des dritten Kohlenstoffatoms und der Carboxygruppe. Das in dieser Arbeit untersuchte Enzym ist die Dihydroxysäure-Dehydratase (DHAD), welche an der Biosynthese der Aminosäuren Isoleucin, Leucin und Valin beteiligt ist. In dieser Arbeit wurden die kinetischen und spektroskopischen Eigenschaften von DHAD aus Streptococcus mutans, Streptococcus thermophilus, Saccharomyces cerevisiae und Escherichia coli untersucht. Zu diesem Zweck wurden ihre Gene kloniert und die Proteine in E. coli Zellen exprimiert. Nach der Proteinreinigung zeigten die UV-Vis-, ESR- und Mössbauer-Spektroskopie die Anwesenheit eines [2Fe-2S]2+-Clusters in der S. mutans DHAD, eines [4Fe-4S]2+-Cluster in E. coli DHAD und einer Mischung von [2Fe-2S]2+- und [4Fe-4S]2+ -Cluster in der S. cerevisiae DHAD. Darüber hinaus unterstützten die Ergebnisse der Sauerstoffstabilitätstests und des Eisen- und säurelabilen Sulfidgehalts die spektroskopischen Analysen. MössbauerSpektroskopie lieferte zusätzlich Information für das Vorhandensein eines nicht-cysteinyl-koordinierten Eisenions in den Clustern der S. mutans und in E. coli DHAD. Enzymaktivitätsmessungen mit dem Dinitrophenylhydrazin-Assay und den hier etablierten gekoppelten Assays mit NADH-abhängigen Ketoisovalerat-reduzierenden Dehydrogenasen wurden durchgeführt, um die spezifischen Aktivitäten und die kinetischen Parameter der DHAD zu bestimmen. Interaktionsstudien der S. mutans DHAD mit dem Substrat, dem Produkt, den substrat- und produktähnlichen Verbindungen mittels UV-Vis-, ESR-, Mössbauer- und FT-IR-Spektroskopie zeigten, dass nur das (2R)-Isomer des Substrats und 2-Ketosäuren (KIV, Kbut) mit dem Cluster der S. mutans DHAD interagierten. Das DHAD-Produkt (2-Ketoisovalerat) interagiert vermutlich über seine Enolform mit dem Cluster. Interessanterweise wurde starke Interaktion des Clusters mit der β-Mercaptogruppe von 3-Mercaptopropionat beobachtet. Diese Wechselwirkung wurde unabhängig durch Inhibitionsstudien verifiziert. Anschließend zeigte eine Gelfiltrationsanalyse die Reversibilität der Interaktionen. Insgesamt hat die vorliegende Arbeit unser Wissen über die biotechnologisch wichtigen DHAD-Enzyme erweitert.
Although today’s bipeds are capable of demonstrating impressive locomotion skills, in many aspects, there’s still a big gap compared to the capabilities observed in humans. Partially, this is due to the deployed control paradigms that are mostly based on analytical approaches. The analytical nature of those approaches entails strong model dependencies – regarding the robotic platform as well as the environment – which makes them prone to unknown disturbances. Recently, an increasing number of biologically-inspired control approaches have been presented from which a human-like bipedal gait emerges. Although the control structures only rely on proprioceptive sensory information, the smoothness of the motions and the robustness against external disturbances is impressive. Due to the lack of suitable robotic platforms, until today the controllers have been mostly applied to
simulations.
Therefore, as the first step towards a suitable platform, this thesis presents the Compliant Robotic Leg (CARL) that features mono- as well as biarticular actuation. The design is driven by a set of core-requirements that is primarily derived from the biologically-inspired behavior-based bipedal locomotion control (B4LC) and complemented by further functional aspects from biomechanical research. Throughout the design process, CARL is understood as a unified dynamic system that emerges from the interplay of the mechanics, the electronics, and the control. Thus, having an explicit control approach and the respective gait in mind, the influence of each subsystem on the characteristics of the overall system is considered
carefully.
The result is a planar robotic leg whose three joints are driven by five highly integrated linear SEAs– three mono- and two biarticular actuators – with minimized reflected inertia. The SEAs are encapsulated by FPGA-based embedded nodes that are designed to meet the hard application requirements while enabling the deployment of a full-featured robotic framework. CARL’s foot is implemented using a COTS prosthetic foot; the sensor information is obtained from the deformation of its main structure. Both subsystems are integrated into a leg structure that matches the proportions of a human with a size of 1.7 m.
The functionality of the subsystems, as well as the overall system, is validated experimentally. In particular, the final experiment demonstrates a coordinated walking motion and thereby confirms that CARL can produce the desired behavior – a natural looking, human-like gait is emerging from the interplay of the behavior-based walking control and the mechatronic system. CARL is robust regarding impacts, the redundant actuation system can render the desired joint torques/impedances, and the foot system supports the walking structurally while it provides the necessary sensory information. Considering that there is no movement of the upper trunk, the angle and torque profiles are comparable to the ones found in humans.
Interconnection networks enable fast data communication between components of a digital system. The selection of an appropriate interconnection network and its architecture plays an important role in the development process of the system. The selection of a bad network architecture may significantly delay the communication between components and decrease the overall system performance.
There are various interconnection networks available. Most of them are blocking networks. Blocking means that even though a pair of source and target components may be free, a connection between them might still not be possible due to limited capabilities of the network. Moreover, routing algorithms of blocking networks have to avoid deadlocks and livelocks, which typically does only allow poor real-time guarantees for delivering a message. Nonblocking networks can always manage all requests that are coming from their input components and can therefore deliver all messages in guaranteed time, i.e, with strong real-time guarantees. However, only a few networks are nonblocking and easy to implement. The simplest one is the crossbar network which is a comparably simple circuit with also a simple routing algorithm. However, while its circuit depth of O(log(n)) is optimal, its size increases with O(n^2) and quickly becomes infeasible for large networks. Therefore, the construction of nonblocking networks with a quasipolynomial size O(nlog(n)^a) and polylogarithmic depth O(log(n)^b) turned out as a research problem.
Benes [Clos53; Bene65] networks were the first non blocking networks having an optimal size of O(nlog(n)) and an optimal depth of O(log(n)), but their routing algorithms are quite complicated and require circuits of depth O(log(n)^2) [NaSa82].
Other nonblocking interconnection networks are derived from sorting networks. Essentially, there are merge-based (MBS) and radix-based (RBS) sorting networks. MBS and RBS networks can be both implemented in a pipelined fashion which leads to a big advantage for their circuit implementation. While these networks are nonblocking and can implement all n! permutations, they cannot directly handle partial permutations that frequently occur in practice since not every input component communicates at every point of time with an output component. For merge-based sorting networks, there is a well known general solution called the Batcher-Banyan network. However, for the larger class of radix-based sorting networks this does not work, and there is only one solution known for a particular permutation network.
In this thesis, new nonblocking radix-based interconnection networks are presented. In particular, for a certain permutation network, three routing algorithms are developed and their circuit implementations are evaluated concerning their size, depth, and power consumption. A special extension of these networks allows them to route also partial permutations. Moreover, three general constructions to convert any binary sorter into a ternary split module were presented which is the key to construct a radix-based interconnection network that can cope with partial permutations. The thesis compares also chip designs of these networks with other radix-based sorting networks as well as with the Batcher-Banyan networks as competitors. As a result, it turns out that the proposed radix-based networks are superior and could form the basis of larger manycore architectures.
Ein Beitrag zur Zustandsschätzung in Niederspannungsnetzen mit niedrigredundanter Messwertaufnahme
(2020)
Durch den wachsenden Anteil an Erzeugungsanlagen und leistungsstarken Verbrauchern aus dem Verkehr- und Wärmesektor kommen Niederspannungsnetze immer näher an ihre Betriebsgrenzen. Da für die Niederspannungsnetze bisher keine Messwerterfassung vorgesehen war, können Netzbetreiber Grenzverletzungen nicht erkennen. Um dieses zu ändern, werden deutsche Anschlussnutzer in Zukunft flächendeckend mit modernen Messeinrichtungen oder intelligenten Messsystemen (auch als Smart Meter bezeichnet) ausgestattet sein. Diese sind in der Lage über eine Kommunikationseinheit, das Smart-Meter-Gateway, Messdaten an die Netzbetreiber zu senden. Werden Messdaten aber als personenbezogene Netzzustandsdaten deklariert, so ist aus Datenschutzgründen eine Erhebung dieser Daten weitgehend untersagt.
Ziel dieser Arbeit ist es eine Zustandsschätzung zu entwickeln, die auch bei niedrigredundanter Messwertaufnahme für den Netzbetrieb von Niederspannungsnetzen anwendbare Ergebnisse liefert. Neben geeigneten Algorithmen zur Zustandsschätzung ist dazu die Generierung von Ersatzwerten im Fokus.
Die Untersuchungen und Erkenntnisse dieser Arbeit tragen dazu bei, den Verteilnetzbetreibern bei den maßgeblichen Entscheidungen in Bezug auf die Zustandsschätzung in Niederspannungsnetzen zu unterstützen. Erst wenn Niederspannungsnetze mit Hilfe der Zustandsschätzung beobachtbar sind, können darauf aufbauende Konzepte zur Regelung entwickelt werden, um die Energiewende zu unterstützen.
Die vorliegende Arbeit beschäftigt sich mit der Ermittlung und Analyse von Faktoren der haus-ärztlichen Standortfaktoren im ländlichen Raum.
Lebensqualität gerade auch in ländlichen Räumen in Deutschland ist vor allem daran geknüpft, welche Angebote der Daseinsvorsorge vor Ort bestehen. Die ambulante medizinische Versorgung nimmt dabei eine Schlüsselstellung ein, gerade vor dem Hintergrund einer im Zuge des demographischen Wandels immer älter werdenden Gesellschaft, insbesondere auf dem Land.
Niedergelassene Ärzte bilden dabei das Rückgrat einer bedarfsgerechten flächenhaften Versorgung, von denen wiederum die Hausärzte als Generalisten mit bislang sehr kleinräumiger Verteilungsstruktur erster Ansprechpartner für Patienten sind. Allerdings werden in Zukunft viele Hausarztsitze nicht mehr adäquat nachbesetzt werden können, da es zu wenige Nachfolger gibt. Unter dem gegenwärtigen Ungleichgewicht von Angebot und Nachfrage an Hausarztpraxen existiert kein funktionsfähiges Verteilungssystem zur Erreichung einer möglichst homogenen Flächenversorgung. Umso wichtiger ist es, den Prozess der Standortentscheidung von Hausärzten möglichst gut nachvollziehen zu können, um festzustellen anhand welcher Kriterien Hausärzte ihren Standort festlegen. In dieser Arbeit werden darum zunächst auf Expertenaussagen gestützte unternehmerische und private Faktoren ermittelt, die bei der hausärztlichen Standortwahl von Relevanz sein können.
Die Gründe für den bevorstehenden und bereits in manchen Regionen bemerkbaren Hausarztmangel liegen dabei zum einen im Ausbildungssystem, wo im langjährigen Verlauf Schwankungen in der Ausbildungsmenge und Missverhältnisse zur Bedarfsmenge an Ärzten zur einer aktuelle Verknappung beigetragen haben. Ebenso wurde die frühere Dominanz an männlichen Medizinstudenten durch eine Dominanz weiblicher Nachwuchsmediziner abgelöst, mit neuen Standortansprüchen und gewünschten Arbeitsformen. Allerdings nicht nur weibliche Nachwuchsmediziner bevorzugen heute Arbeitsmodelle, in denen sie ein Höchstmaß an Flexibilität haben, was vor allem in immer begehrter werdende Teamarbeit, Teilzeittätigkeiten, Anstellungs- anstelle von freiberuflichen Tätigkeitsformen und damit insgesamt in vor allem präferierte Tätigkeiten im stationären Versorgungsbereich hinausläuft. Die eher unattraktiven Arbeitsbedingungen als Hausarzt mit hoher Arbeitsbelastung mit im Vergleich zu anderen Facharztgruppen wenig attraktivem Gehalt tun ihr Übriges zur zunehmenden Verschmähung der allgemeinmedizinischen Weiterbildung zum Hausarzt bei, stattdessen findet immer häufiger eine Spezialisierung unter Nachwuchsmedizinern statt.
Alle angedachten bzw. in Umsetzung begriffene Maßnahmen zur Attraktivierung des Haus- bzw. Landarztberufs, vor allem finanzielle Anreize und Imagekampagnen, aber auch der Aufbau größerer Versorgungseinrichtungen, telemedizinischer Behandlungsmöglichkeiten und nicht-ärztlicher Delegationsformen, haben bislang nicht den erhofften Effekt einer Stabilisierung der Versorgungssituation. Dies gilt besonders auch im ländlichen Raum, wo die Ausstattung an Einrichtungen der Daseinsvorsorge in aller Regel nicht mit städtischen Qualitätsstandards mithalten kann. Bei einer relativ großen Wahlfreiheit durch nicht besetzbare Stellen und Posten älterer Ärzte bestehen für Nachwuchsmediziner jedoch heute gerade auch in dieser räumlichen Hinsicht größtmögliche Entscheidungsfreiheiten. Dies führt bereits heute zu einer Bevorzugung städtischer Räume als Arbeitsstandort und verschärft so zusätzlich die hausärztliche Versorgungslage im ländlichen Raum.
Im Rahmen einer empirischen Untersuchung an standardisiert befragten Hausärzten der zuvor gebildeten Modellräume Eifel und Unterfranken wurde dazu untersucht, welche unternehmerischen und privaten Faktoren überhaupt Hausärzte in die ländlichen Räume ziehen und ob diese im zeitlichen Verlauf sind. Neben den ökonomisch günstigen Voraussetzungen für Hausärzte mit leicht verfügbarer Kassenzulassung und großer Patientenzahl spricht dabei vor allem der landschaftliche Reiz für eine Niederlassung im ländlichen Raum. Von besonderer Relevanz war bislang auch immer das kinderfreundliche Lebensumfeld mit entsprechend vorgehaltenen Bildungseinrichtungen, allerdings verliert dieser Faktor durch den immer seltener werdenden Kin-der Wunsch langsam an Bedeutung unter den Hausärzten.
Jedoch bestehen zudem eine Reihe von sekundär bedeutsamen Faktoren, die auch vor Ort gestaltbar sein und so von innen heraus die Nachwuchsmediziner in Richtung ländlicher Räume ziehen können. Dazu zählen medizinische Einrichtungen (v.a. Fachärzte und Kliniken), Einkaufsmöglichkeiten, Sportstätten und das kulturelle Angebot.
Diese Faktoren gilt es zu stärken bzw. etwaige Schwächen ländlicher Räume in dieser Hinsicht mit kompensatorischen Maßnahmen inner- und überregional zu begegnen. Insbesondere wird es für eine zukünftig adäquate hausärztliche Versorgung unerlässlich sein, stärker auf die Interessen und Standortanforderungen weiblicher Mediziner mit besseren Betreuungsangeboten für Kinder, beruflichen Entfaltungsmöglichkeiten für Ehepartner, aber auch gewünschten Arbeitsorganisationsformen mit einem Mehr an Teamarbeit und flexiblen Arbeitsmodellen und -zeiten an zentraleren Standorten einzugehen.
With the technological advancement in the field of robotics, it is now quite practical to acknowledge the actuality of social robots being a part of human's daily life in the next decades. Concerning HRI, the basic expectations from a social robot are to perceive words, emotions, and behaviours, in order to draw several conclusions and adapt its behaviour to realize natural HRI. Henceforth, assessment of human personality traits is essential to bring a sense of appeal and acceptance towards the robot during interaction.
Knowledge of human personality is highly relevant as far as natural and efficient HRI is concerned. The idea is taken from human behaviourism, with humans behaving differently based on the personality trait of the communicating partners. This thesis contributes to the development of personality trait assessment system for intelligent human-robot interaction.
The personality trait assessment system is organized in three separate levels. The first level, known as perceptual level, is responsible for enabling the robot to perceive, recognize and understand human actions in the surrounding environment in order to make sense of the situation. Using psychological concepts and theories, several percepts have been extracted. A study has been conducted to validate the significance of these percepts towards personality traits.
The second level, known as affective level, helps the robot to connect the knowledge acquired in the first level to make higher order evaluations such as assessment of human personality traits. The affective system of the robot is responsible for analysing human personality traits. To the best of our knowledge, this thesis is the first work in the field of human-robot interaction that presents an automatic assessment of human personality traits in real-time using visual information. Using psychology and cognitive studies, many theories has been studied. Two theories have been been used to build the personality trait assessment system: Big Five personality traits assessment and temperament framework for personality traits assessment.
By using the information from the perceptual and affective level, the last level, known as behavioural level, enables the robot to synthesize an appropriate behaviour adapted to human personality traits. Multiple experiments have been conducted with different scenarios. It has been shown that the robot, ROBIN, assesses personality traits correctly during interaction and uses the similarity-attraction principle to behave with similar personality type. For example, if the person is found out to be extrovert, the robot also behaves like an extrovert. However, it also uses the complementary attraction theory to adapt its behaviour and complement the personality of the interaction partner. For example, if the person is found out to be self-centred, the robot behaves like an agreeable in order to flourish human-robot interaction.
Untersuchungen zur Struktur und Spezifität der Phycobiliproteinlyase CPES aus Guillardia theta
(2020)
Cryptophyten verwenden neben Chlorophyll zusätzliche Lichtsammelproteine für die Photo-synthese – die Phycobiliproteine (PBP). In Cyanobakterien, Rotalgen und Glaukophyten sind PBP ebenfalls ubiquitär verbreitet. Für den Zweck der Lichtsammlung tragen die PBP- Untereinheiten kovalent gebundene offenkettige Tetrapyrrol-Chromophore an konservierten Cysteinresten. Diese Phycobiline sind in der Lage, grünes Licht zu absorbieren und es für die Photosynthese zur Verfügung zu stellen. Die Fähigkeit zur Photosynthese erlangten Crypto-phyten bei der sekundären Endosymbiose durch Aufnahme einer früheren Rotalge. Die evolutionäre Entwicklung brachte schließlich modifizierte PBP hervor. In Gegensatz zu ande-ren Organismen liegen die PBP in Cryptophyten in löslicher Form im Thylakoidlumen des Plastiden vor. Cryptophyten besitzen lediglich einen Typ an PBP, Guillardia theta verwendet Phycoerythrin PE545. Die α-Untereinheiten sind jeweils mit einem Molekül 15,16-Dihydrobi-liverdin (DHBV) und die β-Untereinheiten mit drei Molekülen Phycoerythrobilin (PEB) chromophoryliert. Die Chromophorylierung cryptophytischer Apo-PBP ist bisher wenig un-tersucht und verstanden. Aus Cyanobakterien ist jedoch bekannt, dass die Chromophorylie-rung häufig mit Hilfe von Phycobiliproteinlyasen (PBP Lyasen) stattfindet, welche die Phyco-bilinübertragung unterstützen.
In der vorliegenden Arbeit erfolgte die funktionelle Charakterisierung der eukaryotischen S-Typ-PBP Lyase GtCPES aus G. theta. Mittels Fluoreszenzspektroskopie und Zink-induzierter Fluoreszenz konnte gezeigt werden, dass GtCPES den Transfer von 3(Z)-PEB auf Cys82 der PBP-β-Untereinheit aus Prochlorococcus marinus MED4 (PmCpeB) vermittelt. An der PEB-Bindung sowie am -Transfer beteiligte Aminosäuren wurden mit Hilfe Zielgerichteter Muta-genese identifiziert. Anhand spektroskopischer Binde- und Transferstudien mit den Protein-varianten wurden drei Aminosäuren in der Ligandenbindetasche ermittelt, die relevant für die Bindung sind (Trp69, Glu136, Glu168). Diese koordinieren vermutlich PEB in der Bindetasche und stabilisieren somit die Konformation. Zusätzlich konnten zwei im PEB-Transfer involvierte Aminosäuren eindeutig identifiziert werden (Trp75, Ser150). Trp75 kommt dabei eine essenzielle Bedeutung für den Transfer zu. Des Weiteren konnte gezeigt werden, dass Met67 für die auf PEB und DHBV beschränkte Substratspezifität von GtCPES verantwortlich ist. Die Variante GtCPES_M67A bindet sowohl PEB als auch das rigide Phycocyanobilin (PCB) stabil unter Bildung eines farbigen Komplexes in vitro und in vivo in Escherichia coli. GtCPES_M67A scheint zudem in der Lage zu sein, PCB auf geeignete Apo-Proteine zu transfe-rieren. Neben der sterischen und elektrostatischen Umgebung entscheidet damit zusätzlich die Substratspezifität der PBP Lyase über die gebundenen Chromophore am PBP.
In this thesis we study a variant of the quadrature problem for stochastic differential equations (SDEs), namely the approximation of expectations \(\mathrm{E}(f(X))\), where \(X = (X(t))_{t \in [0,1]}\) is the solution of an SDE and \(f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R}\) is a functional, mapping each realization of \(X\) into the real numbers. The distinctive feature in this work is that we consider randomized (Monte Carlo) algorithms with random bits as their only source of randomness, whereas the algorithms commonly studied in the literature are allowed to sample from the uniform distribution on the unit interval, i.e., they do have access to random numbers from \([0,1]\).
By assumption, all further operations like, e.g., arithmetic operations, evaluations of elementary functions, and oracle calls to evaluate \(f\) are considered within the real number model of computation, i.e., they are carried out exactly.
In the following, we provide a detailed description of the quadrature problem, namely we are interested in the approximation of
\begin{align*}
S(f) = \mathrm{E}(f(X))
\end{align*}
for \(X\) being the \(r\)-dimensional solution of an autonomous SDE of the form
\begin{align*}
\mathrm{d}X(t) = a(X(t)) \, \mathrm{d}t + b(X(t)) \, \mathrm{d}W(t), \quad t \in [0,1],
\end{align*}
with deterministic initial value
\begin{align*}
X(0) = x_0 \in \mathbb{R}^r,
\end{align*}
and driven by a \(d\)-dimensional standard Brownian motion \(W\). Furthermore, the drift coefficient \(a \colon \mathbb{R}^r \to \mathbb{R}^r\) and the diffusion coefficient \(b \colon \mathbb{R}^r \to \mathbb{R}^{r \times d}\) are assumed to be globally Lipschitz continuous.
For the function classes
\begin{align*}
F_{\infty} = \bigl\{f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R} \colon |f(x) - f(y)| \leq \|x-y\|_{\sup}\bigr\}
\end{align*}
and
\begin{align*}
F_p = \bigl\{f \colon C([0,1],\mathbb{R}^r) \to \mathbb{R} \colon |f(x) - f(y)| \leq \|x-y\|_{L_p}\bigr\}, \quad 1 \leq p < \infty.
\end{align*}
we have established the following.
\[\]
\(\textit{Theorem 1.}\)
There exists a random bit multilevel Monte Carlo (MLMC) algorithm \(M\) using
\[
L = L(\varepsilon,F) = \begin{cases}\lceil{\log_2(\varepsilon^{-2}}\rceil, &\text{if} \ F = F_p,\\
\lceil{\log_2(\varepsilon^{-2} + \log_2(\log_2(\varepsilon^{-1}))}\rceil, &\text{if} \ F = F_\infty
\end{cases}
\]
and replication numbers
\[
N_\ell = N_\ell(\varepsilon,F) = \begin{cases}
\lceil{(L+1) \cdot 2^{-\ell} \cdot \varepsilon^{-2}}\rceil, & \text{if} \ F = F_p,\\
\lceil{(L+1) \cdot 2^{-\ell} \cdot \max(\ell,1) \cdot \varepsilon^{-2}}\rceil, & \text{if} \ F=f_\infty
\end{cases}
\]
for \(\ell = 0,\ldots,L\), for which exists a positive constant \(c\) such that
\begin{align*}
\mathrm{error}(M,F) = \sup_{f \in F} \bigl(\mathrm{E}(S(f) - M(f))^2\bigr)^{1/2} \leq c \cdot \varepsilon
\end{align*}
and
\begin{align*}
\mathrm{cost}(M,F) = \sup_{f \in F} \mathrm{E}(\mathrm{cost}(M,f)) \leq c \cdot \varepsilon^{-2} \cdot \begin{cases}
(\ln(\varepsilon^{-1}))^2, &\text{if} \ F=F_p,\\
(\ln(\varepsilon^{-1}))^3, &\text{if} \ F=F_\infty
\end{cases}
\end{align*}
for every \(\varepsilon \in {]0,1/2[}\).
\[\]
Hence, in terms of the \(\varepsilon\)-complexity
\begin{align*}
\mathrm{comp}(\varepsilon,F) = \inf\bigl\{\mathrm{cost}(M,F) \colon M \ \text{is a random bit MC algorithm}, \mathrm{error}(M,F) \leq \varepsilon\bigr\}
\end{align*}
we have established the upper bound
\begin{align*}
\mathrm{comp}(\varepsilon,F) \leq c \cdot \varepsilon^{-2} \cdot \begin{cases}
(\ln(\varepsilon^{-1}))^2, &\text{if} \ F=F_p,\\
(\ln(\varepsilon^{-1}))^3, &\text{if} \ F=F_\infty
\end{cases}
\end{align*}
for some positive constant \(c\). That is, we have shown the same weak asymptotic upper bound as in the case of random numbers from \([0,1]\). Hence, in this sense, random bits are almost as powerful as random numbers for our computational problem.
Moreover, we present numerical results for a non-analyzed adaptive random bit MLMC Euler algorithm, in the particular cases of the Brownian motion, the geometric Brownian motion, the Ornstein-Uhlenbeck SDE and the Cox-Ingersoll-Ross SDE. We also provide a numerical comparison to the corresponding adaptive random number MLMC Euler method.
A key challenge in the analysis of the algorithm in Theorem 1 is the approximation of probability distributions by means of random bits. A problem very closely related to the quantization problem, i.e., the optimal approximation of a given probability measure (on a separable Hilbert space) by means of a probability measure with finite support size.
Though we have shown that the random bit approximation of the standard normal distribution is 'harder' than the corresponding quantization problem (lower weak rate of convergence), we have been able to establish the same weak rate of convergence as for the corresponding quantization problem in the case of the distribution of a Brownian bridge on \(L_2([0,1])\), the distribution of the solution of a scalar SDE on \(L_2([0,1])\), and the distribution of a centered Gaussian random element in a separable Hilbert space.
Activity recognition has continued to be a large field in computer science over the last two decades. Research questions from 15 years ago have led to solutions that today support our daily lives. Specifically, the success of smartphones or more recent developments of other smart devices (e.g., smart-watches) is rooted in applications that leverage on activity analysis and location tracking (fitness applications and maps). Today we can track our physical health and fitness and support our physical needs by merely owning (and using) a smart-phone. Still, the quality of our lives does not solely rely on fitness and physical health but also more increasingly on our mental well-being. Since we have learned how practical and easy it is to have a lot of functions, including health support on just one device, it would be specifically helpful if we could also use the smart-phone to support our mental and cognitive health if need be.
The ultimate goal of this work is to use sensor-assisted location and motion analysis to support various aspects of medically valid cognitive assessments.
In this regard, this thesis builds on Hypothesis 3: Sensors in our ubiquitous environment can collect information about our cognitive state, and it is possible to extract that information. In addition, these data can be used to derive complex cognitive states and to predict possible pathological changes in humans. After all, not only is it possible to determine the cognitive state through sensors but also to assist people in difficult situations through these sensors.
Thus, in the first part, this thesis focuses on the detection of mental state and state changes.
The primary purpose is to evaluate possible starting points for sensor systems in order to enable a clinically accurate assessment of mental states. These assessments must work on the condition that a developed system must be able to function within the given limits of a real clinical environment.
Despite the limitations and challenges of real-life deployments, it was possible to develop methods for determining the cognitive state and well-being of the residents. The analysis of the location data provides a correct classification of cognitive state with an average accuracy of 70% to 90%.
Methods to determine the state of bipolar patients provide an accuracy of 70-80\% for the detection of different cognitive states (total seven classes) using single sensors and 76% for merging data from different sensors. Methods for detecting the occurrence of state changes, a highlight of this work, even achieved a precision and recall of 95%.
The comparison of these results with currently used standard methods in psychiatric care even shows a clear advantage of the sensor-based method. The accuracy of the sensor-based analysis is 60% higher than the accuracy of the currently used methods.
The second part of this thesis introduces methods to support people’s actions in stressful situations on the one hand and analyzes the interaction between people during high-pressure activities on the other.
A simple, acceleration based, smartwatch instant feedback application was used to help laypeople to learn to perform CPR (cardiopulmonary resuscitation) in an emergency on the fly.
The evaluation of this application in a study with 43 laypersons showed an instant improvement in the CPR performance of 50%. An investigation of whether training with such an instant feedback device can support improved learning and lead to more permanent effects for gaining skills was able to confirm this theory.
Last but not least, with the main interest shifting from the individual to a group of people at the end of this work, the question: how can we determine the interaction between individuals within a group of people? was answered by developing a methodology to detect un-voiced collaboration in random ad-hoc groups. An evaluation with data retrieved from video footage provides an accuracy of up to more than 95%, and even with artificially introduced errors rates of 20%, still an accuracy of 70% precision, and 90% recall can be achieved.
All scenarios in this thesis address different practical issues of today’s health care. The methods developed are based on real-life datasets and real-world studies.
Das Ermüdungsverhalten hochfester Stähle wird durch nichtmetallische Einschlüsse im
Werkstoff bestimmt, die unter zyklischer Beanspruchung zu Rissinitiierung führen.
Bisher noch nicht vollständig verstandene Ermüdungsvorgänge führen auch noch bei
sehr hohen Lastspielzahlen über 10^7 Zyklen zu Versagen (Very high cycle fatigue - VHCF)
und somit zum Verlust der „klassischen“ Dauerfestigkeit. Im Rahmen dieser Arbeit
wurden zur Klärung dieses Phänomens Ermüdungsversuche mit dem hochfesten Stahl
100Cr6 durchgeführt und die VHCF-Rissinitiierung untersucht. Zusätzlich zum
natürlichen Versagen durch Einschlüsse wurde die VHCF-Rissinitiierung unter
definierten Bedingungen mit künstlichen Defekten nachgestellt und untersucht. Um einen
Einblick in die VHCF-Ermüdungsvorgänge zu erhalten, wurde die lokale Mikrostruktur im
Bereich der Rissinitiierung mittels REM, FIB, TEM und APT analysiert. Auf Basis der
beobachteten Veränderungen der lokalen Mikrostruktur um Defekte und der damit
einhergehenden frühen Rissausbreitung im VHCF-Bereich kann der zugrundeliegende
Mechanismus, der schlussendlich für die VHCF-Schädigung verantwortlich ist, aufgeklärt
werden. Durch bruchmechanische Bewertung der rissinitiierenden Defekte aus
Einstufen- und VHCF-Laststeigerungsversuchen konnten zudem Schwellenwerte des
Spannungsintensitätsfaktors für VHCF-Versagen in hochfesten Stählen abgeleitet werden,
die die Grenzen der VHCF-Schädigung bis zu 10^9 Zyklen festlegen.
Der flächendeckende Ausbau der Kläranlagen in Deutschland hat in den letzten Jahrzehnten zu einer deutlichen Verbesserung der Gewässerqualität geführt. Dennoch ist der ökologische Zustand vieler Gewässer immer noch unbefriedigend. Einen negativen Einfluss auf den Gewässerzustand haben Stoßbelastungen aus Mischwassereinleitungen, die empfindliche aquatische Ökosysteme aufgrund von hydraulischem Stress und stofflichen Belastungen nachhaltig schädigen können.
Diese Arbeit liefert einen Beitrag dazu, wie hoch aufgelöste Online-Messdaten zur Optimierung des Kanalnetzbetriebs genutzt werden können. Hierfür wurden zwei reale Regenüberlaufbecken (RÜB) im Mischsystem in Süddeutschland für zwei Jahre mit Online-Spektrometersonden zur Erfassung von Äquivalenzkonzentrationen von abfiltrierbaren Stoffen (AFS), chemischem Sauerstoffbedarf (CSB, gesamt und gelöst) und Nitrat ausgestattet. Zusätzlich wurden hydrometrische Messdaten an den RÜB vom Betreiber des Entwässerungssystems bereitgestellt.
Den ersten Teil der Arbeit bilden Fracht- und Volumenauswertungen der Einstauereignisse an den beiden RÜB. Die Untersuchungen sollen zum besseren Verständnis der stoffspezifischen und hydraulischen Vorgänge im Mischsystem beitragen. Im zweiten Teil der Arbeit wird ein neuer Ansatz zur Verbesserung des Kanalnetzbetriebes unter direkter Verwendung von Messdaten erprobt. Für diese messdatenbasierte Simulation werden gemessene Ganglinien von Abflussmenge und Feststoffkonzentration direkt als Systeminput eines Transportmodells verwendet. Anhand dieses Modells werden verschiedene Kanalnetzbewirtschaftungsstrategien untersucht. Die folgenden Erkenntnisse lassen sich anhand der durchgeführten Auswertungen ableiten:
Eine Vorhersage der Spülstoßintensitäten anhand der Charakteristiken der Trockenphasen vor den Ereignissen oder der Eigenschaften der Niederschlagsereignisse selbst ist im Untersuchungsgebiet nicht möglich. Eine konstante Akkumulation der Schmutzstoffe auf der Gebietsoberfläche, wie sie in gängigen Qualitätsmodellen angesetzt wird, ist in den Untersuchungsgebieten ebenso wenig vorhanden. Somit kann die Abflussqualität im Untersuchungsgebiet nicht zuverlässig simuliert werden. Betriebsentscheidungen, die auf Basis von Schmutzfrachtmodellen getroffen werden, sind demnach höchst unsicher.
Die in dieser Arbeit neu vorgestellte messdatenbasierte Simulation umgeht diese Unsicherheiten und ersetzt sie durch die Messunsicherheiten selbst. Sie kann die Effizienz verschiedener Bewirtschaftungsstrategien, wie die Verwendung statisch optimierter Drosselabflüsse oder die dynamische Echtzeit-Steuerung von Speicherräumen, zuverlässig bewerten. Eine Dauer der zugrunde liegenden Messdatenzeitreihe von etwa vier Monaten mit mittlerer Niederschlagscharakteristik und etwa 10 Niederschlagsereignissen ist im untersuchten fiktiven System ausreichend für verlässliche Ergebnisse der messdatenbasierten Simulation. In komplexeren Gebieten kann der Datenbedarf höher sein. Die Methodik liefert unter Berücksichtigung der üblichen Messunsicherheiten robuste Ergebnisse.
This work describes the development of a continuum phase field model that can describe static as well as dynamic wetting scenarios on the nano- and microscale.
The model reaches this goal by a direct integration of an equation of state as well as a direct integration of the dissipative properties of a specific fluid, which are both obtained from molecular simulations. The presented approach leads to good agreement between the predictions of the phase field model and the physical properties of the regarded fluid.
The implementation of the model employs a mixed finite element formulation, a newly developed semi-implicit time integration scheme, as well as the concept of hyper-dual numbers. This ensures a straightforward and robust exchangeability of the constitutive equation for the regarded fluid.
The presented simulations show good agreement between the results of the present phase field model and results from molecular dynamics simulations. Furthermore, the results show that the model enables the investigation of wetting scenarios on the microscale. The continuum phase field model of this work bridges the gap between the molecular models on the nanoscale and the phenomenologically motivated continuum models on the macroscale.
Im Rahmen dieser Arbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden dargestellt und die korrespondierenden Rutheniumkomplexe hinsichtlich ihrer Aktivität in homogenkatalytischen Hydrierungs- und Dehydrierungsreaktionen untersucht. Durch Anwendung des Prinzips von Le Chatelier konnte die katalytische Transferhydrierung verschiedener Substrate mit Isopropanol, dem gängigen Lösungsmittel und Wasserstoffdonor dieser Umsetzung, optimiert werden. Zusätzlich gelang die Substitution dieses sekundären Alkohols gegen preiswertes Ethanol, welches aus nachwachsenden Rohstoffen gewonnen werden kann. Dabei nahm die rasche Entfernung des gebildeten Acetaldehyds aus dem Gleichgewicht eine Schlüsselrolle zur Vermeidung unerwünschter Nebenreaktionen und zum Erzielen hoher Produktausbeuten ein. Selektive Funktionalisierungen der Katalysatorstruktur lieferten grundlegende Einblicke in die Struktur-Eigenschafts-Beziehungen des Systems und trugen somit zu dessen Verständnis bei. Unter Berücksichtigung ökonomischer Aspekte wurden darüber hinaus zwei praktische, sehr effiziente Varianten der Ley-Griffith-Oxidation zur Dehydrierung unterschiedlicher Alkohole und Amine erarbeitet. Der zugrundeliegende Reaktionsmechanismus wurde anhand von DFT-Rechnungen eingehend erforscht.
As visualization as a field matures, the discussion about the development of a
theory of the field becomes increasingly vivid. Despite some voices claiming that
visualization applications would be too different from each other to generalize,
there is a significant push towards a better understanding of the principles underlying
visual data analysis. As of today, visualization is primarily data-driven.
Years of experience in the visalization of all kinds of different data accumulated
a vast reservoir of implicit knowledge in the community of how to best represent
data according to its shape, its format, and what it is meant to express.
This knowledge is complemented by knowledge imported to visualization from
a variety of other fields, for example psychology, vision science, color theory,
and information theory. Yet, a theory of visualization is still only nascent. One
major reason for that is the field's too strong focus on the quantitative aspects
of data analysis. Although when designing visualizations major design decisions
also consider perception and other human factors, the overall appearance
of visualizations as of now is determined primarily by the type and format of
the data to be visualized and its quantitative attributes like scale, range, or
density. This is also reflected by the current approaches in theoretical work on
visualization. The models developed in this regard also concentrate primarily
on perceptual and quantitative aspects of visual data analysis. Qualitative considerations
like the interpretations made by viewers and the conclusions drawn
by analysts currently only play a minor role in the literature. This Thesis contributes
to the nascent theory of visualization by investigating approaches to
the explicit integration of qualitative considerations into visual data analysis.
To this end, it promotes qualitative visual analysis, the explicit discussion of
the interpretation of artifacts and structures in the visualization, of efficient
workflows designed to optimally support an analyst's reasoning strategy and
capturing information about insight provenance, and of design methodology
tailoring visualizations towards the insights they are meant to provide rather
than to the data they show. Towards this aim, three central qualitative principles
of visual information encodings are identified during the development of
a model for the visual data analysis process that explicitly includes the anticipated
reasoning structure into the consideration. This model can be applied
throughout the whole life cycle of a visualization application, from the early
design phase to the documentation of insight provenance during analysis using
the developed visualization application. The three principles identified inspire
novel visual data analysis workflows aiming for an insight-driven data analysis
process. Moreover, two case studies prove the benefit of following the qualitative
principles of visual information encodings for the design of visualization
applications. The formalism applied to the development of the presented theoretical
framework is founded in formal logics, mathematical set theory, and the
theory of formal languages and automata. The models discussed in this Thesis
and the findings derived from them are therefore based on a mathematically
well-founded theoretical underpinning. This Thesis establishes a sound theoretical
framework for the design and description of visualization applications and
the prediction of the conclusions an analyst is capable of drawing from working
with the visualization. Thereby, it contributes an important piece to the yet
unsolved puzzle of developing a visualization theory.
This thesis investigates how smart sensors can quantify the process of learning. Traditionally, human beings have obtained various skills by inventing technologies. Those who integrate technologies into daily life and enhance their capabilities are called augmented humans. While most existing augmenting human technologies focus on directly assisting specific skills, the objective of this thesis is to assist learning -- the meta-skill to master new skills -- with the aim of long-term augmentations.
Learning consists of cognitive activities such as reading, writing, and watching. It has been considered that tracking them by motion sensors (in the same way as the recognition of physical activities) is a challenging task because dynamic body movements could not be observed during cognitive activities. I have solved this problem with smart sensors monitoring eye movements and physiological signals.
I propose activity recognition methods using sensors built into eyewear computers. Head movements and eye blinks measured by an infrared proximity sensor on Google Glass could classify five activities including reading with 82% accuracy. Head and eye movements measured by electrooculography on JINS MEME could classify four activities with 70% accuracy. In a wild experiment involving seven participants who wore JINS MEME more than two weeks, deep neural networks could detect natural reading activities with 74% accuracy. I demonstrate Wordometer 2.0, an application to estimate the number of rear words on JINS MEME, which was evaluated in a dataset involving five readers with 11% error rate.
Smart sensors can recognize not only activities but also internal states during the activities. I present an expertise recognition method using an eye tracker which performs 70% classification accuracy into three classes using one minute data of reading a textbook, a positive correlation between interest and pupil diameter (p < 0.01), a negative correlation between mental workload and nose temperature measured by an infrared thermal camera (p < 0.05), an interest detection on newspaper articles, and effective gaze and physiological features to estimate self-confidence while solving multiple choice questions and spelling tests of English vocabulary.
The quantified learning process can be utilized for feedback to each learner on the basis of the context. I present HyperMind, an interactive intelligent digital textbook. It can be developed on HyperMind Builder which may be employed to augment any electronic text by multimedia aspects activated via gaze.
Applications mentioned above have already been deployed at several laboratories including Immersive Quantified Learning Lab (iQL-Lab) at the German Research Center for Artificial Intelligence (DFKI).
Der Leitungsbau hat vor dem Hintergrund der aktuellen ökologischen Herausforderungen und unter dem Aspekt einer umweltgerechten und sicheren Bewirtschaftung des Abwassers nach wie vor einen hohen Stellenwert unter den kommunalen Aufgaben. Nach Erhebungen des Statistischen Bundesamts von 2016 wurden in den letzten Jahren jährlich ca. 4.600 km neue Entwässerungskanäle hergestellt. Dabei sind Baustellen immer ein Eingriff in die Umwelt. Insbesondere der innerstädtische Kanalbau hat erhebliche Auswirkungen auf den Verkehrsfluss. Im urbanen Umfeld und generell bei größeren Tiefenlagen stellt der maschinelle Rohrvortrieb eine Verlegemethode für Abwasserkanäle dar, die gegenüber der offenen Bauweise deutlich reduzierte Einschränkungen für Anwohner und Verkehrsfluss mit sich bringt. Um eine möglichst wirtschaftliche Herstellung von Leitungen zu erreichen, gehen die Bestrebungen hin zu möglichst wenigen Schachtbauwerken. In der Folge werden immer längere Vortriebsstrecken, aber auch immer mehr bogenförmige Trassen mit immer engeren Kurvenradien geplant. Durch eine gekrümmte Trassierung lassen sich insbesondere Schächte vermeiden, die im Wesentlichen dazu dienen, Hindernisse zu umgehen oder nicht geraden Straßenverläufen zu folgen.
Um gekrümmten Trassen folgen zu können, müssen sich die Vortriebsrohre gegeneinander abwinkeln. Die Abwinklung führt zu einer Verkleinerung der Kontaktfläche in der Rohrfuge und zu einer Spannungsumlagerung auf die Kurveninnenseite des Rohrspiegels. Die entstehenden Spannungsspitzen können an dieser Stelle zu einer Überbeanspruchung der Rohrwandung führen.
Die vorliegende Arbeit entwickelt eine alternative Ausführung der Rohrenden. Diese soll durch eine gelenkige Rohrverbindung die Kontaktfläche zwischen zwei Rohren vergrößern und das Abwinkeln in der Rohrfügung verhindern. Die Gelenkigkeit der Verbindung wird durch die Ausrundung der Rohrenden erreicht.
Da die gelenkige Rohrverbindung - aufgrund ihrer Ausrundung - eine grundlegend andere Kinematik aufweist als Rohre mit ebenem Rohrspiegel, werden die Auswirkungen der Ausrundung auf die Geometrie, die Hydraulik und die Statik der neuartigen Rohre untersucht.
Wohl kaum eine andere akademische Disziplin sieht sich zum gegenwärtigen Zeitpunkt solch
grundsätzlichen und herausfordernden Paradigmenverschiebungen gegenüber , wie die
Sportwissenschaft. Während andere, die Sportwissenschaft zum Teil berührende Fächer, wie
beispielsweise die Neurologie, vielleicht auf deutlichere, plakativere Weise mit den auf die
Gesellschaft einwirkenden Folgen einer umfassenden und tiefgreifenden Digitalisierung zu in
absehbarer Zeit permanenter Neuorientierung gezwungen werden, erweist sich die
Sportwissenschaft als auf subtilere Weise mit jedem der von der Digitalisierung nachdrücklich
betroffenen Forschungsbereiche untrennbar verbunden, von der Kybernetik bis hin zu sich
ändernden Vorstellungen und Praktiken von sozialer Interaktion und Gemeinschaft. Wo sich die
Gesellschaft verändert, verändert sich auch der Sport und in der Folge davon zwangsläufig auch
die Sportwissenschaft. Wenn Sport unter dem Blickwinkel seiner Transformationen und Potentiale
untersucht wird, kann das Gebiet des „Trendsports“ als außergewöhnlich ergiebiger Gegenstand
der Forschung in den Fokus rücken.
Die vorliegende Arbeit möchte unter Zuhilfenahme sowohl von theoreti schen Modellen als auch
von, in dieser Form erstmals erhobenen exklusiven Daten, Möglichkeiten zur vertiefenden
akademische Beschäftigung mit dem Thema „Trendsport“ erörtern und entsprechend Vorschläge
zu Methodik, Rahmen und Gegenstand einer skizzierten weiteren Auseinandersetzung der
Sportwissenschaft mit diesem Thema entwickeln. Trotz aller Gewissenhaftigkeit bei der Erhebung
und Analyse von theoretischen Annahmen und empirischen Daten mag dieser Arbeit aufgrund des
beschriebenen dynamischen Zugangs zu ihrer Fragestellung der Charakter der Vorläufigkeit
anhaften.
More than ten years ago, ER-ANT1 was shown to act as an ATP/ADP antiporter and to exist in the endoplasmic reticulum (ER) of higher plants. Because structurally different transporters generally mediate energy provision to the ER, the physiological function of ER-ANT1 was not directly evident.
Interestingly, mutant plants lacking ER-ANT1 exhibit a photorespiratory phenotype. Although many research efforts were undertaken, the possible connection between the transporter and photorespiration also remained elusive. Here, a forward genetic approach was used to decipher the role of ER-ANT1 in the plant context and its association to photorespiration.
This strategy identified that additional absence of a putative HAD-type phosphatase partially restored the photorespiratory phenotype. Localisation studies revealed that the corresponding protein is targeted to the chloroplast. Moreover, biochemical analyses demonstrate that the HAD-type phosphatase is specific for pyridoxal phosphate. These observations, together with transcriptional and metabolic data of corresponding single (ER-ANT1) and double (ER-ANT1, phosphatase) loss-of-function mutant plants revealed an unexpected connection of ER-ANT1 to vitamin B6 metabolism.
Finally, a scenario is proposed, which explains how ER-ANT1 may influence B6 vitamer phosphorylation, by this affects photorespiration and causes several other physiological alterations observed in the corresponding loss-of-function mutant plants.
Spin-crossover and valence tautomeric complexes are of tremendous interest in the field of molecular electronics, electronic storage devices and information processing. Herein, synthesis and characterization of the spin-crossover and valence tautomeric cobalt dioxolene complexes are reported. All the synthesized complexes contain N,N'-di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophane (L-N4tBu2) as ancillary ligands. Only various types of co-ligands which are different dioxolene ligands, have been used. The mononuclear cobalt dioxolene complexes have been synthesized by using dideprotonated form of the dioxolene ligand 4,5-dichlorocatechol (H2DCCat) as co-ligands, and the cobalt bis(dioxolene) complexes have been synthesized by using dideprotonated form of the 3,3'-dihydroxy-diphenoquinone-(4,4') (H2(SQ-SQ)) as co-ligands.
Analytically pure samples of the complexes [Co(L-N4tBu2)(DCCat)] (1), [Co(L-N4tBu2)(DCCat)](BPh4) (2b), [Co2(L-N4tBu2)2(SQ-SQ)](BPh4)2.4 DMF (3b), [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d), have been synthesized and characterized by X-ray crystallography, magnetic and electrochemical measurements. The complexes have been investigated by UV/Vis/NIR-, IR-, and NMR spectroscopic measurements.
The complex [Co(L-N4tBu2)(DCCat)] (1) shows temperature invariant high-spin cobalt(II) catecholate state. One-electron oxidation of 1 has yielded the complex [Co(L-N4tBu2)(DCCat)](BPh4) (2b). The solid state properties of 2b are best described by the low-spin cobalt(III) catecholate state, but the solution state properties of the complex 2b are best described by the valence tautomeric transition from the low-spin cobalt(III) catecholate to the low-spin cobalt(II) semiquinonate state.
For the cobalt bis(dioxolene) complexes, it is found that spin-crossover for the two cobalt(II) centers is accompanied by the electronic state changes of the coordinated bis(dioxolene) unit from singlet open-shell biradicaloid to singlet closed-shell quinonoid form in complex 3b. Approaching similar synthetic method to 3b, but performing the metathesis reaction with sodium tetrafluoroborate rather than sodium tetraphenylborate has resulted in the formation of the complex [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d). The solid state properties of the complex are best described by the temperature induced valence tautomeric transition for the low-spin cobalt(III) center which is accompanied by the spin-crossover process for the cobalt(II) center. Thus, the electronic state of the complex 3d changes from LS-CoIII-Cat-SQ-CoII-LS to HS-CoII-(SQ-SQ)CS-CoII-HS state upon change in temperature.
Temperature-induced electronic configuration changes of the (SQ-SQ)CS2- ligands from open-shell biradicaloid to closed-shell quinonoid configurations are not observed for the nickel-, copper- and zinc bis(dioxolene) complexes 4a, 5a and 6b, respectively. For these complexes, the metal ions are bridged by (SQ-SQ)CS2- ligand and the paramagnetic metal ions are very weakly antiferromagnetically coupled.
Nowadays a large part of communication is taking place on social media platforms such as Twitter, Facebook, Instagram, or YouTube, where messages often include multimedia contents (e.g., images, GIFs or videos). Since such messages are in digital form, computers can in principle process them in order to make our lives more convenient and help us overcome arising issues. However, these goals require the ability to capture what these messages mean to us, that is, how we interpret them from our own subjective points of view. Thus, the main goal of this dissertation is to advance a machine's ability to interpret social media contents in a more natural, subjective way.
To this end, three research questions are addressed. The first question aims at answering "How to model human interpretation for machine learning?" We describe a way of modeling interpretation which allows for analyzing single or multiple ways of interpretation of both humans and computer models within the same theoretic framework. In a comprehensive survey we collect various possibilities for such a computational analysis. Particularly interesting are machine learning approaches where a single neural network learns multiple ways of interpretation. For example, a neural network can be trained to predict user-specific movie ratings from movie features and user ID, and can then be analyzed to understand how users rate movies. This is a promising direction, as neural networks are capable of learning complex patterns. However, how analysis results depend on network architecture is a largely unexplored topic. For the example of movie ratings, we show that the way of combining information for prediction can affect both prediction performance and what the network learns about the various ways of interpretation (corresponding to users).
Since some application-specific details for dealing with human interpretation only become visible when going deeper into particular use-cases, the other two research questions of this dissertation are concerned with two selected application domains: Subjective visual interpretation and gang violence prevention. The first application study deals with subjectivity that comes from personal attitudes and aims at answering "How can we predict subjective image interpretation one would expect from the general public on photo-sharing platforms such as Flickr?" The predictions in this case take the form of subjective concepts or phrases. Our study on gang violence prevention is more community-centered and considers the question "How can we automatically detect tweets of gang members which could potentially lead to violence?" There, the psychosocial codes aggression, loss and substance use serve as proxy to estimate the subjective implications of online messages.
In these two distinct application domains, we develop novel machine learning models for predicting subjective interpretations of images or tweets with images, respectively. In the process of building these detection tools, we also create three different datasets which we share with the research community. Furthermore, we see that some domains such as Chicago gangs require special care due to high vulnerability of involved users. This motivated us to establish and describe an in-depth collaboration between social work researchers and computer scientists. As machine learning is incorporating more and more subjective components and gaining societal impact, we have good reason to believe that similar collaborations between the humanities and computer science will become increasingly necessary to advance the field in an ethical way.
Diversification is one of the main pillars of investment strategies. The prominent 1/N portfolio, which puts equal weight on each asset is, apart from its simplicity, a method which is hard to outperform in realistic settings, as many studies have shown. However, depending on the number of considered assets, this method can lead to very large portfolios. On the other hand, optimization methods like the mean-variance portfolio suffer from estimation errors, which often destroy the theoretical benefits. We investigate the performance of the equal weight portfolio when using fewer assets. For this we explore different naive portfolios, from selecting the best Sharpe ratio assets to exploiting knowledge about correlation structures using clustering methods. The clustering techniques separate the possible assets into non-overlapping clusters and the assets within a cluster are ordered by their Sharpe ratio. Then the best asset of each portfolio is chosen to be a member of the new portfolio with equal weights, the cluster portfolio. We show that this portfolio inherits the advantages of the 1/N portfolio and can even outperform it empirically. For this we use real data and several simulation models. We prove these findings from a statistical point of view using the framework by DeMiguel, Garlappi and Uppal (2009). Moreover, we show the superiority regarding the Sharpe ratio in a setting, where in each cluster the assets are comonotonic. In addition, we recommend the consideration of a diversification-risk ratio to evaluate the performance of different portfolios.
Die vorliegende Dissertation thematisiert die Weiterentwicklung der Zwei-Photonen Laserlithographie zur Realisierung hochaufgelöster Maßverkörperungen für die Kalibrierung optisch-flächenhafter Topographie-Messgeräte nach DIN EN ISO 25178.
Die additive Fertigung als generelle Bezeichnung für ein schicht- oder punktweise auftragendes Fertigungsverfahren prosperiert und wird in Zukunft laut der von der Bundesregierung eingerichteten Expertenkommission für Forschung und Innovation (EFI) eine wichtige Rolle als Schlüsseltechnologie einnehmen. Anstatt Bauteile z.B. aus einem soliden Block geometrielimitiert herauszufräsen, baut die additive Fertigung das entsprechende Werkstück aus Metallen, Kunst- oder Verbundwerkstoffen sukzessive auf und ist dabei von der Geometrie meist unabhängig. Dadurch ist die Technologie z.B. für das rapid prototyping interessant und erlaubt einen strukturgetriebenen Herstellungsprozess: "Die Bauteile der Zukunft werden nicht designt sondern berechnet!" (Dr. Karsten Heuser, VP Additive Manufacturing, Siemens AG bei 3D Printing and Industry 4.0: An Industry Perspective, Photonics West 2018, San Francisco, 31.01.2018 (frei übersetzt)).
Speziell auf der Mikro- und Nanoskala erfreut sich die additive Fertigung einer wachsenden Bedeutung. Angefangen bei den zunächst fundamentalen Fragestellungen auf den Gebieten der photonischen Kristalle, biologischen Zelltemplaten oder Metamaterialen erhält so z.B. die Zwei-Photonen Laserlithographie, auch direct laser writing (DLW) genannt, einen immer stärkeren Einzug in die Industrie. Beim DLW werden Bereiche photosensitiver Materialien, z.B. Photolacke, mithilfe eines fokussierten Laserstrahls gezielt ausgehärtet, sodass über präzise Relativbewegungen von Lack und Fokus nahezu beliebige 3D Strukturen mit Details auf der Gröÿenordnung des Laserfokus generiert werden können. Dabei spielt die namensgebende, nichtlineare Zwei-Photonen Absorption (2PA) eine entscheidende Rolle: Nur bei einer nahezu simultanen Absorption von zwei Photonen ist die eingebrachte Energie ausreichend hoch, um die gewünschte Aushärtung des Materials zu initiieren. Der entsprechende
Zwei-Photonen Absorptionsquerschnitt skaliert mit dem Quadrat der Lichtintensität und dem Imaginärteil der elektrischen Suszeptibilität dritter Ordnung chi(3), sodass beim DLW auch von einem chi(3)-Prozess gesprochen wird. Die zur Aushärtung notwendige Photonenendichte ist somit ausschlieÿlich im Fokus des verwendeten Objektivs hoch genug und erlaubt dadurch die Fertigung von Strukturdetails im Bereich von 100 nm.
Eine aktuelle Anwendung findet das DLW in der Metrologie. Hier werden beispielsweise für die Kalibrierung optischer Messgeräte sogenannte Kalibrierkörper benötigt, welche als Referenzstrukturen dienen. Mit dem Wissen der entsprechenden Referenzkennwerte lassen sich die jeweiligen Messgeräteabweichungen bestimmen gegebenenfalls bei der Datenauswertung korrigieren. Dadurch werden die Ergebnisse für Forschung und Industrie verlässlicher,
reproduzierbarer und vergleichbarer. Das DLW erlaubt aufgrund seiner hohen Flexibilität und Designfreiheit erstmals, sämtliche Kalibrierkörper für eine ganzheitliche Messgerätekalibrierung kombiniert auf einem einzelnen Trägersubstrat herzustellen. Um das Alterungs- und Skalierungsverhalten sowie die jeweiligen Kalibriereigenschaften der additiv gefertigten Strukturen für einen nachhaltigen technologischen Einsatz attraktiv zu halten, ist ein tiefergehendes Verständnis des entsprechenden Materialsystems unabdingbar. Unter bestimmten
Bedingungen zeigt sich, dass die zeitabhängigen Veränderungen der Strukturen nach der thermisch beschleunigten Alterung nach Arrhenius auf den industriell relevanten Zeitskalen von einigen Jahren vernachlässigt werden kann. Auch die für die Kalibrierung unterschiedlicher Objektivvergröÿerungen notwendige Skalierung dieser Kalibrierkörper liefert nach entsprechender Herstellungsoptimierung verlässliche Daten: Sowohl filigrane Strukturen im Bereich einiger weniger Mikrometer und darunter zur Auflösungskalibrierung stark
vergrößernder Optiken, als auch großflächige Strukturen von nahezu 1mm² für niedrigere Vergrößerungen bei ähnlicher Auflösung erweisen sich als realisierbar.
Um die für eine Auflösungskalibrierung ausreichend hohe Qualität der gefertigten Kalibrierkörper auch in Zukunft zu gewährleisten, muss die Technologie des DLWs stetig weiterentwickelt werden. Die gezielte Aberrationskorrektur des strukturierenden Laserfokus stellt in diesem Kontext zwar eine vielversprechende Option dar, die etablierte iterative Phasenfrontmodifikation mittels Zernike-Polynome erweist sich allerdings als aufwendig und subjektiv. Im Hinblick auf Reproduzierbarkeit und Präzision soll daher zunächst ein passender Algorithmus Abhilfe schaffen. Das Grundprinzip beruht dabei auf dem sogenannten Gerchberg-Saxton Algorithmus, bei dem die Amplitudeninformation sowohl in der Fokus-, als auch in der Pupillenebene iterativ variiert wird. Dadurch werden die Aberrationen
über die Phasenverteilung repräsentiert, welche im Anschluss zur Korrektur der Aberrationen verwendet werden kann. Diese Herangehensweise konnte im Rahmen dieser Arbeit erstmals auf Systeme hoher numerischer Apertur sowie auf nahezu beliebige fokale Intensitätsverteilungen erweitert werden. Die technologische Grundlage hierfür liefert ein
räumlicher Lichtmodulator (spatial light modulator, SLM), der die Feldverteilung in der Pupillenebene mittels doppelbrechender Flüssigkristalle einstellt. Durch einen geschickten Aufbau können somit Phase und Amplitude des Laserstrahls über computergenerierte digitale Hologramme gezielt und ohne mechanische Einwirkung verändert werden. Die somit automatisierte Aberrationskorrektur verbessert in der Folge die Strukturierungseigenschaften der Fertigungstechnologie und damit die Qualität der resultierenden Kalibrierkörper.
Eine weitere Verbesserung erfolgt in Analogie zum Nobelpreis gekürten Prinzip der STED Mikroskopie, bei der durch stimulierte Emission das effektive Anregungsvolumen verkleinert und damit die laterale Distanz zwischen zwei gerade noch aufgelösten Strukturen von einigen wenigen hundert Nanometern auf ca. fünf Nanometer verbessert wurde. In der Lithographie erfolgt die stimulierte Emission durch einen zweiten Laser via Ein-Photonen Absorption (1PA ~chi(1)), ist jedoch aufgrund komplexer photochemischer und quantenmechanischer Prozesse in den Photolacken nicht unmittelbar aus der Mikroskopie übertragbar. Die grundlegende Machbarkeit wurde bereits von anderen Forschungsgruppen verifiziert, jedoch stets mit der Limitierung auf sehr geringe Strukturierungsgeschwindigkeiten im Bereich von ungefähr 100 µm/s. Damit würden die zuvor erwähnten großflächigen Kalibrierstrukturen bei unveränderten Parametern eine Fabrikationszeit von über einem Monat beanspruchen, weswegen das Verfahren im Rahmen dieser Arbeit auf das ca. 200 mal schnellere Strukturieren mittels Galvanometerspiegel erweitert wird. Dies wird zwar durch wellenlängenabhängige Eigenschaften des Systems, wie z.B. chromatische Aberrationen erschwert, dennoch ergeben sich nachweislich einige Fortschritte: Unerwünschte Abweichungen von der Sollstruktur durch die experimentell stets vorhandene Vignettierung können deutlich reduziert werden. Außerdem kann der Parameterbereich zur Erzeugung konstant hoher Strukturqualität deutlich vergrößert werden.
In Kombination mit den SLMs können somit, je nach Anforderungen der Zielstrukturen, die jeweils passenden fokalen Intensitätsverteilungen für den An- und Abregungsstrahlengang automatisiert generiert und optimiert werden. Zudem wurde durch die in dieser Arbeit erbrachten konzeptionellen Fortschritte der STED inspirierten Zwei-Photonen Laserlithographie die Grundlage für eine industrielle Anwendung der erzeugten Kalibrierstrukturen
in der Metrologie gelegt.
In an overall effort to contribute to the steadily expanding EO literature, this cumulative dissertation aims to help the literature to advance with greater clarity, comprehensive modeling, and more robust research designs. To achieve this, the first paper of this dissertation focuses on the consistency and coherence in variable choices and modeling considerations by conducting a systematic quantitative review of the EO-performance literature. Drawing on the plethora of previous EO studies, the second paper employs a comprehensive meta-analytic structural equation modeling approach (MASEM) to explore the potential for unique component-level relationships among EO’s three core dimensions in antecedent to outcome relationships. The third paper draws on these component-level insights and performs a finer-grained replication of the seminal MASEM of Rosenbusch, Rauch, and Bausch (2013) that proposes EO as a full mediator between the task environment and firm performance. The fourth and final paper of this cumulative dissertation illustrates exigent endogeneity concerns inherent in observational EO-performance research and provides guidance on how researchers can move towards establishing causal relationships.
Die vorliegende Arbeit behandelt die Neuentwicklung der Betriebselektronik für eine Rasterkraftsonde die im Frequenzmodulationsverfahren betrieben wird. Rasterkraftsonden haben das Potenzial zukünftige Messaufgaben der Fertigungsmesstechnik, die durch Tastschnittgeräte und Optische Messgeräte nicht mehr gelöst werden, zu lösen. Als Grundlage für die Entwicklung eines Sensors zum Messen rauer, technischer Oberflächen dient die Akiyama-Sonde: bei dieser handelt es sich um eine Rasterkraftsonde deren Auslenkung sensorlos, ohne zusätzliche Bauteile, detektiert werden kann. Im Rahmen dieser Arbeit wurde zunächst die Eignung der Akiyama-Sonde zum Messen technischer Oberflächen untersucht. Anschließend wurde eine neue Betriebselektronik für die Sonde entwickelt. Die neuentwickelte Elektronik zeichnet sich durch einen sehr einfachen Aufbau aus: in Kern besteht sie nur aus einem FPGA, einem Analog-Digital-Umsetzer und einem Digital-Analog-Umsetzer. Methodisch wurde bei der Entwicklung ein modellbasiertes Vorgehen gewählt: Zunächst wurde die Akiyama-Sonde in ihrem Arbeitspunkt modelliert. Basierend auf dem Modell erfolgte der virtuelle Entwurf der Betriebselektronik. Ein physikalischer Prototyp wurde somit erst spät im Entwicklungsprozess benötigt. Abschließend wurde anhand von Experimenten die Fähigkeit der neuen Betriebselektronik zum Messen von Auslenkungen im Nanometer-Bereich nachgewiesen.
Biological clocks exist across all life forms and serve to coordinate organismal physiology with periodic environmental changes. The underlying mechanism of these clocks is predominantly based on cellular transcription-translation feedback loops in which clock proteins mediate the periodic expression of numerous genes. However, recent studies point to the existence of a conserved timekeeping mechanism independent of cellular transcription and translation, but based on cellular metabolism. These metabolic clocks were concluded based upon the observation of circadian and ultradian oscillations in the level of hyperoxidized peroxiredoxin proteins. Peroxiredoxins are enzymes found almost ubiquitously throughout life. Originally identified as H2O2 scavengers, recent studies show that peroxiredoxins can transfer oxidation to, and thereby regulate, a wide range of cellular proteins. Thus, it is conceivable that peroxiredoxins, using H2O2 as the primary signaling molecule, have the potential to integrate and coordinate much of cellular physiology and behavior with metabolic changes. Nonetheless, it remained unclear if peroxiredoxins are passive reporters of metabolic clock activity or active determinants of cellular timekeeping. Budding yeast possess an ultradian metabolic clock termed the Yeast Metabolic Cycle (YMC). The most obvious feature of the YMC is a high amplitude oscillation in oxygen consumption. Like circadian clocks, the YMC temporally compartmentalizes cellular processes (e.g. metabolism) and coordinates cellular programs such as gene expression and cell division. The YMC also exhibits oscillations in the level of hyperoxidized peroxiredoxin proteins.
In this study, I used the YMC clock model to investigate the role of peroxiredoxins in cellular timekeeping, as well as the coordination of cell division with the metabolic clock. I observed that cytosolic 2-Cys peroxiredoxins are essential for robust metabolic clock function. I provide direct evidence for oscillations in cytosolic H2O2 levels, as well as cyclical changes in oxidation state of a peroxiredoxin and a model peroxiredoxin target protein during the YMC. I noted two distinct metabolic states during the YMC: low oxygen consumption (LOC) and high oxygen consumption (HOC). I demonstrate that thiol-disulfide oxidation and reduction are necessary for switching between LOC and HOC. Specifically, a thiol reductant promotes switching to HOC, whilst a thiol oxidant prevents switching to HOC, forcing cells to remain in LOC. Transient peroxiredoxin inactivation triggered rapid and premature switching from LOC to HOC. Furthermore, I show that cell division is normally synchronized with the YMC and that deletion of typical 2-Cys peroxiredoxins leads to complete uncoupling of cell division from metabolic cycling. Moreover, metabolic oscillations are crucial for regulating cell cycle entry and exit. Intriguingly, switching to HOC is crucial for initiating cell cycle entry whilst switching to LOC is crucial for cell cycle completion and exit. Consequently, forcing cells to remain in HOC by application of a thiol reductant leads to multiple rounds of cell cycle entry despite failure to complete the preceding cell cycle. On the other hand, forcing cells to remain in LOC by treating with a thiol oxidant prevents initiation of cell cycle entry.
In conclusion, I propose that peroxiredoxins – by controlling metabolic cycles, which are in turn crucial for regulating the progression through cell cycle – play a central role in the coordination of cellular metabolism with cell division. This proposition, thus, positions peroxiredoxins as active players in the cellular timekeeping mechanism.
Intermetallische Verbindungen stellen eine relativ neue Gruppe heterogener Katalysatoren dar. Durch die Bildung von Kristallstrukturen und die damit einhergehende Änderung elektronischer und geometrischer Strukturen handelt es sich nicht einfach um Dotierungen von bestehenden Systemen, man kann viel mehr von "neuen Elementen" für die Katalyse sprechen. Jede Kombination hat ihre eigenen Eigenschaften und damit ungeahntes Potential für katalytische Anwendungen.
Eine Gruppe intermetallischer Verbindungen stellen Heusler-Phasen dar. Diese Untergruppe der intermetallischen Phasen zeigt sich im Feld der Katalyse als unbeschriebenes Blatt, ist in Anwendungen der Physik aber schon ein etabliertes System. Heusler-Verbindungen weisen die Zusammensetzung X2YZ auf, die Elemente X und Y sind in der Regel Übergangsmetalle während das Z Element aus der III. – V. Hauptgruppe stammt. Es handelt sich um ein kubisches Gitter der Raumgruppe Fm3 ̅m (Nr. 225) mit Cu2MnAl als Strukturtyp bestimmende Verbindung und der Strukturberichte Bezeichnung L21.
Ziel dieser Arbeit war es, SiO2 geträgerte Materialien basierend auf einer Heusler-Phase zu synthetisieren und diese auf ihre katalytische Aktivität in Modellreaktionen zu testen. Zunächst wurde eine Reihe von Verbindungen mit der Einsatzstöchiometrie X2YZ über Co Imprägnierung hergestellt. Bei allen Materialen wurde Cu als X-Element gewählt. Die Y-Position wurde mit den Elementen Ce, Co, Fe, La, Mn, Ni und Ti besetzt, während die Z-Position durch die Elemente Al, Ga, In, Sb, Si und Sn besetzt wurde. Aus den gewählten Zusammensetzungen ergaben sich 42 verschiedene Materialien. Über Röntgenbeugung wurden die fünf Kombinationen Cu2CoSn, Cu2FeSn, Cu2LaIn, Cu2NiSn2 und Cu2TiIn (jeweils 30 Gew.% auf SiO2) als aussichtsreichste Materialien bestimmt.
Mit Modellsubstanzen aus dem Bereich der Alkine (2-Hexin), der Aromaten (Benzol), der Aldehyde (Aceton) und der α, β ungesättigten Aldehyde (Citral, Citronellal, Zimtaldehyd und Furfural) wurde die höchste katalytische Aktivität an dem Material 30 Gew. % Cu2NiSn/SiO2 erzielt. Für dieses Material wurde eine Optimierung der Synthese angestrebt. Als wichtigster Parameter zur Ausbildung einer nanopartikulären Heusler-Phase in der nasschemischen Synthese stellte sich der Metallgehalt auf dem Träger heraus. Die drei Charakterisierungsmethoden N2 Physisorption, XRD und TEM zeigten, dass es möglich ist, die Heusler-Phase 10 Gew. % Cu2NiSn/SiO2 über den nasschemischen Weg als nanopartikuläres Material herzustellen.
Die katalytischen Eigenschaften dieses Materials wurden anhand der Modellsubstanz Zimtaldehyd umfassend untersucht sowie vergleichend mono- und bimetallische Materialien basierend auf den drei Metallen Cu, Ni und Sn herangezogen. Mit der Heusler Phase 10 Gew. % Cu2NiSn/SiO2 wurde bei einer Reaktionstemperatur von 150 °C nach 5 h ein Umsatz von 67 % mit einer Selektivität von 49 % zu Zimtalkohol erzielt, während das thermodynamisch begünstige Produkt Hydrozimtaldehyd mit einer Selektivität von lediglich 30 % gebildet wurde. Die Heusler Verbindung weist die höchste Chemoselektivität zu Zimtalkohol aller in dieser Arbeit getesteten Systeme auf. Während die Aktivität des in dieser Arbeit entwickeltem Heusler-Materials Cu2NiSn/SiO2 geringer ist, können mit der Literatur vergleichbare Selektivitäten zu Zimtalkohol erreicht werden. Die Ergebnisse zur chemoselektiven Hydrierung eines nasschemisch hergestellten Materials zeigen somit die Vielseitigkeit und das große Potential von intermetallischen Heusler Verbindungen in der heterogenen Katalyse.
Participatory urban planning approaches (PUPAs) are seen as key methodological tools to develop plans and strategies that can help in alleviating urban poverty and improving urban planning and governance. Given that, there is a need for a deeper understanding of the PUPAs adopted and implemented in the Arab cities to define the challenges that led to the weak impacts of these approaches in the examined cities and to identify their potentials for improvement in the future. Yet, adopting PUPAs in restrictive political and institutional settings like the ones in the Arab region proved to be ineffective, either in improving urban planning and governance or in including urban citizens in planning decision-making processes.
This research examines PUPAs in the City Development Strategies of two big cities in the Arab region between 2003 and 2010: Alexandria in Egypt and Aleppo in Syria. The research investigates whether PUPAs are adopted and supported by the institutional and legal framework in the cities under study and whether they are implemented successfully. For this purpose, the research identifies first the challenges and successes in implementing PUPAs in the two cities based on an in-depth analysis of the structures and actors of governance and planning. Second, it explores the effects of the PUPAs on the participatory process and vice versa.
The main findings of the research have shown that PUPAs can only be effective when the political, institutional, and social contexts are supporting participation, which is lacking in the two examined cities. Yet, the different PUPAs implemented in these cities indicate that local actors and planners have a great potential for developing innovative communication strategies and participatory mechanisms that could have positive impacts on urban planning, urban governance, and the society.
Properties of vapor-liquid interfaces play an important role in many processes, but corresponding data is scarce, especially for mixtures. Therefore, two independent routes were employed in the present work to study them: molecular dynamics (MD) simulations using classical force fields as well as density gradient theory (DGT) in combination with theoretically-based equations of state (EOS). The investigated interfacial properties include: interfacial tension, adsorption, and the enrichment of components, which
quantifies the interesting effect that in many systems the density of certain components in the interfacial region is much higher than in either of the bulk phases. As systematic investigations of the enrichment were lacking, it was comprehensively studied here by considering a large number of Lennard-Jones (LJ) mixtures with different phase behavior; also the dependence of the enrichment on temperature and concentration was elucidated and a conformal solution theory for describing the interfacial properties of LJ mixtures was developed. Furthermore, general relations of interfacial properties and the phase behavior were revealed and the relation between the enrichment and the wetting behavior of fluid interfaces was elucidated. All studies were carried out by both MD and DGT, which were found to agree well in most cases. The results were extended to real mixtures, which were studied not only by simulations but also in laboratory experiments. In connection with these investigations, three literature reviews were prepared which cover: a) simulation data on thermophysical properties of the LJ fluid; b) the performance of different EOS of the LJ fluid on that simulation data; c) data on the enrichment at vapor-liquid interfaces. Electronic databases were established for a) - c). Based on c), a short-cut method for the prediction of the enrichment from readily available vapor-liquid equilibrium data was developed. Last not least, an MD method for studying the influence of mass transfer on interfacial properties was developed and applied to investigate the influence of the enrichment on the mass transfer.
A building-block model reveals new insights into the biogenesis of yeast mitochondrial ribosomes
(2020)
Most of the mitochondrial proteins in yeast are encoded in the nuclear genome, get synthesized by cytosolic ribosomes and are imported via TOM and TIM23 into the matrix or other subcompartments of mitochondria. The mitochondrial DNA in yeast however also encodes a small set of 8 proteins from which most are hydrophobic membrane proteins and build core components of the OXPHOS complexes. They get synthesized by mitochondrial ribosomes which are descendants of bacterial ribosomes and still have some similarities to them. On the other hand, mitochondrial ribosomes experienced various structural and functional changes during evolution that specialized them for the synthesis of the mitochondrial encoded membrane proteins. The mitoribosome contains mitochondria-specific ribosomal proteins and replaced the bacterial 5S rRNA by mitochondria-specific proteins and rRNA extensions. Furthermore, the mitoribosome is tethered to the inner mitochondrial membrane to facilitate a co-translational insertion of newly synthesized proteins. Thus, also the assembly process of mitoribosomes differs from that of bacteria and is to date not well understood.
Therefore, the biogenesis of mitochondrial ribosomes in yeast should be investigated. To this end, a strain was generated in which the gene of the mitochondrial RNA-polymerase RPO41 is under control of an inducible GAL10-promoter. Since the scaffold of ribosomes is built by ribosomal RNAs, the depletion of the RNA-polymerase subsequently leads to a loss of mitochondrial ribosomes. Reinduction of Rpo41 initiates the assembly of new mitoribosomes, which makes this strain an attractive model to study mitoribosome biogenesis.
Initially, the effects of Rpo41 depletion on cellular and mitochondrial physiology was investigated. Upon Rpo41 depletion, growth on respiratory glycerol medium was inhibited. Furthermore, mitochondrial ribosomal 21S and 15S rRNA was diminished and mitochondrial translation was almost completely absent. Also, mitochondrial DNA was strongly reduced due to the fact that mtDNA replication requires RNA primers that get synthesized by Rpo41.
Next, the effect of reinduction of Rpo41 on mitochondria was tested. Time course experiments showed that mitochondrial translation can partially recover from 48h Rpo41 depletion within a timeframe of 4.5h. Sucrose gradient sedimentation experiments further showed that the mitoribosomal constitution was comparable to wildtype control samples during the time course of 4.5h of reinduction, suggesting that the ribosome assembly is not fundamentally altered in Gal-Rpo41 mitochondria. In addition, the depletion time was found to be critical for recovery of mitochondrial translation and mitochondrial RNA levels. It was observed that after 36h of Rpo41 depletion, the rRNA levels and mitochondrial translation recovered to almost 100%, but only within a time course of 10h.
Finally, mitochondria from Gal-Rpo41 cells isolated after different timepoints of reinduction were used to perform complexome profiling and the assembly of mitochondrial protein complexes was investigated. First, the steady state conditions and the assembly process of mitochondrial respiratory chain complexes were monitored. The individual respiratory chain complexes and the super-complexes of complex III, complex IV and complex V were observed. Furthermore, it was seen that they recovered from Rpo41 depletion within 4.5h of reinduction. Complexome profiles of the mitoribosomal small and large subunit discovered subcomplexes of mitoribosomal proteins that were assumed to form prior to their incorporation into assembly intermediates. The complexome profiles after reinduction indeed showed the formation of these subcomplexes before formation of the fully assembled subunit. In the mitochondrial LSU one subcomplex builds the membrane facing protuberance and a second subcomplex forms the central protuberance. In contrast to the preassembled subcomplexes, proteins that were involved in early assembly steps were exclusively found in the fully assembled subunit. Proteins that assemble at the periphery of the mitoribosome during intermediate and late assembly steps where found in soluble form suggesting a pool of unassembled proteins that supply assembly intermediates with proteins.
Taken together, the findings of this thesis suggest a so far unknow building-block model for mitoribosome assembly in which characteristic structures of the yeast mitochondrial ribosome form preassembled subcomplexes prior to their incorporation into the mitoribosome.
Die vorliegende Dissertation untersucht in zwei empirischen Studien Determinanten der Um- setzung und Unterstützung von Korruptionspräventionsmaßnahmen in Organisationen. Im Hinblick auf die Umsetzung von Korruptionspräventionsmaßnahmen haben, wie Statistiken zeigen, vor allem kleine und mittlere Unternehmen (KMU) noch Nachholbedarf. Auf Grundlage der Theorie des geplanten Verhaltens untersucht die erste Studie daher Determinanten für die Umsetzung von Korruptionspräventionsmaßnahmen in KMU. Für die Überprüfung des aufge- stellten Modells wurden in einem zweistufigen Erhebungsverfahren empirische Daten von 339 Managerinnen und Managern deutscher KMU gewonnen und mittels eines Strukturgleichungsmodells ausgewertet. Die Erkenntnisse wurden durch fünf qualitative Interviews mit Manage- rinnen und Managern aus KMU angereichert. Dabei zeigt sich, dass die moralische Verpflichtung der Managerinnen und Manager, die von ihnen wahrgenommene subjektive Norm, ihre wahrgenommene Selbstwirksamkeit, die wahrgenommene Kontrollierbarkeit und die wahrgenommene Bedrohung durch Korruptionsgelegenheiten für Beschäftigte in einem signifikanten positiven Zusammenhang mit der Intention der Managerinnen und Manager stehen, Korruptionspräventionsmaßnahmen umzusetzen. Ihre Intention steht wiederum in einem signifikanten positiven Zusammenhang mit der Umsetzung von Korruptionspräventionsmaßnahmen in den KMU. Wenn Korruptionspräventionsmaßnahmen in Organisationen umgesetzt sind, stellt ihre Unterstützung durch Beschäftigte einen entscheidenden Erfolgsfaktor dar. Daher wurden in der zweiten Studie auf Basis der Selbstbestimmungstheorie (Self-Determination Theory) Determinanten des regelkonformen Verhaltens von Beschäftigten bezüglich Korruptionspräventionsmaßnahmen sowie Determinanten der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch die Beschäftigten betrachtet. In einem Mehrebenenmodell wurden mittels hierarchischer linearer Modellierung auf Grundlage der Daten von 147 Beschäftigten die signifikanten positiven Zusammenhänge von werte- und compliance-orientierten Korruptionspräventionsmaßnahmen sowie vorgelebter und schriftlicher Unterstützung der Maßnahmen durch das Topmanagement mit den Verhaltensweisen der Beschäftigten gezeigt. In einer anschließenden Dominanzanalyse erwies sich die vorgelebte Unterstützung durch das Topmanagement als stärkste Determinante für regelkonformes und unterstützendes Verhalten durch die Beschäftig- ten. Darüber hinaus zeigen sich signifikante positive Moderationseffekte der moralischen Achtsamkeit für die Zusammenhänge von werteorientierten Korruptionspräventionsmaßnahmen bzw. vorgelebter Unterstützung von Korruptionspräventionsmaßnahmen durch das Topmanagement und der aktiven Unterstützung von Korruptionspräventionsmaßnahmen durch Beschäftigte. Die Dissertation leistet so einen Beitrag zur Förderung von Korruptionspräventions- maßnahmen in Organisationen, indem sie zum einen für Praktikerinnen und Praktiker Ansatzpunkte zur Förderung der Umsetzung und Unterstützung von Korruptionspräventionsmaßnahmen aufzeigt. Außerdem erweitert die Arbeit bisherigen Forschungsergebnisse bezüglich Kor- ruptionspräventionsmaßnahmen in Organisationen um eine motivationale Perspektive.
In dieser Arbeit wurden für die kationische Funktionalisierung des mesoporösen Kieselgels vier Trimethoxysilylpropylpyridiniumiodid-, drei Triethoxysilylpropylimidazolium-Derivate und Triethoxysilylpropylimidazol in mäßigen bis sehr guten Ausbeuten synthetisiert. Diese Alkoxysilane wurden jeweils auf die zuvor synthetisierte mesoporöse Materialoberfläche von SBA 15 kondensiert. Dabei wurden Beladungen zwischen 0.46 und 0.87 mmol/g und BET-Oberflächen zwischen 274 und 579 m2/g erhalten. Das zwitterionische Imidazoliumderivat wurde zusätzlich in der Materialsynthese mittels Cokondensation getestet. Dabei wurde eine ähnliche Beladung von 1.03 mmol/g, aber größere Materialparameter (BET-Oberfläche, mittlerer Porenradius) als bei dem durch Grafting funktionalisierten Material erhalten, wobei ebenfalls die 2D-hexagonale Struktur ausgebildet wurde. Für den Ionenaustausch des Iodidanions auf dem kationisch funktionalisierten Material gegen verschiedene Sulfonate wurden Natrium-N-phenothiazinylpropansulfonat und Natrium-N-acridonylpropansulfonat synthetisiert. Das Verhältnis zwischen kondensierten Kationen und N-Phenothiazinylpropansulfonat liegt zwischen 1:0.66 und 1:0.95 und bei N-Acridonylpropansulfonat zwischen 1:0.35 und 1:0.95. Die Materialparameter waren vergleichbar mit denen der Iodid-haltigen Materialien. Der Ionenaustausch zum Methantrisulfonat-funktionalisierten Material erfolgte ausgehend von Methantrisulfonsäure. Das ermittelte Kationen-Anionen-Verhältnis von 3:1 zeigt, dass die eingesetzte Methantrisulfonsäure dabei vollständig deprotoniert wurde. Bei der jeweiligen Funktionalisierung blieb die 2D-hexagonale Struktur des mesoporösen Kieselgels erhalten.
Die Phenothiazinyl-haltigen Materialien konnten mit Nitrosyltetrafluoroborat und das Methylpyridinium-haltige Material zusätzlich exemplarisch mit Antimonpentachlorid oxidiert werden. Die oxidierten Materialien zeigen ein intensives ESR-Signal mit einem giso-Wert von 2.007 und intensive Banden der Radikalspezies im UV/Vis-Spektrum. Durch die Oxidation wurde das Silikagerüst angegriffen, aber die mesoporöse Struktur blieb erhalten. Die Umsetzung mit Iod führte nicht zu einem radikalhaltigen Material.
Mit einem Überschuss wässriger Wasserstoffperoxid-Lösung konnten die oxidierten diamagnetischen Spezies des N-Phenothiazinylpropansulfonats und mit einem Unterschuss an Nitrosyltetrafluoroborat die Radikalspezies des Dibrom- und N-Phenothiazinylpropan-sulfonats synthetisiert werden.
Operator semigroups and infinite dimensional analysis applied to problems from mathematical physics
(2020)
In this dissertation we treat several problems from mathematical physics via methods from functional analysis and probability theory and in particular operator semigroups. The thesis consists thematically of two parts.
In the first part we consider so-called generalized stochastic Hamiltonian systems. These are generalizations of Langevin dynamics which describe interacting particles moving in a surrounding medium. From a mathematical point of view these systems are stochastic differential equations with a degenerated diffusion coefficient. We construct weak solutions of these equations via the corresponding martingale problem. Therefore, we prove essential m-dissipativity of the degenerated and non-sectorial It\^{o} differential operator. Further, we apply results from the analytic and probabilistic potential theory to obtain an associated Markov process. Afterwards we show our main result, the convergence in law of the positions of the particles in the overdamped regime, the so-called overdamped limit, to a distorted Brownian motion. To this end, we show convergence of the associated operator semigroups in the framework of Kuwae-Shioya. Further, we established a tightness result for the approximations which proves together with the convergence of the semigroups weak convergence of the laws.
In the second part we deal with problems from infinite dimensional Analysis. Three different issues are considered. The first one is an improvement of a characterization theorem of the so-called regular test functions and distribution of White noise analysis. As an application we analyze a stochastic transport equation in terms of regularity of its solution in the space of regular distributions. The last two problems are from the field of relativistic quantum field theory. In the first one the $ (\Phi)_3^4 $-model of quantum field theory is under consideration. We show that the Schwinger functions of this model have a representation as the moments of a positive Hida distribution from White noise analysis. In the last chapter we construct a non-trivial relativistic quantum field in arbitrary space-time dimension. The field is given via Schwinger functions. For these which we establish all axioms of Osterwalder and Schrader. This yields via the reconstruction theorem of Osterwalder and Schrader a unique relativistic quantum field. The Schwinger functions are given as the moments of a non-Gaussian measure on the space of tempered distributions. We obtain the measure as a superposition of Gaussian measures. In particular, this measure is itself non-Gaussian, which implies that the field under consideration is not a generalized free field.
Natürliche Inhaltstoffe von Lebensmitteln können ein gentoxisches Potential haben. Ein Beispiel
dafür sind Phenylpropanoiden, welche als sekundäre Pflanzeninhaltsstoffe in einer Vielzahl von
Gewürz- und Kräuterpflanzen vorkommen. Zu den prominenten Vertretern dieser Stoffe gehören
Estragol und Methyleugenol. Beide allylische Verbindungen wirken hepatokanzerogen im
Tierversuch, wobei als ultimales Kanzerogen die Bildung eines Carbeniumions infolge einer
spontanen Abspaltung eines Sulfatrestes nach Hydroxylierung und anschließender Sulfonierung
der Seitenkette postuliert wird. Dieses Carbeniumion ist in der Lage mit Nukleophilen wie Proteinen
und DNA Addukte zu bilden. α‐ und β‐Asaron nehmen im Gesamtkontext der Phenylpropene eine
Sonderstellung ein, denn im Gegensatz zu anderen 1‑propenylischen Phenylpropenen wie Anethol,
Methylisoeugenol und Isosafrol sind sie wie die allylischen Verbindungen Estragol und
Methyleugenol kanzerogen im Tierversuch.
Zu Beginn der vorliegenden Promotionsarbeit war der Metabolismus von α‐ und β‑Asaron
weitestgehend unbekannt. Aus früheren Studien leitete sich die Hypothese ab, dass die beiden
1‑propenylischen Asarone, nicht wie die allylischen Vertreter über Hydroxylierung und
anschließender Sulfonierung metabolisiert und somit aktiviert werden, sondern eine Epoxidierung
der Seitenkette zu reaktiven Metaboliten führen könnte. Nachdem das Metabolitenspektrum von
α‐ und β‐Asaron aufgeklärt wurde und die Epoxide als verantwortlich für das mutagene Potential
der Verbindungen im Ames-Fluktuationstest identifiziert werden konnten, sollte die Frage der
DNA-Adduktbildung in primären Rattenhepatozyten beantwortet werden. Hierfür wurde die
Reaktivität der Asaronepoxide gegenüber 2′-Desoxynukleosiden untersucht und die gebildeten
Addukte charakterisiert. In einer in-vitro-Studie konnte mit Hilfe einer sensitiven UHPLC-MS/MSMethode
ein konzentrationsabhängiger Zusammenhang zu den gebildeten DNA-Addukten
festgestellt werden. Weiter wurden in Untersuchungen zur Zeitabhängigkeit Hinweise auf Reparatur
der gebildeten Addukte gefunden.
Polychlorierte Biphenyle (PCBs) zählen aufgrund ihrer chemischen Stabilität sowie der toxischen Eigenschaften zu den persistenten organischen Schadstoffen. Im Gegensatz zu den dioxinartigen PCBs ist über die nicht-dioxinartigen (NDL) Verbindungen jedoch nur wenig bekannt. Ihre Wirkung wurde entsprechend jener von Phenobarbital bisher vorwiegend auf eine Aktivierung des konstitutiven Androstan-Rezeptors (CAR) zurückgeführt und mit den fremdstoffmetabolisierenden Enzymen CYP2B1 und CYP3A1 assoziiert. Da zwischen dem CAR und dem Pregnan-X-Rezeptor (PXR), welcher vor allem mit der Induktion von CYP3A-Isoenzymen in Verbindung gebracht wird, jedoch ein komplexer Crosstalk besteht, sollte in primären Rattenhepatozyten anhand spezifischer siRNAs zunächst analysiert werden, ob die ausgewählten, hoch aufgereinigten NDL-PCBs 28, 52, 101, 138, 153 und 180 ihre Effekte hinsichtlich einer Induktion fremdstoffmetabolisierender Enzyme auch über den PXR entfalten. Anschließend sollten die Effekte der NDL-PCBs mit jenen des CAR-Aktivators Phenobarbital sowie mit dem PXR-Agonisten Dexamethason verglichen werden.
Die im Rahmen dieser Arbeit detektierte Induktion von CYP2B1 und CYP3A1 durch Phenobarbital wird hierbei vornehmlich über den CAR vermittelt, während dem PXR für diese Induktionen bestenfalls eine geringe Rolle zugesprochen werden kann. Die CYP3A1-Expression durch Dexamethason wird dagegen erwartungsgemäß über den Pregnan-X-Rezeptor reguliert. Die durch die NDL-PCBs vermittelte Expression von CYP2B1 wird wiederum ähnlich wie bei Phenobarbital über den CAR reguliert, jedoch scheinen sich die NDL-PCBs in Bezug auf die CYP3A1-Expression von einer klassischen Induktion vom Phenobarbital-Typ abzugrenzen. So fällt die CYP3A1-Expression durch die NDL-PCBs im Vergleich zu jener von Phenobarbital signifikant höher aus und wird im Falle der NDL-PCBs zwar ebenfalls zum Großteil über den CAR reguliert, allerdings wird diese Induktion im Gegensatz zu Phenobarbital zum Teil auch über den PXR vermittelt. Das Induktionsvermögen der jeweiligen NDL-PCBs konnte hierbei weitgehend mit ihrem Chlorierungsgrad bzw. der zugehörigen Hydrophobizität in Verbindung gebracht werden. Zudem vermag der PXR die CAR-regulierte CYP2B1- und CYP3A1-Expression durch Phenobarbital sowie die NDL-PCBs effektiv zu stören, wohingegen der CAR keinen solch starken Einfluss auf die PXR-vermittelte CYP3A1-Expression durch Dexamethason zu besitzen scheint.
Da viele Induktoren fremdstoffmetabolisierender Enzyme nachweislich auch als potente Tumor-promotoren in der Rattenleber fungieren, allerdings die NDL-PCBs und gerade solche Substanzen, die spezifisch den PXR aktivieren, in Bezug auf ihre tumorigenen Eigenschaften bisher nur unzureichend charakterisiert sind, wurden weiterhin die antiapoptotischen Eigenschaften der NDL-PCBs untersucht. Hierbei konnte sowohl für die NDL-PCBs als auch für Phenobarbital und Dexamethason ein hemmender Einfluss auf die UV-induzierte Apoptose in primären Rattenhepatozyten beobachtet werden, wobei der überwiegende Teil der NDL-PCB-bedingten Apoptoseinhibition wieder dem CAR zugesprochen werden kann. Im Gegensatz zu Phenobarbital, dessen Wirkung ausschließlich über den CAR reguliert wird, leistet jedoch auch der PXR bei den NDL-PCBs wieder einen Beitrag zu deren antiapoptotischen Effekten. Sowohl bei der NDL-PCB-bedingten Apoptosehemmung als auch bei der Induktion von CYP3A1 sind CAR und PXR demnach im jeweils gleichen Verhältnis beteiligt. Obwohl der PXR jedoch die über CAR regulierte CYP2B1- und CYP3A1-Expression effektiv inhibiert, trat dieser Effekt hingegen nicht bei der CAR-vermittelten Hemmung der Apoptose auf. Dies legt wiederum den Schluss nahe, dass zwischen der NDL-PCB-bedingten Apoptosehemmung und der Induktion fremdstoffmetabolisierender Enzyme keine hinreichende Korrelation besteht.
Während für den Menschen bisher kein erhöhtes Lebertumorrisiko infolge einer chronischen Exposition gegenüber Phenobarbital gefunden werden konnte, konnte für den PXR-Agonisten Dexamethason dagegen auch ein Einfluss auf die Apoptose in humanen Hepatozyten nachgewiesen werden. In Anbetracht dessen, dass auch der PXR mit der NDL-PCB-bedingten Apoptosehemmung in Verbindung gebracht wird, muss auch ein möglicher Einfluss der nicht-dioxinartigen PCBs auf die Kanzerogenese beim Menschen in Betracht gezogen werden.
Das Kniegelenk ist mitunter die am häufigsten betroffene Struktur bei Sportverletzungen, deren Auswirkungen nachhaltig die sportliche Leistung beeinträchtigen können. Für eine dynamische Kniestabilität sind neben einer kräftigen kniegelenksumgreifenden und hüftumgebenden Muskulatur eine optimale Oberkörperstabilität erforderlich, da eine erhöhte laterale Oberkörperneigung in erhöhten Knieabduktionswinkeln und -momenten resultieren kann. Die Hüftmuskulatur agiert als Bindeglied zwischen Oberkörper und unteren Extremitäten, beeinflusst die mechanische Kopplung und kann bei einer Schwäche in einer Veränderung des Schwerelots mit einhergehender Instabilität resultieren. Weiterhin beeinflusst die neuromuskuläre Kontrolle die Gesamtstabilität bei sportlichen Bewegungen, wobei die Ko-Kontraktion der ventralen und dorsalen Oberkörperseite in diesem Zusammenhang noch nicht untersucht wurde. Mit der vorliegenden Arbeit soll ein Beitrag zur Aufklärung der Kniestabilität bei verletzungsrelevanten Bewegungen unter systematischer Variation von Belastungsstufen geleistet sowie ein besseres Verständnis der mechanischen Kopplung mit Implikationen zu geeigneten Screening-Verfahren und Trainingsinterventionen erlangt werden.
Forschungsdefizite aufgreifend, wurde eine 3D Bewegungsanalyse bei sportlich Aktiven und Judoka konzipiert, die (a) die Erfassung kinematischer, kinetischer und elektromyographischer Indikatoren integrierte, (b) die untere Extremität und den Oberkörper einbezog und die (c) verschiedene repräsentative Bewegungsaufgaben beinhaltete und systematisch variierte: Landungen und Sprünge, ein- und beidbeinig, vertikal und lateral, stabiler und instabiler Untergrund sowie dabei jeweils systematische Variation der Fall- bzw. Sprungdistanz. Daraus ergaben sich zwei zentrale Forschungsgegenstände:
1. Biomechanische Belastungsstruktur, Sprungleistung und neuromuskuläre Aktivierung im Oberkörper bei verschiedenen Sprung- und Landungsaufgaben.
2. Zusammenhänge der dynamischen Kniegelenksstabilität mit Oberkörperkinematik und neuromuskulärer Aktivität im Oberkörper – Hüftkinematik und Hüftkinetik.
Die biomechanischen Belastungsindikatoren unterschieden sich zwischen den verschiedenen, repräsentativen Bewegungsaufgaben beträchtlich. Dabei zeigten der einbeinige Drop Jump (DJ) und der Side Jump (SJ) besonders ausgeprägte Belastungsindikatoren. Des Weiteren stiegen die Belastungsindikatoren mit zunehmender Belastung (Fallhöhe- bzw. Sprungweite) an. Die Untergrundbedingung, das Geschlecht und die Sportart spielten eine untergeordnete Rolle. Zur Vorhersage der Kniestabilität eigneten sich die laterale Oberkörperneigung, das Hüftabduktionsmoment und die Hüftinnenrotation. Insbesondere die Hüftinnenrotation konnte als stärkster Prädiktor identifiziert werden. Eine hohe Hüftkraft ging mit schwächeren Zusammenhängen zwischen Knieabduktionsmoment und Knieabduktion einher. Non-lineare interaktive Prädiktoreffekte unterschieden sich zum einen zwischen den Bewegungsaufgaben und zeigten zum anderen einen hohen eigenen Aufklärungsbeitrag für die laterale Oberkörperneigung, wenn diese mit der Kniekinematik und Hüftinnenrotation zur kategorialen Zuordnung des Knieabduktionsmoments und der Knierotation untersucht wurde. Die Ko-Kontraktion im Oberkörper konnte als weiterer Indikator der Oberkörperkontrolle miteinbezogen werden.
Die unilateralen DJs und SJs, welche unterschiedliche Belastungsmuster typischer sportlicher Aktionen abbilden, wiesen unterschiedliche Belastungscharakteristika auf. Deshalb empfiehlt es sich beide Tests mit Variation der Fallhöhen bzw. Sprungweiten auf stabilem Untergrund in ein Screening-Verfahren unter Einbezug der Oberkörperkontrolle (Kinematik, Ko-Kontraktion) aufzunehmen. Die Oberkörperkontrolle sollte als Prädiktor der Kniestabilität non-linear und in Verbindung mit der Kniekinematik und Hüftrotation untersucht werden. Weiterhin sollte die Hüftkraft in zukünftigen Studien zur Kniestabilität und in Trainingsinterventionen einbezogen werden.
Learning From Networked-data: Methods and Models for Understanding Online Social Networks Dynamics
(2020)
Abstract
Nowadays, people and systems created by people are generating an unprecedented amount of
data. This data has brought us data-driven services with a variety of applications that affect
people’s behavior. One of these applications is the emergent online social networks as a method
for communicating with each other, getting and sharing information, looking for jobs, and many
other things. However, the tremendous growth of these online social networks has also led to many
new challenges that need to be addressed. In this context, the goal of this thesis is to better understand
the dynamics between the members of online social networks from two perspectives. The
first perspective is to better understand the process and the motives underlying link formation in
online social networks. We utilize external information to predict whether two members of an online
social network are friends or not. Also, we contribute a framework for assessing the strength of
friendship ties. The second perspective is to better understand the decay dynamics of online social
networks resulting from the inactivity of their members. Hence, we contribute a model, methods,
and frameworks for understanding the decay mechanics among the members, for predicting members’
inactivity, and for understanding and analyzing inactivity cascades occurring during the decay.
The results of this thesis are: (1) The link formation process is at least partly driven by interactions
among members that take place outside the social network itself; (2) external interactions might
help reduce the noise in social networks and for ranking the strength of the ties in these networks;
(3) inactivity dynamics can be modeled, predicted, and controlled using the models contributed in
this thesis, which are based on network measures. The contributions and the results of this thesis
can be beneficial in many respects. For example, improving the quality of a social network by introducing
new meaningful links and removing noisy ones help to improve the quality of the services
provided by the social network, which, e.g., enables better friend recommendations and helps to
eliminate fake accounts. Moreover, understanding the decay processes involved in the interaction
among the members of a social network can help to prolong the engagement of these members. This
is useful in designing more resilient social networks and can assist in finding influential members
whose inactivity may trigger an inactivity cascade resulting in a potential decay of a network.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
The iterative development and evaluation of the gamified stress management app “Stress-Mentor”
(2020)
The gamification of mHealth applications is a critically discussed topic. On one hand, studies show that gamification can have positive impact on an app’s usability and user experience. Furthermore, evidence grows that gamification can positively influence the regular usage of health apps. On the other hand it is questioned whether gamification is useful for health apps in all contexts, especially regarding stress management. However, to this point few studies investigated the gamification of stress management apps.
This thesis describes the iterative development of the gamified stress management app “Stress-Mentor” and examines whether the implemented gamification concept results in changes in the app’s usage behavior, as well as in usability and user experience ratings.
The results outline how the users’ involvement in “Stress-Mentor’s” development through different studies influenced the app’s design and helped to identify necessary improvements. The thesis also shows that users who received a gamified app version used the app more frequently than users of a non-gamified control group.
While gamification of stress management is critically discussed, it was positively received by the users of “Stress-Mentor” throughout the app’s development. The results also showed that gamification can have positive effects on the usage behavior of a stress management app and therefore, results in an increased exposure to the app’s content. Moreover, an expert study outlined the applicability of “Stress-Mentor’s” concept for other health contexts.
Mehrschichtige Stahlbetonwandtafeln bestehen aus einer Trag- und Vorsatzschale aus Stahlbeton sowie einer innenliegenden Dämmschicht. Die als Fassade fungierende Vorsatzschale ist in der Regel nichttragend und dient als Wetterschutzschicht für die Wärmedämmung sowie zur Gestaltung des Gebäudes. Trotz der nichttragenden Funktion werden diese Fassaden massiv ausgeführt, da die innenliegende Bewehrung vor Korrosion geschützt werden muss. Das widerspricht dem Trend zu immer größeren, filigranen Sichtbetonfassaden, die ein Minimum an Fugen aufweisen. Durch innovative Entwicklungen im Bereich der Betontechnologie sowie in der Verankerungstechnik wird der Bau von filigranen, unbewehrten, energieeffizienten und nachhaltigen Architekturbetonfassaden mit wenigen Zentimetern Bauteildicke als Vorsatzschale von mehrschichtigen Stahlbetonwand-tafeln ermöglicht. Dieses Potential eröffnet sich durch die Verwendung von Ultrahochleistungsbetonen, die sich unteranderem durch ihre hohe Zug- und Biegezugfestigkeit auszeichnen. Durch Verbindungsmittel aus glasfaserverstärktem Kunststoff wird die Fassade mehrfach statisch unbestimmt befestigt. Aufgrund des vergleichsweise geringen Elastizitätsmoduls können die sonst kritischen Belastungen infolge Zwangs reduziert werden.
Gegenstand der vorliegenden Arbeit ist die Entwicklung eines abgesicherten Bemessungskonzeptes um unbewehrte, punktgestützte Fassaden als Vorsatzschicht in mehrschichtigen Stahlbetonwandtafeln bemessen zu können. Dabei liegt der Fokus auf der Berücksichtigung von Zwangseinwirkungen, Expositionen und geometrischen Einflüssen. Es werden umfangreiche, kleinmaßstäbliche Versuche durchgeführt, um den Maßstabseffekt, den Einfluss der Tragrichtung, des verwendeten Gesteins sowie Expositionen infolge Temperatur, Feuchtigkeit und Frost-Tau-Wechseln auf den Materialwiderstand zu untersuchen. In Großversuchen werden ausgewählte Expositionen sowie geometrische Parameter am Gesamtsystem erforscht. Weiterhin wird der Einfluss der lokalen und globalen Steifigkeit der Unterkonstruktion analysiert. In einem nächsten Schritt erfolgen die numerische Simulation des Fassadensystems und die Modellverifizierung anhand der Ergebnisse der Großversuche. Mithilfe einer Parameterstudie wird der Einfluss einer globalen und lokalen Steifigkeitsänderung der Unterkonstruktion untersucht. Ein weiterer Fokus liegt auf der Spannungsverteilung im Bereich einspringender Bauteilecken.
Die Ergebnisse münden in einem Bemessungskonzept und Konstruktionsregeln für die Fassadenplatte, Verbindungsmittel sowie die Verankerung. Für die Fassade wird ein Biege- und Normalkraftnachweis eingeführt. Die Verbindungsmittel werden auf Biegung und Zug, Schub und Stabilität nachgewiesen. Hinsichtlich der Verankerung wird ein Zug-, Querzug- und Drucknachweis geführt. Das Bemessungskonzept basiert auf einer Kombination der Bemessung von Glas- und Betonwerksteinfassaden, beinhaltet Geometriefaktoren wie im Holzbau und berücksichtigt erstmalig und planmäßig auch Zwangseinwirkungen. Die Berechnungsmodelle werden anhand der Versuchsergebnisse plausibilisiert. Ein semiprobabilistisches Teilsicherheitskonzept mit der Bestimmung des Teilsicherheitsbeiwertes für UHPC (engl. Ultra High Performance Concrete) sowie ein Resttragfähigkeitsnachweis runden die Arbeit ab.
This thesis aims to examine various determinants of perceived team diversity on the on hand, and, on the other hand, the individual consequences of perceived team diversity. To ensure a strong theoretical foundation, I integrate and discuss different conceptualizations of and theoretical approaches to team diversity, empirically examined in three independent studies. The first study investigates the relationship between objective team diversity and perceived team diversity, and as moderators individual attitudes toward diversity and perception of one’s own work team’s diversity. The second study answers the questions of why and when dirty-task frequency impairs employees’ work relations and the third study examines how different cognitive mechanisms mediate the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. Taken together, study results provide support for the selection-extraction-application model of people perception and the assumption that individuals can integrate objective team characteristics into their mental representation of teams, using them to judging the team. Moreover, results show that a fit between perceived supervisor support and perceived organizational value of diversity can buffer the effects of dirty-task frequency on perception of identity-based subgroups, as well as perceived relationship conflict and surface acting, through employees’ perceptions of identity-based subgroups. Also, perceived social-identity threat and perceived procedural fairness but not perceived distributive fairness and perceived transactive memory systems serve as cognitive mechanisms of the relationships between employees’ perceptions of different types of subgroups and their elaboration of information and perspectives. These results contribute to diversity literature, such as the theory of subgroups in work teams and the categorization-elaboration model. In addition, I propose the input-mediator-output-input model of perceived team diversity, based on the study results, and recommend practitioners to develop diversity mindsets in teams.
Mit dem Einsatz stiftförmiger Verbindungsmittel am Stabende werden Holzstäbe durch die notwendigen Bohrlöcher für die Verbindungsmittel und durch die notwendigen Schlitze für etwaige Verbindungsbleche stets geometrisch und damit statisch geschwächt. Das volle Tragpotential des Einzelstabes kann somit - mit konventionellen Verbindungsmitteln, wie Stabdübeln, (Pass)-Bolzen aber auch Dübeln besonderer Bauart – nicht vollständig ausgeschöpft werden.
Im Rahmen dieser Arbeit wird die Verstärkung von Bauteilanschlüssen in auf Normalkraft beanspruchten Stabtragwerken mit Kunstharzpressholz (KP) untersucht, das mittels einer Keilzinkenverbindung an die Enden nativer Stäbe geklebt wird. Es werden sowohl charakteristische Keilzinkenfestigkeiten unterschiedlicher Profilgeometrien an hybriden Verbindungen zwischen nativem Holz und KP ermittelt als auch Lochleibungsfestigkeiten von KP unterschiedlichen Aufbaus an zylindrischen Verbindungsmitteln mit einem Durchmesser von d = 8 mm bis d = 60 mm bestimmt. Die Untersuchungen belegen, dass die Tragfähigkeit des Anschlussbereiches sowie die Tragfähigkeit der Keilzinkenverbindung zwischen nativem Holz und KP größer ist als die Tragfähigkeit des Bruttoquerschnitts eines nativen Stabes bis Festigkeitsklasse C35. Deshalb kann die volle Tragfähigkeit des Bruttoquerschnitts für den statischen Nachweis angesetzt und damit eine Bemessung auf den Spannungsnachweis bei Zugstäben und auf den Stabilitätsnachweis bei Druckstäben vereinfacht werden. Gleichzeitig ist eine Reduktion der für die Verbindung notwendigen zylindrischen Verbindungsmittel auf ein einziges möglich, was die Bauteilmontage als auch die Bauteildemontage erheblich vereinfacht.
Aufgrund seiner hohen Festigkeit, Härte und Formstabilität eignet sich KP bestens um reversible Bauteilanschlüsse auszubilden. Um die Verbindung zerstörungsfrei zu lösen und um die Wiederverwendbarkeit der Bauteile zu ermöglichen, müssen plastisch irreversible Verformungen der Verbindungsmittel als auch der Lochleibung ausgeschlossen werden. Innerhalb dieser Arbeit wird neben den eigentlichen Lochleibungsfestigkeiten daher auch der Einfluss der Verbindungsmittelschlankheit auf das Tragverhalten von Anschlüssen mit zylindrischen Verbindungsmitteln in KP untersucht.
Neben Scher-Lochleibungsanschlüssen werden auch Anschlüsse mit vorgespannten Schrauben im KP-verstärkten Stabende thematisiert. Im Vergleich zu reinen Scher-Lochleibungsverbindungen kann mit gleitfesten Verbindungen die Tragfähigkeit des Bauteilanschlusses signifikant gesteigert werden. Zudem lassen sich unter Einhaltung üblicher Bauteiltoleranzen nach DIN 18203-3 (2008) zugleich hohe Anschlusssteifigkeiten realisieren.
Für Scher-Lochleibungsanschlüsse und für gleitfeste Anschlüsse werden Gleichungssysteme als auch Bemessungstabellen entwickelt. Das Potential KP-verstärkter Stäbe wird am Beispiel modular aufgebauter Fachwerkträger mit Scher-Lochleibungsverbindungen erörtert.
Abschließend werden ringförmige Knotenanschlüsse aus KP vorgestellt. Mit diesen organisch geformten Freiformknoten können Stäbe unterschiedlichen Querschnitts, unterschiedlicher Länge und unter unterschiedlichen Winkeln gestoßen werden.
Mit dieser Arbeit wird die Grundlage zur Bemessung von Holztragwerken mit Knotenverstärkungen aus KP geschaffen.
Die Disproportionierung gesättigter Kohlenwasserstoffe, auch Chevron-Prozess genannt, basiert auf einem Vorschlag von Thomas Hughes aus dem Jahr 1964. Der im Phillipp’s Triolefin Process genutzte Metathesekatalysator wird hierbei durch eine weitere Komponente ergänzt, die zusätzlich Dehydrier- und Hydrierreaktionen katalysiert. Somit wird die Metathesereaktion durch eine vorgelagerte Dehydrier- und eine nachgelagerte Hydrierreaktion zu einem
dreistufigen Reaktionssystem erweitert. 1973 wurde diese Reaktion erstmals von Burnett und
Hughes als Alkandisproportionierung beschrieben. In Analogie zum Phillip’s Triolefin Process werden lineare gesättigte Kohlenwasserstoffe mit gleicher Kettenlänge zu unterschiedlichen Produkten mit höheren und niedrigeren Molekulargewichten umgesetzt. Bei der MA werden entgegengesetzt langkettige und kurzkettige Kohlenwasserstoffe als Edukte genutzt, aus welchen die Moleküle mit den dazwischen liegenden Kettenlängen gebildet werden.
Im Rahmen dieser Arbeit wurde die Disproportionierung von Alkanen (MR) an heterogenen, bifunktionellen Katalysatoren untersucht, um ein besseres Verständnis des Einflusses verschiedener Komponenten auf die Wirkweise und Flexibilität des Gesamtsystems zu erlangen. Zusätzlich wurde ein quantifizierbarer Bezug zwischen den verschiedenen Katalysatorkombinationen hergestellt. Um die in der Literatur beschriebenen Ergebnisse zu
reproduzieren, wurde zunächst eine Strömungsapparatur geplant, ausgelegt und konstruiert. In einer ersten Laufzeitmessung wurde das aus der Literatur bekannte Katalysatorsystem
(Pt/Li/γ-Al2O3 & WOX/SiO2) untersucht. Dadurch konnten die weiteren Laufzeitmessungen mit modifizierten Materialien in Relation zu den ursprünglichen Ergebnissen der Literatur gesetzt werden. Mit dem Ziel die katalytische Aktivität des Pt-basierten Katalysatorsystems zu verbessern, wurde der Li-Promotor der Pt-Teilkomponente variiert und durch Na, K und Sn ersetzt, bzw. ersatzlos entfernt. Bei einem zweiten Ansatz zur Untersuchung des katalytischen Verhaltens des Pt-Systems wurden die Trägermaterialen variiert. Hierzu wurde das γ-Al2O3 durch verschiedene mikroporöse und mesoporöse Materialien ersetzt.
Als Alternative zu dem in der Literatur ausführlich beschriebenen Pt-basierten Katalysatorsystem wurde in dieser Arbeit CrOx untersucht. In einer ersten
Versuchsreihe wurde die katalytische Aktivität des Systems in Abhängigkeit von der Cr-Beladung der Dehydrier-/Hydrierkomponente untersucht. In einer zweiten Versuchsreihe wurde, wie schon bei dem Pt-Katalysator, der Promotor der Dehydrier-/Hydrierkomponente evaluiert. Eine weitere Variation stellte die Untersuchung der mesoporösen Materialien MCM-41 und
SBA-15 als Trägermaterial der Metathesekomponente dar. Da, anders als bei Pt, für das Cr-basierte Katalysatorsystem vor dieser Arbeit keine Informationen zu dem katalytischen Verhalten in Abhängigkeit von den Betriebsparametern vorlagen, wurden in einer letzten Versuchsreihe die Betriebsbedingungen evaluiert.
Die Ergebnisse der durchgeführten Versuchsreihen mit zahlreichen Variationen in der Katalysatorzusammensetzung weisen auf eine hohe Flexibilität des bestehenden Systems im Hinblick auf den Austausch der Katalysatorkomponenten hin. In diesem Rahmen konnte gezeigt werden, dass die in dieser Arbeit untersuchten CrOx-basierten Katalysatoren eine realistische Alternative mit vielseitigen Optimierungsmöglichkeiten zu den bisher bekannten, Pt-basierten Systemen darstellt.
In a recent paper, G. Malle and G. Robinson proposed a modular anologue to Brauer's famous \( k(B) \)-conjecture. If \( B \) is a \( p \)-block of a finite group with defect group \( D \), then they conjecture that \( l(B) \leq p^r \), where \( r \) is the sectional \( p \)-rank of \( D \). Since this conjecture is relatively new, there is obviously still a lot of work to do. This thesis is concerned with proving their conjecture for the finite groups of exceptional Lie type.