Refine
Year of publication
- 2019 (151) (remove)
Document Type
- Doctoral Thesis (70)
- Article (39)
- Master's Thesis (16)
- Periodical Part (11)
- Working Paper (7)
- Preprint (2)
- Book (1)
- Conference Proceeding (1)
- Course Material (1)
- Habilitation (1)
- Other (1)
- Report (1)
Keywords
- Erwachsenenbildung (6)
- Schule (5)
- wissenschaftliche Weiterbildung (5)
- Digitalisierung (3)
- Evaluation (3)
- Mathematische Modellierung (3)
- Organisationsentwicklung (3)
- Schulentwicklung (3)
- Simulation (3)
- Zertifikatskurs (3)
Faculty / Organisational entity
- Fachbereich Informatik (23)
- Fachbereich Sozialwissenschaften (21)
- Fachbereich Maschinenbau und Verfahrenstechnik (15)
- Distance and Independent Studies Center (DISC) (14)
- Fachbereich Physik (14)
- Fachbereich Mathematik (13)
- Fachbereich Biologie (10)
- Fachbereich Elektrotechnik und Informationstechnik (9)
- Fachbereich Chemie (8)
- Fachbereich Bauingenieurwesen (6)
Using industrial robots for machining applications in flexible manufacturing
processes lacks a high accuracy. The main reason for the deviation is the
flexibility of the gearbox. Secondary Encoders (SE) as an additional, high precision
angle sensor offer a huge potential of detecting gearbox deviations. This paper
aims to use SE to reduce gearbox compliances with a feed forward, adaptive
neural control. The control network is trained with a second network for system
identification. The presented algorithm is capable of online application and optimizes
the robot accuracy in a nonlinear simulation.
Biological soil crusts (biocrusts) have been recognized as key ecological players in arid and semiarid regions at both local and global scales. They are important biodiversity components, provide critical ecosystem services, and strongly influence soil-plant relationships, and successional trajectories via facilitative, competitive, and edaphic engineering effects. Despite these important ecological roles, very little is known about biocrusts in seasonally dry tropical forests. Here we present a first baseline study on biocrust cover and ecosystem service provision in a human-modified landscape of the Brazilian Caatinga, South America's largest tropical dry forest. More specifically, we explored (1) across a network of 34 0.1 ha permanent plots the impact of disturbance, soil, precipitation, and vegetation-related parameters on biocrust cover in different stages of forest regeneration, and (2) the effect of disturbance on species composition, growth and soil organic carbon sequestration comparing early and late successional communities in two case study sites at opposite ends of the disturbance gradient. Our findings revealed that biocrusts are a conspicuous component of the Caatinga ecosystem with at least 50 different taxa of cyanobacteria, algae, lichens and bryophytes (cyanobacteria and bryophytes dominating) covering nearly 10% of the total land surface and doubling soil organic carbon content relative to bare topsoil. High litter cover, high disturbance by goats, and low soil compaction were the leading drivers for reduced biocrust cover, while precipitation was not associated Second-growth forests supported anequally spaced biocrust cover, while in old-growth-forests biocrust cover was patchy. Disturbance reduced biocrust growth by two thirds and carbon sequestration by half. In synthesis, biocrusts increase soil organic carbon (SOC) in dry forests and as they double the SOC content in disturbed areas, may be capable of counterbalancing disturbance-induced soil degradation in this ecosystem. As they fix and fertilize depauperated soils, they may play a substantial role in vegetation regeneration in the human-modified Caatinga, and may have an extended ecological role due to the ever-increasing human encroachment on natural landscapes. Even though biocrusts benefit from human presence in dry forests, high levels of anthropogenic disturbance could threaten biocrust-provided ecosystem services, and call for further, in-depth studies to elucidate the underlying mechanisms.
Was in der vorliegenden empirischen Analyse des Einzelfalls mit Blick auf eine umfassende organisationale Transformation als inhärent-emergenter Prozess beschrieben wird, ist gewiss ein Sonderfall: Nach dem Abbruch eines Beratungsprozesses treibt ein System seine Transformation autonom voran, ohne weitere Unterstützung einer Prozessberatung und stellt damit seine Selbstentwicklungsfähigkeit in einem transformativen Prozess der Organisationsentwicklung unter Beweis. Dies ist in der Organisationsentwicklung nicht die Regel und wird sehr wahrscheinlich auch nicht von anderen Organisationen als Modell aufgegriffen, auch nicht von Organisationen desselben Typs (familiengeführte mittelständische Organisationen). Dass ein Eintritt in eine radikale Transformation als autopoietischer Prozess wie hier überhaupt möglich ist, ist den spezifischen Eigenschaften einer Organisation und ihrer zentralen Entscheidungsakteure, besonderen, kontingent geprägten Ereignisketten sowie der aktuellen Konstellation der zweiten Führungsebene zuzuschreiben. Die hier vorgestellte Untersuchung entspricht daher einem „neuen und unbeschriebenen Fall“ (Hering/Jungmann, 2005: 621), einem „per se interessanten Fall“ (ebd.), der sich in keinen Forschungsstand einordnen lässt.
To exploit the whole potential of Additive Manufacturing (AM), a sound knowledge about the mechanical and especially cyclic properties of AM materials as well as their dependency on the process parameters is indispensable. In the presented work, the influence of chemical composition of the used powder on the fatigue behavior of Selectively Laser Melted (SLM) and Laser Deposition Welded (LDW) specimens made of austenitic stainless steel AISI 316L was investigated. Therefore, in each manufacturing process two variations of chemical composition of the used powder were utilized. For qualitative characterization of the materials cyclic deformation behavior, load increase tests (LITs) were performed and further used for the physically based lifetime calculation method (PhyBaLLIT), enabling an efficient determination of stress (S)–number of cycles to failure (Nf) curves (S–Nf), which show excellent correlation to additionally performed constant amplitude tests (CATs). Moreover, instrumented cyclic indentation tests (PhyBaLCHT) were utilized to characterize the materials’ defect tolerance in a comparably short time. All material variants exhibit a high influence of microstructural defects on the fatigue properties. Consequently, for the SLM process a higher fatigue lifetime at lower stress amplitudes could be observed for the batch with a higher defect tolerance, resulting from a more pronounced deformation induced austenite–α’-martensite transformation. In correspondence to that, the batch of LDW material with an increased defect tolerance exhibit a higher fatigue strength. However, the differences in defect tolerance between the LDW batches is only slightly influenced by phase transformation and seems to be mainly governed by differences in hardening potential of the austenitic microstructure. Furthermore, a significantly higher fatigue strength could be observed for SLM material in relation to LDW specimens, because of a refined microstructure and smaller microstructural defects of SLM specimens.
In this paper we present the results of the project “#Datenspende” where during the German election in 2017 more than 4000 people contributed their search results regarding keywords connected to the German election campaign.
Analyzing the donated result lists we prove, that the room for personalization of the search results is very small. Thus the opportunity for the effect mentioned in Eli Pariser’s filter bubble theory to occur in this data is also very small, to a degree that it is negligible. We achieved these results by applying various similarity measures to the result lists that were donated. The first approach using the number of common results as a similarity measure showed that the space for personalization is less than two results out of ten on average when searching for persons and at most four regarding the search for parties. Application of other, more specific measures show that the space is indeed smaller, so that the presence of filter bubbles is not evident.
Moreover this project is also a proof of concept, as it enables society to permanently monitor a search engine’s degree of personalization for any desired search terms. The general design can also be transferred to intermediaries, if appropriate APIs restrict selective access to contents relevant to the study in order to establish a similar degree of trustworthiness.
Faser-Kunststoff-Verbunde erfahren aufgrund ihrer guten gewichtsspezifischen mechanischen Kennwerte eine zunehmende Verbreitung in verschiedensten Anwendungsfeldern. Eine Voraussetzung für die Ausnutzung der Leichtbaupotenziale bei gleichzeitiger Begrenzung der Herstellkosten ist jedoch eine werkstoffgerechte Lasteinleitung durch geeignete Verbindungsverfahren.
Gegenstand dieser Arbeit ist die Untersuchung eines Ansatzes zur Herstellung von Strukturen aus Faser-Kunststoff-Verbund durch eine getrennte Herstellung von teilausgehärteten Substrukturen mit anschließender Verbindung durch gemeinsame Vollaushärtung. Zur umfassenden Analyse der Prozessfenster und Potenziale werden zunächst am Beispiel eines faserverstärkten Werkstoffes auf Epoxidharzbasis die wichtigsten Zustands- und Eigenschaftsänderungen während der Vernetzung des Matrixharzes charakterisiert. Als Resultat dieser Analysen können die Entwicklung des Aushärtegrads bei verschiedener Temperaturführung im Aushärteprozess sowie die grundlegenden mechanischen Eigenschaften von Matrixwerkstoff und Verbund bei verschiedenen Aushärtegraden quantifiziert werden.
Aufbauend auf diesen Ergebnissen werden anhand experimenteller Untersuchungen an durch gemeinsame Aushärtung hergestellten Laminaten die Verbindungseigenschaften in Abhängigkeit von unterschiedlichen Einflussfaktoren ermittelt. Für die zwei Prozessvarianten Autoklavprozess und Resin Transfer Molding (RTM) wird die Energiefreisetzungsrate unter Mode I-Belastung bei Variation des Aushärtegrads der zu verbindenden Laminate analysiert. Die Variation der Verbindungseigenschaften wird anhand von rasterelektronenmikroskopischen Untersuchungen der Bruchfläche erklärt. Weiterhin wird der Einfluss der Oberflächeneigenschaften durch Anwendung verschiedener Vorbehandlungen analysiert. Die Oberflächeneigenschaften Oberflächenspannung, Topografie und chemische Zusammensetzung werden gemessen und hinsichtlich ihrer Prognosefähigkeit für die Verbindungseigenschaften diskutiert.
Zur Demonstration der Umsetzbarkeit der Herstellmethode auf Bauteilebene werden für den Einsatz im Luftfahrtbereich typische Details hergestellt und mechanisch geprüft. Die Eigenschaften der in der hier untersuchten Methodik hergestellten Details zeigen nur geringe Abweichungen im Vergleich zu denen der Referenzmethode.
Micronuclei-based model system reveals functional consequences of chromothripsis in human cells
(2019)
Cancer cells often harbor chromosomes in abnormal numbers and with aberrant structure. The consequences of these chromosomal aberrations are difficult to study in cancer, and therefore several model systems have been developed in recent years. We show that human cells with extra chromosome engineered via microcell-mediated chromosome transfer often gain massive chromosomal rearrangements. The rearrangements arose by chromosome shattering and rejoining as well as by replication-dependent mechanisms. We show that the isolated micronuclei lack functional lamin B1 and become prone to envelope rupture, which leads to DNA damage and aberrant replication. The presence of functional lamin B1 partly correlates with micronuclei size, suggesting that the proper assembly of nuclear envelope might be sensitive to membrane curvature. The chromosomal rearrangements in trisomic cells provide growth advantage compared to cells without rearrangements. Our model system enables to study mechanisms of massive chromosomal rearrangements of any chromosome and their consequences in human cells.
Functional Metallic Microcomponents via Liquid-Phase Multiphoton Direct Laser Writing: A Review
(2019)
We present an overview of functional metallic microstructures fabricated via direct laser writing out of the liquid phase. Metallic microstructures often are key components in diverse applications such as, e.g., microelectromechanical systems (MEMS). Since the metallic component’s functionality mostly depends on other components, a technology that enables on-chip fabrication of these metal structures is highly desirable. Direct laser writing via multiphoton absorption is such a fabrication method. In the past, it has mostly been used to fabricate multidimensional polymeric structures. However, during the last few years different groups have put effort into the development of novel photosensitive materials that enable fabrication of metallic—especially gold and silver—microstructures. The results of these efforts are summarized in this review and show that direct laser fabrication of metallic microstructures has reached the level of applicability.
Congress Report 2019.9-11
(2019)
A distributional solution framework is developed for systems consisting of linear hyperbolic partial differential equations (PDEs) and switched differential algebraic equations (DAEs) which are coupled via boundary conditions. The unique solvability is then characterize in terms of a switched delay DAE. The theory is illustrated with an example of electric power lines modeled by the telegraph equations which are coupled via a switching transformer where simulations confirm the predicted impulsive solutions.
In recent years, the Federal Republic of Germany has been the most significant destination for asylum-related migration in the European Union. Asylum-related migrants are those who left their country of origin to search for better life in a country that is safe and usually provides better economic opportunities. Most of these migrants sought asylum; however, not all needed international protection. There is a continuum between forced and voluntary migration and the categorization and categories of migrants are very context-dependent. The main research questions in this research report are the following: 1. What kinds of asylum-related migrants (refugees, people with a temporary residence permit, asylum seekers, non-deportable former asylum seekers and undocumented migrants) live in Germany, in particular in Rhineland-Palatinate and Kaiserslautern? 2. What are the everyday lives of asylum-related migrants like in Rhineland-Palatinate and Kaiserslautern? 3. What are the migration wishes and plans of asylum-related migrants in Rhineland-Palatinate and Kaiserslautern? 4. How and for what reasons do asylum-related migrants in Rhineland-Palatinate and Kaiserslautern use the Internet and social media? The research questions are answered based on the empirical material collected during the field research in the spring and summer of 2019. In addition, earlier research and statistics on migrants, asylum seekers and refugees in Germany are utilized. Asylum-related migrants responded according to their own views; the results indicate both their perspectives and our interpretation of them.
Eine Maturaschule ist eine private Bildungseinrichtung, in der Menschen darauf vorbereitet werden, ihre Matura, das österreichische Pendant zum Abitur, nachzuholen. Maturaschulen, die auf externe Prüfungen vorbereiten, verfügen üblicherweise weder über die Möglichkeit, offizielle Noten zu geben, noch Anwesenheit einzufordern. Die Gegebenheiten einer Maturaschule sind somit nicht nur vorteilhaft hinsichtlich eines guten Schulklimas mit partnerschaftlichen Lehrer-Schüler-Beziehungen. Im Zusammenhang mit zu wenig Eigenverantwortlichkeit der Lernenden können diese Gegebenheiten durchaus problematisch sein.
The Atacama Desert is one of the driest and probably oldest deserts on Earth where only a few extremophile organisms are able to survive. This study investigated two terricolous and two epiphytic lichens from the fog oasis “Las Lomitas” within the National Park Pan de Azúcar which represents a refugium for a few vascular desert plants and many lichens that can thrive on fog and dew alone. Ecophysiological measurements and climate records were combined with molecular data of the mycobiont, their green algal photobionts and lichenicolous fungi to gain information about the ecology of lichens within the fog oasis. Phylogenetic and morphological investigations led to the identification and description of the new lichen species Acarospora conafii sp. nov. as well as the lichenicolous fungi that accompanied them and revealed the trebouxioid character of all lichen photobionts. Their photosynthetic responses were compared during natural scenarios such as reactivation by high air humidity and in situ fog events to elucidate the activation strategies of this lichen community. Epiphytic lichens showed photosynthetic activity that was rapidly induced by fog and high relative air humidity whereas terricolous lichens were only activated by fog.
Regulation of metabolism is complex and involves enzymes and membrane transporters, which form networks to support energy dynamics. Lactate, as a metabolic intermediate from glucose or glycogen breakdown, appears to play a major role as additional energetic substrate, which is shuttled between glycolytic and oxidative cells, both under hypoxic and normoxic conditions. Transport of lactate across the cell membrane is mediated by monocarboxylate transporters (MCTs) in cotransport with H+, which is a substrate, a signal and a modulator of metabolic processes. MCTs form a “transport metabolon” with carbonic anhydrases (CAs), which not only provide a rapid equilibrium between CO2, HCO3– and H+, but, in addition, enhances lactate transport, as found in Xenopus oocytes, employed as heterologous expression system, as well as in astrocytes and cancer cells. Functional interactions between different CA isoforms and MCTs have been found to be isoform-specific, independent of the enzyme’s catalytic activity, and they require physical interaction between the proteins. CAs mediate between different states of metabolic acidosis, induced by glycolysis and oxidative phosphorylation, and play a relay function in coupling pH regulation and metabolism. In the brain, metabolic processes in astrocytes appear to be linked to bicarbonate transport and to neuronal activity. Here, we focus on physiological processes of energy dynamics in astrocytes as well as on the transfer of energetic substrates to neurons.
Erprobung und Evaluation des Zertifikatskurses: Beraten, Informieren und Schulen in der Pflege
(2019)
Dieser Arbeits- und Forschungsbericht skizziert die Erprobung und beschreibt die Evaluationsergebnisse
des wissenschaftlichen Zertifikatskurses „Beraten, Informieren und Schulen in der
Pflege“. Der Kurs wurde im Wintersemester 2018/19 an der Hochschule für Wirtschaft und
Gesellschaft Ludwigshafen teilerprobt und durch Mitarbeitende des Teilprojektes E-hoch-B – „Pflege
und Gesundheit“ begleitet und evaluiert. Ziel war es, die soziodemografischen Merkmale sowie
bildungs- und berufsbiografischen Kennzeichen der Teilnehmenden des Zertifikatskurses herauszuarbeiten.
Weiterhin sollte festgehalten werden, wie die Teilnehmenden den Zertifikatskurs
erlebt haben und welche Handlungsempfehlungen für die Weiterentwicklung und
Verstetigung des Kurses abgeleitet werden können. Die Zielgruppe für das evidenzbasierte
Bildungsangebot waren berufserfahrene Pflegefachpersonen aus der ambulanten
Gesundheitsversorgung. Es sind qualitative Fokusgruppeninterviews durchgeführt worden, die
durch Fragebögen flankiert wurden.
Dieser Arbeits- und Forschungsbericht skizziert die Erprobung des wissenschaftlichen Zertifikatskurses
Ethik und Recht in gemeindenaher Gesundheitsversorgung und beschreibt die
Evaluationsergebnisse. Die Zielgruppe für das Bildungsangebot waren berufserfahrene
Pflegefachpersonen aus der ambulanten Gesundheitsversorgung. Der Kurs wurde im Sommersemester
2019 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen erprobt
und durch Mitarbeitende des Teilprojektes E-hoch-B – Pflege und Gesundheit begleitet und evaluiert.
Die Evaluation erfolgte qualitativ durch Fokusgruppeninterviews und quantitativ durch Fragebögen.
Ziel war es, die soziodemografischen Merkmale sowie bildungs- und berufsbiografischen
Kennzeichen der Teilnehmenden des Zertifikatskurses herauszuarbeiten. Weiterhin
sollte festgehalten werden, wie die Teilnehmenden den Zertifikatskurs erlebt haben und welche
Handlungsempfehlungen für die Weiterentwicklung und Verstetigung des Kurses abgeleitet
werden können.
Dieser Arbeits- und Forschungsbericht skizziert die Erprobung und beschreibt die Evaluationsergebnisse des wissenschaftlichen Zertifikatskurses „Versorgungsstrategien und psychosoziale Unterstützung für ein Leben mit Demenz zu Hause“. Der Kurs wurde im Wintersemester 2018/19 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen erprobt und durch Mitarbeitende des Teilprojektes E-hoch-B – „Pflege und Gesundheit“ begleitet und evaluiert. Ziel war es, die soziodemografischen Merkmale sowie bildungs- und berufsbiografischen Kennzeichen der Teilnehmenden des Zertifikatskurses herauszuarbeiten. Weiterhin sollte festgehalten werden, wie die Teilnehmenden den Zertifikatskurs erleben und welche Handlungsempfehlungen für die Weiterentwicklung und Verstetigung des Kurses abgeleitet werden können. Die Zielgruppe für das evidenzbasierte Bildungsangebot waren berufserfahrene Pflegefachpersonen aus der ambulanten Gesundheitsversorgung. Es sind qualitative Fokusgruppeninterviews durchgeführt worden, die durch Fragebögen flankiert wurden.
Dieser Arbeits- und Forschungsbericht beschreibt die Begleitung und Analyse des neu eingerichteten
berufsbegleitenden Bachelorstudiengangs Industriepharmazie. Der Studiengang
startete im Sommersemester 2018 an der Hochschule Kaiserslautern und wurde in dessen
ersten Semester durch Mitarbeitende des Teilprojektteams E-hoch-B – Entwicklung durch Bildung
begleitet und evaluiert. Ziel war es, Erkenntnisse und Verbesserungsvorschläge zur Sicherung
der Qualität des Studiums zu gewinnen und diese in Zusammenarbeit mit dem Fachbereich
Angewandte Logistik- und Polymerwissenschaften umzusetzen. Zur Definition der Zielgruppe
der berufsbegleitend Studierenden und deren Wahrnehmung des Studiums wurden qualitative
Einzelinterviews durchgeführt, welche durch einen Fragebogen ergänzt wurden. Aus den gewonnenen
Ergebnissen lassen sich auch für zukünftige Entwicklungen berufsbegleitender Studienangebote
wichtige Erkenntnisse und Maßnahmen ableiten.
Eine große Bandbreite tribologisch belasteter Bauteile kann durch Verwendung einer Oberflächenbeschichtung verbessert werden. Mit Beschichtungswerkstoffen aus Hochleistungspolymeren und funktionellen Füllstoffen lassen sich in tribologischen Systemen niedrige Reib- und Verschleißwerte realisieren.
Diese Arbeit zielt auf die Entwicklung von PBI (Polybenzimidazol)-Hochleitungsbeschichtungen für den Einsatz in tribologisch beanspruchten Systemen ab. Die gewonnenen Erkenntnisse ergänzen die bislang unzureichend beschriebenen bzw. erforschten Prozesse zur Herstellung von PBI-basierten Beschichtungen. Als Matrixmaterialien werden PBI sowie PAI (Polyamidimid) als Referenzsystem untersucht. Eine systematische Entwicklung von Lösungsprozessen bildet dabei das erste Prozessfenster zur Herstellung von gelöstem und flüssig verarbeitbarem PBI.
Die Entwicklung der Temperprozesse, basierend auf thermischen Analysen mittels dynamischen Differenzkalorimetrie (DSC), stellt in dieser Arbeit ein weiteres Prozessfenster der Beschichtungsherstellung dar. Die daraus resultierenden ungefüllten PBI-Schichten (ohne Füllstoffe) werden systematischen Untersuchungen unterzogen. Thermische Untersuchungen, wie Thermogravimetrie (TGA), die dynamisch-mechanisch-thermische Analyse (DMTA) sowie DSC-Messungen, veranschaulichen die hohe Temperaturbeständigkeit und damit ein breites Temperatureinsatzfenster der PBI-Beschichtungen.
Tribologische Untersuchungsergebnisse, insbesondere der Gleitverschleißprüfungen an ungefüllten PBI-Beschichtungen, stellen dessen hervorragende tribologische Leistungsfähigkeit im Vergleich zu den am Markt etablierten PAI-Systemen dar. Begleitend zu tribologischen Analysen werden mechanische, thermische und strukturelle Untersuchungen durchgeführt und miteinander in Korrelation gebracht.Die Herstellung von PBI-PAI-Blends und die anschließenden tribologischen, mechanischen, thermischen und strukturellen Untersuchungen zeigen das Verbesserungspotential eines PAI-Systems durch die Zugabe von PBI-Anteilen. Die Ergebnisse zeigten, dass es möglich ist, ein PAI-System durch die Zugabe von PBI-Anteilen den speziellen Anwendungen entsprechend anzupassen.
Die Modifizierung der PBI-Beschichtungen mit Füllstoffen wie Graphit, PTFE usw. sowie deren Bewertung anhand von Gleitverschleißuntersuchungen, bei Variation der Prüfparameter, ermöglichen einen direkten Vergleich mit marktetablierten PAI-Beschichtungscompound und einem kommerziell erhältlichen PBI-Halbzeug. Die ermittelten Messwerte verdeutlichen hierbei das Potential (Verschleißwiderstand, thermische Stabilität) von PBI-Beschichtungen in tribologisch hoch belasteten Systemen.
Zur Verbesserung der Abrasivbeständigkeit werden die PBI-Beschichtungen mit harten Titancarbid-Partikeln verstärkt. Eine systematische Untersuchung der Abrasion sowie ein Modell zur Vorhersage des Abrasivverschleißes werden erarbeitet.
A wide range of tribologically stressed components can be improved by using a surface coating. Coatings based on high-performance polymers and functional fillers lead to low friction and wear in tribological systems.
The objective of this work is the development of high performance coatings based on polybenzimidazole for tribologically stressed systems. The investigations should complete the inadequately described or researched processes for the production of PBI-based coatings. The matrix materials investigated are PBI and PAI (reference system). The systematic development of solution processes represents the first process window for the production of dissolved and liquid processable PBI.
The development of annealing processes, based on thermal analyzes (DSC), represents an additional process window of coating production in this work. The resulting pure PBI coatings (without fillers) are subjected to systematic investigations. Thermal characterizations such as Thermogravimetry (TGA), Dynamic Mechanical Thermal Analysis (DMTA) and Differential Scanning Calorimetry (DSC) measurements demonstrate the high temperature resistance and a wide temperature range of PBI coatings.
Tribological test results, in particular the sliding wear tests on pure PBI coatings, show their outstanding tribological performance in comparison to the PAI systems established on the market. Accompanying to tribological analyzes, mechanical, thermal and structural investigations are carried out and correlated with each other.
The preparation of PBI-PAI blends and the subsequent tribological, mechanical, thermal and structural investigations show the potential for improvement of a PAI system by the addition of PBI fractions. The possibility of adapting a PAI system to the relevant applications by adding PBI fractions to reduce the high material costs of the PBI polymer is presented in this work.
The modification of the PBI coatings with fillers such as graphite, PTFE, etc. as well as the subsequent sliding wear tests, with variation of the test parameters (pressure and
velocity-variation), allow a direct comparison with the market-established PAI coating compound and a commercially available PBI bulk material. The measured values illustrate the suitability of PBI coatings for tribologically highly loaded systems.
To improve the abrasion resistance, the PBI coatings are reinforced with hard titanium carbide particles. Systematic investigations on the abrasion wear as well as a model for the prediction of the abrasive wear are developed.
Green Innovation Areas have been developed in the US context of urban development in order to jump-start innovative solutions in abandoned areas. Prospective types of uses in these areas are not predetermined, but should be experimental and innovative. So far they can comprise vast greenhouse uses to less extensive clover fields, but their potential is not yet fully discovered. Implementing new and innovative economic uses in urban areas is relatively new in research for urban areas, in particular, when development types like bioeconomy are implemented. The joint German–Mexican research presented in this article aims at exploring the use of vacant inner urban spaces as Green Innovation Areas—discussing their potentials for sustainable development of shrinking cities.
Private data analytics systems preferably provide required analytic accuracy to analysts and specified privacy to individuals whose data is analyzed. Devising a general system that works for a broad range of datasets and analytic scenarios has proven to be difficult.
Despite the advent of differentially private systems with proven formal privacy guarantees, industry still uses inferior ad-hoc mechanisms that provide better analytic accuracy. Differentially private mechanisms often need to add large amounts of noise to statistical results, which impairs their usability.
In my thesis I follow two approaches to improve the usability of private data analytics systems in general and differentially private systems in particular. First, I revisit ad-hoc mechanisms and explore the possibilities of systems that do not provide Differential Privacy or only a weak version thereof. Based on an attack analysis I devise a set of new protection mechanisms including Query Based Bookkeeping (QBB). In contrast to previous systems QBB only requires the history of analysts’ queries in order to provide privacy protection. In particular, QBB does not require knowledge about the protected individuals’ data.
In my second approach I use the insights gained with QBB to propose UniTraX, the first differentially private analytics system that allows to analyze part of a protected dataset without affecting the other parts and without giving up on accuracy. I show UniTraX’s usability by way of multiple case studies on real-world datasets across different domains. UniTraX allows more queries than previous differentially private data analytics systems at moderate runtime overheads.
Model uncertainty is a challenge that is inherent in many applications of mathematical models in various areas, for instance in mathematical finance and stochastic control. Optimization procedures in general take place under a particular model. This model, however, might be misspecified due to statistical estimation errors and incomplete information. In that sense, any specified model must be understood as an approximation of the unknown "true" model. Difficulties arise since a strategy which is optimal under the approximating model might perform rather bad in the true model. A natural way to deal with model uncertainty is to consider worst-case optimization.
The optimization problems that we are interested in are utility maximization problems in continuous-time financial markets. It is well known that drift parameters in such markets are notoriously difficult to estimate. To obtain strategies that are robust with respect to a possible misspecification of the drift we consider a worst-case utility maximization problem with ellipsoidal uncertainty sets for the drift parameter and with a constraint on the strategies that prevents a pure bond investment.
By a dual approach we derive an explicit representation of the optimal strategy and prove a minimax theorem. This enables us to show that the optimal strategy converges to a generalized uniform diversification strategy as uncertainty increases.
To come up with a reasonable uncertainty set, investors can use filtering techniques to estimate the drift of asset returns based on return observations as well as external sources of information, so-called expert opinions. In a Black-Scholes type financial market with a Gaussian drift process we investigate the asymptotic behavior of the filter as the frequency of expert opinions tends to infinity. We derive limit theorems stating that the information obtained from observing the discrete-time expert opinions is asymptotically the same as that from observing a certain diffusion process which can be interpreted as a continuous-time expert. Our convergence results carry over to convergence of the value function in a portfolio optimization problem with logarithmic utility.
Lastly, we use our observations about how expert opinions improve drift estimates for our robust utility maximization problem. We show that our duality approach carries over to a financial market with non-constant drift and time-dependence in the uncertainty set. A time-dependent uncertainty set can then be defined based on a generic filter. We apply this to various investor filtrations and investigate which effect expert opinions have on the robust strategies.
In cyanobacteria and plants, VIPP1 plays crucial roles in the biogenesis and repair of thylakoid membrane protein complexes and in coping with chloroplast membrane stress. In chloroplasts, VIPP1 localizes in distinct patterns at or close to envelope and thylakoid membranes. In vitro, VIPP1 forms higher-order oligomers of >1 MDa that organize into rings and rods. However, it remains unknown how VIPP1 oligomerization is related to function. Using time-resolved fluorescence anisotropy and sucrose density gradient centrifugation, we show here that Chlamydomonas reinhardtii VIPP1 binds strongly to liposomal membranes containing phosphatidylinositol-4-phosphate (PI4P). Cryo-electron tomography reveals that VIPP1 oligomerizes into rods that can engulf liposomal membranes containing PI4P. These findings place VIPP1 into a group of membrane-shaping proteins including epsin and BAR domain proteins. Moreover, they point to a potential role of phosphatidylinositols in directing the shaping of chloroplast membranes.
Patients after total hip arthroplasty (THA) suffer from lingering musculoskeletal restrictions. Three-dimensional (3D) gait analysis in combination with machine-learning approaches is used to detect these impairments. In this work, features from the 3D gait kinematics, spatio temporal parameters (Set 1) and joint angles (Set 2), of an inertial sensor (IMU) system are proposed as an input for a support vector machine (SVM) model, to differentiate impaired and non-impaired gait. The features were divided into two subsets. The IMU-based features were validated against an optical motion capture (OMC) system by means of 20 patients after THA and a healthy control group of 24 subjects. Then the SVM model was trained on both subsets. The validation of the IMU system-based kinematic features revealed root mean squared errors in the joint kinematics from 0.24° to 1.25°. The validity of the spatio-temporal gait parameters (STP) revealed a similarly high accuracy. The SVM models based on IMU data showed an accuracy of 87.2% (Set 1) and 97.0% (Set 2). The current work presents valid IMU-based features, employed in an SVM model for the classification of the gait of patients after THA and a healthy control. The study reveals that the features of Set 2 are more significant concerning the classification problem. The present IMU system proves its potential to provide accurate features for the incorporation in a mobile gait-feedback system for patients after THA.
Anisotropy of tracer-coupled networks is a hallmark in many brain regions. In the past, the topography of these networks was analyzed using various approaches, which focused on different aspects, e.g., position, tracer signal, or direction of coupled cells. Here, we developed a vector-based method to analyze the extent and preferential direction of tracer spreading. As a model region, we chose the lateral superior olive—a nucleus that exhibits specialized network topography. In acute slices, sulforhodamine 101-positive astrocytes were patch-clamped and dialyzed with the GJ-permeable tracer neurobiotin, which was subsequently labeled with avidin alexa fluor 488. A predetermined threshold was used to differentiate between tracer-coupled and tracer-uncoupled cells. Tracer extent was calculated from the vector means of tracer-coupled cells in four 90° sectors. We then computed the preferential direction using a rotating coordinate system and post hoc fitting of these results with a sinusoidal function. The new method allows for an objective analysis of tracer spreading that provides information about shape and orientation of GJ networks. We expect this approach to become a vital tool for the analysis of coupling anisotropy in many brain regions
IoT systems consist of Hardware/Software systems (e.g., sensors) that are embedded in a physical world, networked and that interact with complex software platforms. The validation of such systems is a challenge and currently mostly done by prototypes. This paper presents the virtual environment for simulation, emulation and validation of an IoT platform and its semantic model in real life scenarios. It is based on a decentralized, bottom up approach that offers interoperability of IoT devices and the value-added services they want to use across different domains. The framework is demonstrated by a comprehensive case study. The example consists of the complete IoT “Smart Energy” use case with focus on data privacy by homomorphic encryption. The performance of the network is compared while using partially homomorphic encryption, fully homomorphic encryption and no encryption at all.As a major result, we found that our framework is capable of simulating big IoT networks and the overhead introduced by homomorphic encryption is feasible for VICINITY.
Passive graduated filters with fixed absorption profile are currently used in image recording to avoid overexposure. However, a whole set of filters with prescribed gradients is required to cope with changing illumination conditions. Furthermore, they demand mechanical adjustment during operation. To overcome these deficiencies we present a microfabricated active electrochromic graduated filter which combines multiple functionalities: The overall absorbance, the position of medium transmission as well as the magnitude of its gradient can be tuned continuously by electrical means. Live image control is possible using low operation voltages in the range of ±2 V to reach a high change in optical density ΔOD of 1.01 (400 nm to 780 nm) with a coloration and bleaching time 1.3 s and 0.2 s, respectively. Owing to their low volume and power consumption they are suitable for widespread applications like in smartphones, surveillance cameras or microscopes.
The structural integrity of synaptic connections critically depends on the interaction between synaptic cell adhesion molecules (CAMs) and the underlying actin and microtubule cytoskeleton. This interaction is mediated by giant Ankyrins, that act as specialized adaptors to establish and maintain axonal and synaptic compartments. In Drosophila, two giant isoforms of Ankyrin2 (Ank2) control synapse stability and organization at the larval neuromuscular junction (NMJ). Both Ank2-L and Ank2-XL are highly abundant in motoneuron axons and within the presynaptic terminal, where they control synaptic CAMs distribution and organization of microtubules. Here, we address the role of the conserved N-terminal ankyrin repeat domain (ARD) for subcellular localization and function of these giant Ankyrins in vivo. We used a P[acman] based rescue approach to generate deletions of ARD subdomains, that contain putative binding sites of interacting transmembrane proteins. We show that specific subdomains control synaptic but not axonal localization of Ank2-L. These domains contain binding sites to L1-family member CAMs, and we demonstrate that these regions are necessary for the organization of synaptic CAMs and for the control of synaptic stability. In contrast, presynaptic Ank2-XL localization only partially depends on the ARD but strictly requires the presynaptic presence of Ank2-L demonstrating a critical co-dependence of the two isoforms at the NMJ. Ank2-XL dependent control of microtubule organization correlates with presynaptic abundance of the protein and is thus only partially affected by ARD deletions. Together, our data provides novel insights into the synaptic targeting of giant Ankyrins with relevance for the control of synaptic plasticity and maintenance.
Although for photon Bose–Einstein condensates the main mechanism of the observed photon–photon interaction has already been identified to be of a thermo-optic nature, its influence on the condensate dynamics is still unknown. Here a mean-field description of this effect is derived, which consists of an open-dissipative Schrödinger equation for the condensate wave function coupled to a diffusion equation for the temperature of the dye solution. With this system at hand, the lowest-lying collective modes of a harmonically trapped photon Bose–Einstein condensate are calculated analytically via a linear stability analysis. As a result, the collective frequencies and, thus, the strength of the effective photon–photon interaction turn out to strongly depend on the thermal diffusion in the cavity mirrors. In particular, a breakdown of the Kohn theorem is predicted, i.e. the frequency of the centre-of-mass oscillation is reduced due to the thermo-optic photon–photon interaction.
Low damping magnetic properties and perpendicular magnetic anisotropy in the Heusler alloy Fe1.5CoGe
(2019)
We present a study of the dynamic magnetic properties of TiN-buffered epitaxial thin films of the Heusler alloy Fe1.5CoGe. Thickness series annealed at different temperatures are prepared and the magnetic damping is measured, a lowest value of α = 2.18 × 10−3 is obtained. The perpendicular magnetic anisotropy properties in Fe1.5CoGe/MgO are also characterized. The evolution of the interfacial perpendicular anisotropy constant K⊥S with the annealing temperature is shown and compared with the widely used CoFeB/MgO interface. A large volume contribution to the perpendicular anisotropy of (4.3 ± 0.5) × 105 J/m3 is also found, in contrast with vanishing bulk contribution in common Co- and Fe-based Heusler alloys.
The importance of well trained and stable neck flexors and extensors as well as trunk muscles for intentional headers in soccer is increasingly discussed. The neck flexors and extensors should ensure a coupling of trunk and head at the time of ball contact to increase the physical mass hitting the ball and reduce head acceleration. The aim of the study was to analyze the influence of a 6-week strength training program (neck flexors, neck extensors) on the acceleration of the head during standing, jumping and running headers as well as after fatigue of the trunk muscles on a pendulum header. A total of 33 active male soccer players (20.3 ± 3.6 years, 1.81 ± 0.07 m, 75.5 ± 8.3 kg) participated and formed two training intervention groups (IG1: independent adult team, IG2: independent youth team) and one control group (CG: players from different teams). The training intervention consisted of three exercises for the neck flexors and extensors. The training effects were verified by means of the isometric maximum voluntary contraction (IMVC) measured by a telemetric Noraxon DTS force sensor. The head acceleration during ball contact was determined using a telemetric Noraxon DTS 3D accelerometer. There was no significant change of the IMVC over time between the groups (F=2.265, p=.121). Head acceleration was not reduced significantly for standing (IG1 0.4 ± 2.0, IG2 0.1 ± 1.4, CG -0.4 ± 1.2; F = 0.796, p = 0.460), jumping (IG1-0.7 ± 1.4, IG2-0.2 ± 0.9, CG 0.1 ± 1.2; F = 1.272, p = 0.295) and running (IG1-1.0 ± 1.9, IG2-0.2 ± 1.4, CG -0.1 ± 1.6; F = 1.050, p = 0.362) headers as well as after fatigue of the trunk musculature for post-jumping (IG1-0.2 ± 2.1, IG2-0.6 ± 1.4; CG -0.6 ± 1.3; F = 0.184, p = 0.833) and post-running (IG1-0.3 ± 1.6, IG2-0.7 ± 1.2, CG 0.0 ± 1.4; F = 0.695, p = 0.507) headers over time between IG1, IG2 and CG. A 6-week strength training of the neck flexors and neck extensors could not show the presumed preventive benefit. Both the effects of a training intervention and the consequences of an effective intervention for the acceleration of the head while heading seem to be more complex than previously assumed and presumably only come into effect in case of strong impacts.
Key words: Heading, kinetics, head-neck-torso-alignment, neck musculature, repetitive head impacts, concussion
Die räumliche Planung begegnet häufig Herausforderungen, zu deren Bewältigung nicht auf existierendes Wissen zurückgegriffen werden kann. Um neuartiges Wissen zu erzielen, werden insbesondere Modellvorhaben – kleinmaßstäbliche, befristete reale Feldexperimente – als Instrument eingesetzt. Diese zielen darauf ab, wiederverwendbares Wissen reproduzierbar zu erzeugen. Im Rahmen eines Modellvorhabens werden in verschiedenen Modellräumen vielfältige innovative Projekte initiiert, über einen festen Zeitraum umgesetzt sowie bewertet. Akademische oder private Institutionen begleiten Modellvorhaben wissenschaftlich, um allgemeingültige und übertragbare Erkenntnisse zu identifizieren. Die Ergebnisse dieser umfassenden Evaluation werden in einem Abschlussbericht dokumentiert. Erfahrungen zeigen allerdings, dass dies zur Verteilung der Ergebnisse nicht ausreicht, um die Nutzung und Wiederverwendung der in Modellvorhaben generierten Erkenntnisse sicherzustellen. Dies liegt insbesondere daran, dass die Abschlussberichte zu wenig anwendungsorientiert und zu umfangreich sind. So ist der Vergleich zwischen vorhandenen Berichten und einem laufenden Modellvorhaben mit einem zu hohen Aufwand verbunden, wodurch sich ein unausgeglichenes Aufwand-Ertrag-Verhältnis ergibt. Somit wird das Lernen aus Modellvorhaben erschwert.
Um eine effektive und effiziente Dissemination und Verstetigung sowie Wiederverwendbarkeit von Wissen generiert in Modellvorhaben zu erzielen, wurde im Rahmen der vorliegenden Forschungsarbeit ein Modell entwickelt. In einem ersten Schritt wurde für die Analyse von Modellvorhaben eine allgemeingültige Struktur geschaffen, die mit dem generellen Ablauf eines Projekts im Rahmen des Projektmanagements vergleichbar ist. Diese Struktur reduziert den Aufwand Erkenntnisse und Wissen jeweils für die folgenden hier definierten Phasen zu nutzen: Identifikation einer neuen Herausforderung; Projektaufruf; Bewerbungen der möglichen Teilnehmer; Bewertungen der Bewerbungen durch den Initiator; Durchführung; Auswertung; Dissemination, Transfer und Verstetigung.
Im nächsten Schritt wurde in die einzelnen Phasen eines Modellvorhabens ein Wissensmanagementprozess – die Bausteine Wissensziele, -identifikation, -erwerb, - entwicklung, -bewertung, -bewahrung, -(ver)teilung und -nutzung – integriert, um die gemeinsame Nutzungseinheit vom umfassenden Abschlussbericht auf kleinere, in sich abgeschlossene Informationseinheiten zu reduzieren. Auf diese Weise wird der Aufwand für die Identifikation, den Erwerb und die Nutzung von Wissen verringert. Am Ende jeder Phase wird eine Bewertung durchgeführt sowie das erzielte Wissen effizient geteilt. Dafür ist eine systematische Interaktion zwischen Akteuren von Modellvorhaben und eine zentrale Sammlung des Wissens notwendig. Ein wesentliches Ergebnis dieser Arbeit ist die Entwicklung einer neuartigen Austauschinfrastruktur, die das generierte Wissen einerseits bewahrt und andererseits systematisch verteilt. Dadurch kann bereits im Verlauf eines Modellvorhabens gewonnenes Wissen ausgetauscht und wiederverwendet werden, sodass
die Phase der Dissemination, Transfer und Verstetigung in den Prozess verschoben wird. Die Infrastruktur soll frei zugänglich sein und nutzerfreundlich gestaltet werden.
Durch das entwickelte Modell wird eine effektive und effiziente Wiederverwendung von Wissen generiert in Modellvorhaben ermöglicht sowie eine belastbare Grundlage für neue Projekte in der räumlichen Planung geschaffen.
Using molecular dynamics simulation, we study nanoindentation in large samples of Cu–Zr glass at various temperatures between zero and the glass transition temperature. We find that besides the elastic modulus, the yielding point also strongly (by around 50%) decreases with increasing temperature; this behavior is in qualitative agreement with predictions of the cooperative shear model. Shear-transformation zones (STZs) show up in increasing sizes at low temperatures, leading to shear-band activity. Cluster analysis of the STZs exhibits a power-law behavior in the statistics of STZ sizes. We find strong plastic activity also during the unloading phase; it shows up both in the deactivation of previous plastic zones and the appearance of new zones, leading to the observation of pop-outs. The statistics of STZs occurring during unloading show that they operate in a similar nature as the STZs found during loading. For both cases, loading and unloading, we find the statistics of STZs to be related to directed percolation. Material hardness shows a weak strain-rate dependence, confirming previously reported experimental findings; the number of pop-ins is reduced at slower indentation rate. Analysis of the dependence of our simulation results on the quench rate applied during preparation of the glass shows only a minor effect on the properties of STZs.
Adsorption and Diffusion of Cisplatin Molecules in Nanoporous Materials: A Molecular Dynamics Study
(2019)
Using molecular dynamics simulations, the adsorption and diffusion of cisplatin drug molecules in nanopores is investigated for several inorganic materials. Three different materials are studied with widely-varying properties: metallic gold, covalent silicon, and silica. We found a strong influence of both the van der Waals and the electrostatic interaction on the adsorption behavior on the pore walls, which in turn influence the diffusion coefficients. While van der Waals forces generally lead to a reduction of the diffusion coefficient, the fluctuations in the electrostatic energy induced by orientation changes of the cisplatin molecule were found to help desorb the molecule from the wall.
Muscular imbalances of the trunk muscles are held responsible for changes in body posture. At the same time, whole-body electromyostimulation (WB-EMS) has been established as a new training method that enables simultaneous stimulation of many muscle groups. This study was aiming to analyze if a 10 weeks WB-EMS training changes posture-relevant parameters and/or improves isometric strength of the trunk extensors and flexors, and if there are differences based on stimulation at 20 Hz and 85 Hz. Fifty eight untrained adult test persons were divided into three groups (control, CON; training with 20 Hz stimulation, TR20; training with 85 Hz, TR85). Anthropometric parameters, trunk extension and flexion forces and torques, and posture parameters were determined before (n = 58) and after (n = 53: CON: n = 15, TR20: n = 19, TR85: n = 19) a 10 weeks WB-EMS training program (15 applications, 9 exercises). Differences between the groups were calculated for pre- and post-tests using univariate ANOVA and between the test times using repeated (2 × 3) ANOVA. Comparisons of pairs were calculated post hoc based on Fisher (LSD). No differences between the groups were found for the posture parameters. The post hoc analysis of both trunk flexion and trunk extension forces and torques showed a significant difference between the groups TR85 and CON but no difference between the other group pairs. A 10 weeks whole-body electrostimulation training with a stimulation frequency of 85 Hz in contrast to training with a stimulation frequency of 20 Hz improves the trunk muscle strength of an untrained group but does not significantly change posture parameters.
Adjustment Effects of Maximum Intensity Tolerance During Whole-Body Electromyostimulation Training
(2019)
Intensity regulation during whole-body electromyostimulation (WB-EMS) training is mostly controlled by subjective scales such as CR-10 Borg scale. To determine objective training intensities derived from a maximum as it is used in conventional strength training using the one-repetition-maximum (1-RM), a comparable maximum in WB-EMS is necessary. Therefore, the aim of this study was to examine, if there is an individual maximum intensity tolerance plateau after multiple consecutive EMS application sessions. A total of 52 subjects (24.1 ± 3.2 years; 76.8 ± 11.1 kg; 1.77 ± 0.09 m) participated in the longitudinal, observational study (38 males, 14 females). Each participant carried out four consecutive maximal EMS applications (T1–T4) separated by 1 week. All muscle groups were stimulated successively until their individual maximum and combined to a whole-body stimulation index to carry out a possible statement for the development of the maximum intensity tolerance of the whole body. There was a significant main effect between the measurement times for all participants (p < 0.001; ????2 = 0.39) as well as gender specific for males (p = 0.001; ????2 = 0.18) and females (p < 0.001; ????2 = 0.57). There were no interaction effects of gender × measurement time (p = 0.394). The maximum intensity tolerance increased significantly from T1 to T2 (p = 0.001) and T2 to T3 (p < 0.001). There was no significant difference between T3 and T4 (p = 1.0). These results indicate that there is an adjustment of the individual maximum intensity tolerance to a WB-EMS training after three consecutive tests. Therefore, there is a need of several habituation units comparable to the identification of the individual 1-RM in conventional strength training. Further research should focus on an objective intensity-specific regulation of the WB-EMS based on the individual maximum intensity tolerance to characterize different training areas and therefore generate specific adaptations to a WB-EMS training compared to conventional strength training methods.
Small concentrations of alloying elements can modify the
α
α
-
γ
γ
phase transition temperature
T
c
Tc
of Fe. We study this effect using an atomistic model based on a set of many-body interaction potentials for iron and several alloying elements. Free-energy calculations based on perturbation theory allow us to determine the change in
T
c
Tc
introduced by the alloying element. The resulting changes are in semi-quantitative agreement with experiment. The effect is traced back to the shape of the pair potential describing the interaction between the Fe and the alloying atom
Phase-gradient metasurfaces can be designed to manipulate electromagnetic waves according to the generalized Snell’s law. Here, we show that a phased parallel-plate waveguide array (PPWA) can be devised to act in the same manner as a phase-gradient metasurface. We derive an analytic model that describes the wave propagation in the PPWA and calculate both the angle and amplitude distribution of the diffracted waves. The analytic model provides an intuitive understanding of the diffraction from the PPWA. We verify the (semi-)analytically calculated angle and amplitude distribution of the diffracted waves by numerical 3-D simulations and experimental measurements in a microwave goniometer.
Wärmedämm-Verbundsysteme (WDVS) zählen gegenwärtig zu den am meisten eingesetzten Fassadenkonstruktionen, dennoch oder gerade deswegen stoßen die Systeme in der Architektur auf Ablehnung. Auf der technischen Seite wird mit der Anfälligkeit für Algen-/Pilzwuchs, Spechtlöchern oder dem Brandschutz argumentiert. Die architektonische Seite wettert gegen das unwahrhaftige Erscheinungsbild einer massiven Putzwand und äußert Bedenken beim Einsatz im Bestand. Auch im Feuilleton regt sich Widerstand und Angst gewohnte Stadtbilder zu verlieren. Trotz der Probleme können sich Architekten unter den gegebenen politischen Rahmenbedingungen und Kostenzwängen nicht mehr dem WDV-System entziehen. Die Moraldiskussion, die sich unmittelbar an der Fassade abarbeitet und ebenso problematische Verbundbauweisen ausblendet, verdeutlicht, dass es sich vorwiegend um ein Wahrnehmungsproblem handelt. WDV-Systeme gelten als unecht, billig und gestaltungsarm. Damit sich diese architektonische Wahrnehmung von WDV-Systemen nachhaltig verändert, werden systematisch Möglichkeiten und Potenziale vorgestellt, um WDVS zur Bedingung der Gestaltung werden zu lassen. In diesem Sinne interpretiert die Arbeit WDV-Systeme als architektonisches Mittel, das einer gestalterischen Logik folgt, welche sich unmittelbar aus den Gegebenheiten des Systems heraus entwickelt.
In this dissertation we apply financial mathematical modelling to electricity markets. Electricity is different from any other underlying of financial contracts: it is not storable. This means that electrical energy in one time point cannot be transferred to another. As a consequence, power contracts with disjoint delivery time spans basically have a different underlying. The main idea throughout this thesis is exactly this two-dimensionality of time: every electricity contract is not only characterized by its trading time but also by its delivery time.
The basis of this dissertation are four scientific papers corresponding to the Chapters 3 to 6, two of which have already been published in peer-reviewed journals. Throughout this thesis two model classes play a significant role: factor models and structural models. All ideas are applied to or supported by these two model classes. All empirical studies in this dissertation are conducted on electricity price data from the German market and Chapter 4 in particular studies an intraday derivative unique to the German market. Therefore, electricity market design is introduced by the example of Germany in Chapter 1. Subsequently, Chapter 2 introduces the general mathematical theory necessary for modelling electricity prices, such as Lévy processes and the Esscher transform. This chapter is the mathematical basis of the Chapters 3 to 6.
Chapter 3 studies factor models applied to the German day-ahead spot prices. We introduce a qualitative measure for seasonality functions based on three requirements. Furthermore, we introduce a relation of factor models to ARMA processes, which induces a new method to estimate the mean reversion speed.
Chapter 4 conducts a theoretical and empirical study of a pricing method for a new electricity derivative: the German intraday cap and floor futures. We introduce the general theory of derivative pricing and propose a method based on the Hull-White model of interest rate modelling, which is a one-factor model. We include week futures prices to generate a price forward curve (PFC), which is then used instead of a fixed deterministic seasonality function. The idea that we can combine all market prices, and in particular futures prices, to improve the model quality also plays the major role in Chapter 5 and Chapter 6.
In Chapter 5 we develop a Heath-Jarrow-Morton (HJM) framework that models intraday, day-ahead, and futures prices. This approach is based on two stochastic processes motivated by economic interpretations and separates the stochastic dynamics in trading and delivery time. Furthermore, this framework allows for the use of classical day-ahead spot price models such as the ones of Schwartz and Smith (2000), Lucia and Schwartz (2002) and includes many model classes such as structural models and factor models.
Chapter 6 unifies the classical theory of storage and the concept of a risk premium through the introduction of an unobservable intrinsic electricity price. Since all tradable electricity contracts are derivatives of this actual intrinsic price, their prices should all be derived as conditional expectation under the risk-neutral measure. Through the intrinsic electricity price we develop a framework, which also includes many existing modelling approaches, such as the HJM framework of Chapter 5.
The main focus of the research lies in the interpretation and application of results and correlations of soil properties from in situ testing and subsequent use in terramechanical applications. The empirical correlations and current procedures were mainly developed for medium to large depths, and therefore they were re-evaluated and adjusted herein to reflect the current state of knowledge for the assessment of near-surface soil. For testing technologies, a field investigation to a moon analogue site was carried out. Focus was placed in the assessment of the near surface soil properties. Samples were collected for subsequent analysis in laboratory conditions. Further laboratory experiments in extraterrestrial soil simulants and other terrestrial soils were conducted and correlations with relative density and shear strength parameters were attempted. The correlations from the small scale laboratory experiments, and the new re-evaluated correlation for relative density were checked against the data from the field investigation. Additionally, single tire-soil tests were carried out, which enable the investigation of the localized soil response in order to advance current wheel designs and subsequently the vehicle’s mobility. Furthermore, numerical simulations were done to aid the investigation of the tire-soil interaction. Summing up, current relationships for estimating relative density of near surface soil were re-evaluated, and subsequently correlated to shear strength parameters that are the main input to model soil in numerical analyses. Single tire-soil tests were carried out and were used as a reference to calibrate the interaction of the tire and the soil and subsequently were utilized to model rolling scenarios which enable the assessment of soil trafficability and vehicle’s mobility.
Radar cross section reducing (RCSR) metasurfaces or coding metasurfaces were primarily designed for normally incident radiation in the past. It is evident that the performance of coding metasurfaces for RCSR can be significantly improved by additional backscattering reduction of obliquely incident radiation, which requires a valid analytic conception tool. Here, we derive an analytic current density distribution model for the calculation of the backscatter far-field of obliquely incident radiation on a coding metasurface for RCSR. For demonstration, we devise and fabricate a metasurface for a working frequency of 10.66GHz and obtain good agreement between the measured, simulated, and analytically calculated backscatter far-fields. The metasurface significantly reduces backscattering for incidence angles between −40∘ and 40∘ in a spectral working range of approximately 1GHz.
Exploiting Direct Laser Writing for Hydrogel Integration into Fragile Microelectromechanical Systems
(2019)
The integration of chemo-responsive hydrogels into fragile microelectromechanical systems (MEMS) with reflective surfaces in the micron to submicron range is presented. Direct laser writing (DLW) for 3D microstructuring of chemoresponsive “smart” hydrogels on sensitive microstructures is demonstrated and discussed in detail, by production of thin hydrogel layers and discs with a controllable lateral size of 2 to 5 µm and a thickness of some hundred nm. Screening results of polymerizing laser settings for precision microstructuring were determined by controlling crosslinking and limiting active chain diffusion during polymerization with macromers. Macromers are linear polymers with a tunable amount of multifunctional crosslinker moieties, giving access to a broad range of different responsive hydrogels. To demonstrate integration into fragile MEMS, the gel was deposited by DLW onto a resonator with a 200 nm thick sensing plate with high precision. To demonstrate the applicability for sensors, proof of concept measurements were performed. The polymer composition was optimized to produce thin reproducible layers and the feasibility of 3D structures with the same approach is demonstrated.
3D joint kinematics can provide important information about the quality of movements. Optical motion capture systems (OMC) are considered the gold standard in motion analysis. However, in recent years, inertial measurement units (IMU) have become a promising alternative. The aim of this study was to validate IMU-based 3D joint kinematics of the lower extremities during different movements. Twenty-eight healthy subjects participated in this study. They performed bilateral squats (SQ), single-leg squats (SLS) and countermovement jumps (CMJ). The IMU kinematics was calculated using a recently-described sensor-fusion algorithm. A marker based OMC system served as a reference. Only the technical error based on algorithm performance was considered, incorporating OMC data for the calibration, initialization, and a biomechanical model. To evaluate the validity of IMU-based 3D joint kinematics, root mean squared error (RMSE), range of motion error (ROME), Bland-Altman (BA) analysis as well as the coefficient of multiple correlation (CMC) were calculated. The evaluation was twofold. First, the IMU data was compared to OMC data based on marker clusters; and, second based on skin markers attached to anatomical landmarks. The first evaluation revealed means for RMSE and ROME for all joints and tasks below 3°. The more dynamic task, CMJ, revealed error measures approximately 1° higher than the remaining tasks. Mean CMC values ranged from 0.77 to 1 over all joint angles and all tasks. The second evaluation showed an increase in the RMSE of 2.28°– 2.58° on average for all joints and tasks. Hip flexion revealed the highest average RMSE in all tasks (4.87°– 8.27°). The present study revealed a valid IMU-based approach for the measurement of 3D joint kinematics in functional movements of varying demands. The high validity of the results encourages further development and the extension of the present approach into clinical settings.
The coordination of multiple external representations is important for learning, but yet a difficult task for students, requiring instructional support. The subject in this study covers a typical relation in physics between abstract mathematical equations (definitions of divergence and curl) and a visual representation (vector field plot). To support the connection across both representations, two instructions with written explanations, equations, and visual representations (differing only in the presence of visual cues) were designed and their impact on students’ performance was tested. We captured students’ eye movements while they processed the written instruction and solved subsequent coordination tasks. The results show that students instructed with visual cues (VC students) performed better, responded with higher confidence, experienced less mental effort, and rated the instructional quality better than students instructed without cues. Advanced eye-tracking data analysis methods reveal that cognitive integration processes appear in both groups at the same point in time but they are significantly more pronounced for VC students, reflecting a greater attempt to construct a coherent mental representation during the learning process. Furthermore, visual cues increase the fixation count and total fixation duration on relevant information. During problem solving, the saccadic eye movement pattern of VC students is similar to experts in this domain. The outcomes imply that visual cues can be beneficial in coordination tasks, even for students with high domain knowledge. The study strongly confirms an important multimedia design principle in instruction, that is, that highlighting conceptually relevant information shifts attention to relevant information and thus promotes learning and problem solving. Even more, visual cues can positively influence students’ perception of course materials.
Modern applications in the realms of wireless communication and mobile broadband Internet increase the demand for compact antennas with well defined directivity. Here, we present an approach for the design and implementation of hybrid antennas consisting of a classic feeding antenna that is near-field-coupled to a subwavelength resonator. In such a combined structure, the composite antenna always radiates at the resonance frequency of the subwavelength oscillator as well as at the resonance frequency of the feeding antenna. While the classic antenna serves as impedance-matched feeding element, the subwavelength resonator induces an additional resonance to the composite antenna. In general, these near-field coupled structures are known for decades and are lately published as near-field resonant parasitic antennas. We describe an antenna design consisting of a high-frequency electric dipole antenna at fd=25 GHz that couples to a low-frequency subwavelength split-ring resonator, which emits electromagnetic waves at fSRR=10.41 GHz. The radiating part of the antenna has a size of approximately 3.2mm×8mm×1mm and thus is electrically small at this frequency with a product k⋅a=0.5 . The input return loss of the antenna was moderate at −18 dB and it radiated at a spectral bandwidth of 120 MHz. The measured main lobe of the antenna was observed at 60∘ with a −3 dB angular width of 65∘ in the E-plane and at 130∘ with a −3 dB angular width of 145∘ in the H-plane
Cyclic indentation is a technique used to characterize materials by indenting repeatedly on the same location. This technique allows information to be obtained on how the plastic material response changes under repeated loading. We explore the processes underlying this technique using a combined experimental and simulative approach. We focus on the loading–unloading hysteresis and the dependence of the hysteresis width ha,p on the cycle number. In both approaches, we obtain a power-law demonstrating ha,p with respect to the hardening exponent e. A detailed analysis of the atomistic simulation results shows that changes in the dislocation network under repeated indentation are responsible for this behavior.
The fifth-generation mobile telecommunication network is expected to support multi-access edge computing (MEC), which intends to distribute computation tasks and services from the central cloud to the edge clouds. Toward ultra-responsive, ultra-reliable, and ultra-low-latency MEC services, the current mobile network security architecture should enable a more decentralized approach for authentication and authorization processes. This paper proposes a novel decentralized authentication architecture that supports flexible and low-cost local authentication with the awareness of context information of network elements such as user equipment and virtual network functions. Based on a Markov model for backhaul link quality as well as a random walk mobility model with mixed mobility classes and traffic scenarios, numerical simulations have demonstrated that the proposed approach is able to achieve a flexible balance between the network operating cost and the MEC reliability.
Dieser Beitrag beschreibt eine Lernumgebung für Schülerinnen und Schüler der Unter- und Mittelstufe mit einem Schwerpunkt im Fach Mathematik. Das Thema dieser Lernumgebung ist die Simulation von Entfluchtungsprozessen im Rahmen von Gebäudeevakuierungen. Dabei wird das Konzept eines zellulären Automaten vermittelt, ohne dabei Programmierkenntnisse vorauszusetzen oder anzuwenden. Anhand dieses speziellen Simulationswerkzeugs des zellulären Automaten werden Eigenschaften, Kenngrößen sowie Vor- und Nachteile von Simulationen im Allgemeinen thematisiert. Dazu gehören unter anderem die experimentelle Datengewinnung, die Festlegung von Modellparametern, die Diskretisierung des zeitlichen und räumlichen Betrachtungshorizonts sowie die zwangsläufig auftretenden (Diskretisierungs-)Fehler, die algorithmischen Abläufe einer Simulation in Form elementarer Handlungsanweisungen, die Speicherung und Visualisierung von Daten aus einer Simulation sowie die Interpretation und kritische Diskussion von Simulationsergebnissen. Die vorgestellte Lernumgebung ermöglicht etliche Variationen zu weiteren Aspekten des Themas „Evakuierungssimulation“ und bietet dadurch auch vielfältige Differenzierungsmöglichkeiten.
Die Nachrechnung bestehender Bauwerke muss grundsätzlich auf Basis der aktuellen, bauaufsichtlich eingeführten technischen Baubestimmungen geführt werden. Dazu werden charakteristische Materialkennwerte der verwendeten Baustoffe benötigt.
Im Rahmen einer Vordimensionierung kann die Betondruckfestigkeit durch Umrechnung von aus der Herstellzeit dokumentierten Werten abgeschätzt werden. Für eine abgesicherte Nachrechnung hingegen muss die charakteristische Betondruckfestigkeit durch Untersuchungen am Bauwerk ermittelt werden, um den Einfluss verschiedener last- oder zeitabhängiger Prozesse zu erfassen.
Zur statistischen Bewertung der experimentell ermittelten Werte der In-situ-Betondruckfestigkeit existieren verschiedene Verfahren. Besonders bei kleinem Stichprobenumfang führen die bisher gebräuchlichen Verfahren nach DIN EN 1990:2010-12 und DIN EN 13791:2008-05 jedoch teilweise zu ingenieurmäßig als kritisch einzustufenden Ergebnissen, welche die tatsächliche In-situ-Betondruckfestigkeit erheblich über- oder unterschätzen können.
Aufbauend auf Untersuchungen an realen, umfangreichen Datensätzen wurde in dieser Arbeit ein neues Verfahren mit den vom Stichprobenumfang und dem Variationskoeffizienten abhängigen modifizierten Ansätzen A und B zur Bestimmung der charakteristischen In-situ-Betondruckfestigkeit, basierend auf experimentell, mit direkten Prüfverfahren ermittelten Einzelwerten, entwickelt.
Zur Bestimmung des Nachrechnungswertes der Betondruckfestigkeit gilt es über den charakteristischen Wert der In-situ-Betondruckfestigkeit hinaus auch noch den Unterschied zwischen Bauwerks- und Normprobekörperdruckfestigkeit sowie den Einfluss von Dauerstandseffekten zu bewerten.
Die durchgeführten Untersuchungen zeigen, dass bei Bestandsbetonen, wie auch bereits im Neubaufall, das Verhältnis zwischen Bauwerks- und Normprobekörperfestigkeit ca. 0,85 beträgt. Auch bei der experimentellen Ermittlung der In-situ-Betondruckfestigkeit an aus dem Bauwerk entnommenen Proben ist der Unterschied zwischen Kurzzeit- und Dauerstandsfestigkeit mit dem im Neubaufall gebräuchlichen Faktor αcc = 0,85 zu berücksichtigen.
Neben der Druckfestigkeit, ist im Rahmen der Nachrechnung von Bestandsbauwerken auch teilweise die Zugfestigkeit oder der Elastizitätsmodul von Bestandsbetonen zu bewerten. Die in DIN EN 1992-1-1:2011-01 enthaltenen Beziehungen zwischen Druck- und Zugfestigkeit sowie zwischen Druckfestigkeit und Elastizitätsmodul sind jedoch ausschließlich für im Neubaufall verwendete Betone nach DIN EN 206-1:2001-07 ausgelegt.
Die Untersuchungen zeigen, dass die in DIN EN 1992-1-1:2011-01 enthaltene Korrelation zwischen Druck- und Zugfestigkeit auch zur groben Abschätzung der Zugfestigkeit von Bestandsbetonen verwendet werden kann. Im Einzelfall sind jedoch auch große Abweichungen nicht auzuschließen. Bedingt durch den großen Einfluss der Gesteinskörnung ist nur eine sehr grobe Abschätzung des Elastizitätsmoduls aus der In-situ-Betondruckfestigkeit möglich.
Entwicklung thermoplastischer Faserkunststoffverbunde aus carbonfaserverstärkten PPS/PES-Blends
(2019)
Der Anteil von Faserkunststoffverbunden (FKV) in heutigen Verkehrsflugzeugen nimmt
rund 50% der Gesamtmasse ein. Thermoplastische Verbundwerkstoffe werden dabei
vorzugsweise wegen ihrer fertigungstechnischen Vorteile (Umformbarkeit, Schweißbarkeit)
und ihrer hohen Zähigkeit ausgewählt. Ihr Anteil an den Verbundbauteilen ist
jedoch noch relativ gering, vor allem wegen vergleichsweise hohen Materialkosten
insbesondere für kohlenstofffaserverstärktem Polyetheretherketone (PEEK).
Die vorliegende Arbeit fokussiert die Herstellung thermoplastischer Blends aus Polyphenylensulfid
(PPS) und Polyethersulfon (PES) sowie deren Weiterverarbeitung zu
Hochleistungs-FKV im Autoklavprozess. Es konnte gezeigt werden, dass mechanische
und thermomechanische Eigenschaften beider Polymere in die Faserverbundstrukturen
lokal und global überführbar sind. Der Transfer in FKV-Strukturen ist abhängig von der
lokalen Anordnung der im PPS verteilten PES-Phase. Die Abschätzung der Faserbenetzung
durch die Polymerphasen sowie die Fraktographie verdeutlichten, dass der
Eigenschaftstransfer in den Verbund über Grenzflächeninteraktionen gesteuert werden
kann. Weiterhin führten die Interaktionen der Polymer-Phasen zu einer Strukturviskosität
der Blends, welche sich in einem deutlich elastischerem Fließverhalten des
Matrixgemisches äußerte. Mittels der oberflächenenergetischen Analysen an Fasern
und Polymerschmelzen wurden die konkurrierende Affinitäten der Phasen ermittelt
und modellhaft diskutiert. Es zeigte sich, dass die abgeschätzten Kapillarkräfte der
Polymere signifikant genug sein können, um die Imprägnierung zu beeinflussen. Der
Einsatz eines Verträglichkeitsvermittlers kann dabei die Gemisch-Stabilität fördern sowie
Gegenkräfte zur Imprägnierung in Gang setzen. Gleichzeitig wurde die Phasenkompatibilität
als notwendig für den Eigenschaftstransfer deklariert. Die wichtigen Interaktionen
zwischen Polymeren und Fasern müssen in solchen Systemen durch die Anpassung
von Benetzungs- und Phasenformierungsmechanismen gesteuert werden, um schnelle
Verarbeitungsprozesse und damit qualitativ hochwertige Faserverbundstrukturen zu
ermöglichen.
Die vorliegende Master-Arbeit untersucht die Problemstellung, wie eine Einzelschule einen konkreten Beitrag zur Fortbildung ihrer Lehrkräfte vor dem Hintergrund des digitalen Wandels leisten kann.
Im theoretischen Teil wird zunächst die Rolle von digitalen Medien im Unterricht näher untersucht. Dabei wird deutlich, dass ihre Potenziale erst dann zu einem Mehrwert für das Lernen der Schülerinnen und Schüler werden, wenn die folgenden zentralen Voraussetzungen erfüllt sind: Erstens wird eine funktionstüchtige technische Infrastruktur benötigt. Zweitens müssen rechtliche Grundfragen zur Nutzung digitaler Medien im Unterricht geklärt sein. Drittens führen digitale Medien erst dann zu einem Mehrwert, wenn sowohl bei Lernenden als auch bei Lehrenden ausreichend Medienkompetenz vorhanden ist.
An die Formulierung dieser Voraussetzungen knüpfen sich im Theorieteil der Arbeit weitere Schlussfolgerungen: Erstens muss die Vermittlung von Medienkompetenz als Bildungsziel von Schule angesehen werden. Zweitens müssen Lehrkräfte neben der eigenen Medienkompetenz auch über medienpädagogische Kompetenz verfügen, damit sie in der Lage sind, digitale Medien sinnvoll und lernförderlich im Unterricht einzusetzen. Da aber viele Lehrende bislang nicht hinreichend ausgebildet wurden, kommt der Lehrkräftefortbildung hier eine besondere Rolle zu und daher kann sie als Grundvoraussetzung für Bildung in der digitalen Welt gesehen werden.
Eine gelingende Lehrkräftefortbildung zur Digitalisierung muss eingebettet sein in den spezifischen Schulentwicklungskontext einer Einzelschule. Da die jeweiligen Voraussetzungen von Schule zu Schule sehr unterschiedlich sind, kann es hier keine Patentlösung geben, welche „von oben“ auf alle Schulen übergestülpt wird. Dabei spielt die Schulleitung vor Ort erwartungsgemäß eine entscheidende Rolle.
Im Praxisteil der Master-Arbeit werden die Vorbedingungen und Vorüberlegungen an einer konkreten Einzelschule skizziert, die sich auf den Weg machte, den digitalen Wandel systematisch im Rahmen der Schulentwicklung zu gestalten. Ein Meilenstein dieses Entwicklungsprozesses stellt die Ausrichtung eines regionalen Fortbildungstages für Lehrkräfte zur „Digitalen Ethik“ dar.
Anhand der Schulentwicklungsdimensionen nach Zylka (2018) wird im weiteren Verlauf der Arbeit aufgezeigt, warum dieser Fortbildungstag einen entscheidenden Beitrag zur Schulentwicklung leistet.
Im Schlussteil vergleicht der Autor im Rahmen eines selbstkritischen Zwischenberichts inwiefern die Einzelschule hier die typischen Fehler der Schulentwicklung begangen hat, wie sie von Horster (2011) beschrieben worden sind.
Die MINT-EC-Girls-Camp: Math-Talent-School ist eine vom Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) initiierte Veranstaltung, die regelmäßig als Kooperation zwischen dem Felix-Klein-Zentrum für Mathematik und dem Verein mathematisch-naturwissenschaftlicher Excellence-Center an Schulen e.V. (Verein MINT-EC) durchgeführt wird. Die methodisch-didaktische Konzeption der Math-Talent-Schools erfolgt durch das Kompetenzzentrum für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS), einer wissenschaftlichen Einrichtung des Fachbereichs Mathematik der Technischen Universität Kaiserslautern. Die inhaltlich-organisatorische Ausführung übernimmt das Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in enger Abstimmung und Kooperation von Wissenschaftlern der Technischen Universität und des Fraunhofer ITWM. Die MINT-EC-Girls-Camp: Math-Talent-School hat zum Ziel, Mathematik-interessierten Schülerinnen einen Einblick in die Arbeitswelt von Mathematikerinnen und Mathematikern zu geben. In diesem Artikel stellen wir die Math-Talent-School vor. Hierfür werden die fachlichen und fachdidaktischen Hintergründe der Projekte beleuchtet, der Ablauf der Veranstaltung erläutert und ein Fazit gezogen.
Die Teilnahme an Weiterbildung wird immer beliebter und seit geraumer Zeit auch auf einem kontinuierlich hohen Niveau nachgefragt. Zunehmend agieren auch immer mehr Hochschulen als Anbieter auf dem Weiterbildungsmarkt, deren Relevanz durch die Bologna-Reform und der bildungspolitischen Betonung der Strategie einer Recurrent Education untermauert wurde. Die Lernenden, die als lebenslang Lernende auch im Erwachsenenalter in ihre Zukunft investieren, gelten als weiterbildungsaffine Teilnehmende, die über eine Vielzahl an gesammelten biographischen Lern- und Berufserfahrungen verfügen und häufig berufs- und lebensbegleitend wissenschaftliche Weiterbildung partizipieren. Über eine Kosten-Nutzen-Kalkulation von Weiterbildungsteilnahmen hinaus, stehen seit der Bologna-Reform neben den Lernergebnissen gleichsam die durch die Teilnahmen erzielten Weiterbildungswirkungen als Outcome im Fokus. Der bildungspolitische Blick auf diesen wissensbasierten Outcome bedeutet auch, stärker die individuelle Kompetenzbilanz der Teilnehmenden bei der Betrachtung ihrer Bildungsbemühungen einzubeziehen. Wenn bei der Beurteilung wirksamer Weiterbildungsteilnahmen vor allem die Lernenden und deren Kompetenzentwicklung im Mittelpunkt stehen, stellt sich die Frage, welche nachhaltigen und langfristigen Effekte die Lernenden selbst der Weiterbildung zurechnen und erlebbar auch als Erweiterung der eigenen Handlungsvielfalt wahrnehmen. Die hiesige Interviewstudie, angesiedelt im Feld der Teilnehmerforschung, rekonstruiert typische Handlungsmuster als Aneignungsperformanz von Fernstudierenden im angeleiteten Selbststudium und interpretiert diese im Hinblick auf die wahrgenommene Kompetenzentwicklung durch die Weiterbildung. Damit ist das Ziel verbunden Hinweise für die Gestaltung outcomeorientierter Lehr-Lernarrangements zu erarbeiten.
Faserkunststoffverbunde (FKV) haben durch die Substitution metallischer Strukturen
ein großes Leichtbaupotential. Die Integration von aktiven Materialien wie Formgedächtnislegierungen
(FGL) in Bauteile aus FKV ermöglicht die Herstellung aktiver
Hybridverbunde, wodurch eine zusätzliche Bauraum- und Gewichtsersparnis möglich
ist bzw. völlig neue Lösungsansätze denkbar werden.
Dabei hat die Kraftübertragung zwischen FGL und FKV einen entscheidenden Einfluss
auf die Performance solcher aktiver Hybridverbunde. Nur bei einer ausreichenden
Kraftübertragung kann das vollständige Aktorikpotential der FGL ausgenutzt
werden. Dabei sind zwei Bereiche zu unterscheiden, die sich durch unterschiedliche
Belastungsszenarien auszeichnen. Während im Randbereich Schubspannungen auftreten,
da dort die Kraft aus der FGL in den FKV eingeleitet wird, ist der mittlere Bereich
von Normalspannungen geprägt, die zu einem Ablösen der FGL vom FKV führen
können.
Im Rahmen dieser Arbeit wurden deshalb Methoden zur Charakterisierung der Kraftübertragung
in beiden Bereichen identifiziert. Zusätzlich wurden verschiedene Kraftübertragungsmechanismen
vergleichend untersucht. Durch eine modellhafte Betrachtung
wurde ein besseres Verständnis der Versagensmechanismen erreicht.
Dabei konnte gezeigt werden, dass mittels Pull-Out Versuchen ein Vergleich zwischen
verschiedenen Kraftübertragungsmechanismen möglich ist. Formschlüssige
Verbindungen ermöglichten eine Steigerung der Pull-Out Kraft um mehr als das 10-
fache im Vergleich zu unbehandelten Drähten. Allerdings wurde auch deutlich, dass
die Temperatur großen Einfluss auf die Matrixeigenschaften und damit auf das Interface
zwischen FGL und FKV hat. Durch die Verwendung einer Spannungsoptik
konnte die inhomogene Spannungsverteilung sowie der Versagensfortschritt visualisiert
werden. Mit Hilfe von 90°-Schälversuchen konnte gezeigt werden, dass durch
das Aufsticken der FGL-Drähte auf dem FKV ein Ablösen im mittleren Bereich verhindert
werden kann. Anhand von Verformungsversuchen an aktiven Hybridverbunden
konnten diese Ergebnisse bestätigt werden. Durch die in dieser Arbeit gewonnenen Ergebnisse ist zukünftig möglich, die Performance aktiver Hybridverbunde zu steigern, da die von den FGL generierte Kraft nahezu vollständig in den Hybridverbund eingeleitet werden kann, ohne dass es zu einem strukturellen Versagen kommt.
Modifizierte, phosphatfreie Organomineralharze in glas- und basaltfaserverstärkten Kunststoffen
(2019)
Die vorliegende Arbeit befasst sich mit der Modifikation duroplastischer, kalthärtender Organomineralharzmatrices für glas- und basaltfaserverstärkte Kunststoffe, welche zukünftig Anwendung in der Kurzliner-Sanierung defekter und korrosiv belasteter Rohrleitungen finden sollen. Bei dem heute zur Anwendung kommenden, so genannten 3P-Harz (Polyisocyanat, Polykieselsäure, Phosphat), dienen organische Phosphorsäureester als Emulgatoren der reaktiven PMDI/WG-Emulsion. Diese unterliegen jedoch der Gefahr, durch die EU-Verordnung REACH (EG-Nr. 1907/2006) restriktiert zu werden. Es wird gezeigt, dass die Substitution der organischen Phosphorsäureester durch epoxidiertes Leinsamenöl (ELO) aus nachwachsenden Rohstoffen ohne Einbußen der Verarbeitbarkeit und der (bruch-)mechanischen Eigenschaften möglich ist. Dadurch bleibt eine REACH-Konformität des Harzsystems gewährleistet. Die weitergehende gezielte Modifikation der in situ mit Polysilikatpartikeln gefüllten Polyharnstoffharze mittels silan-terminierter Polymere (STP) führt außerdem zu Verbesserungen der Bruchzähigkeit durch Matrix/Partikel-Brückenbildungen.
Gegenüber dem phosphathaltigen Stand der Technik Harz wird durch die entwickelten 2P-Matrices (Polyisocyanat, Polykieselsäure) eine erhöhte Schadenstoleranz in GFK wie auch in neuartigen BFK nachgewiesen. Ferner wird die Dauerhaftigkeit erhöht und ein unerwünschtes Ausdiffundieren phosphathaltiger, umweltbelastender Emulgatoren wird vermieden. Es werden synergistische Effekte wirksam, welche aufgrund der STP-Modifikation in GFK und neuartigen BFK zu einer verbesserten Faser/Matrix-Haftung und somit einer erhöhten Lebensdauer führen. Der Einsatz von glasähnlichen aber thermisch- und korrosionsbeständigen Basaltfasern, welche in energiearmen Prozessen aus natürlichem Lavagestein gewonnen werden, wird positiv bewertet.
Wir zeigen an einigen Beispielen, wie man numerische Simulationen in Tabellenkalkulationsprogrammen (hier speziell in Excel) erzeugen kann. Diese können beispielsweise im Kontext von mathematischer Modellierung verwendet werden.
Die Beispiele umfassen ein Modell zur Ausbreitung von Krankheiten, die Flugkurve eines Fußballs unter Berücksichtigung von Luftreibung, eine Monte-Carlo-Simulation zur experimentellen Bestimmung von pi, eine Monte-Carlo-Simulation eines gemischten Kartenstapels und die Modellierung von Benzinpreisen mit einem Preistrend und Rauschen
Planar force or pressure is a fundamental physical aspect during any people-vs-people and people-vs-environment activities and interactions. It is as significant as the more established linear and angular acceleration (usually acquired by inertial measurement units). There have been several studies involving planar pressure in the discipline of activity recognition, as reviewed in the first chapter. These studies have shown that planar pressure is a promising sensing modality for activity recognition. However, they still take a niche part in the entire discipline, using ad hoc systems and data analysis methods. Mostly these studies were not followed by further elaborative works. The situation calls for a general framework that can help push planar pressure sensing into the mainstream.
This dissertation systematically investigates using planar pressure distribution sensing technology for ubiquitous and wearable activity recognition purposes. We propose a generic Textile Pressure Mapping (TPM) Framework, which encapsulates (1) design knowledge and guidelines, (2) a multi-layered tool including hardware, software and algorithms, and (3) an ensemble of empirical study examples. Through validation with various empirical studies, the unified TPM framework covers the full scope of application recognition, including the ambient, object, and wearable subspaces.
The hardware part constructs a general architecture and implementations in the large-scale and mobile directions separately. The software toolkit consists of four heterogeneous tiers: driver, data processing, machine learning, visualization/feedback. The algorithm chapter describes generic data processing techniques and a unified TPM feature set. The TPM framework offers a universal solution for other researchers and developers to evaluate TPM sensing modality in their application scenarios.
The significant findings from the empirical studies have shown that TPM is a versatile sensing modality. Specifically, in the ambient subspace, a sports mat or carpet with TPM sensors embedded underneath can distinguish different sports activities or different people's gait based on the dynamic change of body-print; a pressure sensitive tablecloth can detect various dining actions by the force propagated from the cutlery through the plates to the tabletop. In the object subspace, swirl office chairs with TPM sensors under the cover can be used to detect the seater's real-time posture; TPM can be used to detect emotion-related touch interactions for smart objects, toys or robots. In the wearable subspace, TPM sensors can be used to perform pressure-based mechanomyography to detect muscle and body movement; it can also be tailored to cover the surface of a soccer shoe to distinguish different kicking angles and intensities.
All the empirical evaluations have resulted in accuracies well-above the chance level of the corresponding number of classes, e.g., the `swirl chair' study has classification accuracy of 79.5% out of 10 posture classes and in the `soccer shoe' study the accuracy is 98.8% among 17 combinations of angle and intensity.
Leben in Kaiserslautern 2019
(2019)
Das Projekt zum „Leben in Kaiserslautern 2019“ (LiK) untersucht die Lebensqualität in Kaiserslautern, die Zufriedenheit mit der Demokratie und den politischen Institutionen sowie die politische und gesellschaftliche Partizipation der Bürgerinnen und Bürger. Der Bericht stellt das methodische Design der LiK-Befragung vor. Es werden deskriptive Ergebnisse aus der Befragung präsentiert. Dabei wird auch Bezug auf Ergebnisse aus bundesweiten Bevölkerungsumfragen, die einen Vergleich zwischen Kaiserslautern und ganz Deutschland erlauben, genommen.
Topological insulators (TI) are a fascinating new state of matter. Like usual insulators, their band structure possesses a band gap, such that they cannot conduct current in their bulk. However, they are able to conduct current along their edges and surfaces, due to edge states that cross the band gap. What makes TIs so interesting and potentially useful are these robust unidirectional edge currents. They are immune to significant defects and disorder, which means that they provide scattering-free transport.
In photonics, using topological protection has a huge potential for applications, e.g. for robust optical data transfer [1-3] – even on the quantum level [4, 5] – or to make devices more stable and robust [6, 7]. Therefore, the field of topological insulators has spread to optics to create the new and active research field of topological photonics [8-10].
Well-defined and controllable model systems can help to provide deeper insight into the mechanisms of topologically protected transport. These model systems provide a vast control over parameters. For example, arbitrary lattice types without defects can be examined, and single lattice sites can be manipulated. Furthermore, they allow for the observation of effects that usually happen at extremely short time-scales in solids. Model systems based on photonic waveguides are ideal candidates for this.
They consist of optical waveguides arranged on a lattice. Due to evanescent coupling, light that is inserted into one waveguide spreads along the lattice. This coupling of light between waveguides can be seen as an analogue to electrons hopping/tunneling between atomic lattice sites in a solid.
The theoretical basis for this analogy is given by the mathematical equivalence between Schrödinger and paraxial Helmholtz equation. This means that in these waveguide systems, the role of time is assigned to a spatial axis. The field evolution along the waveguides' propagation axis z thus models the temporal evolution of an electron's wave-function in solid states. Electric and magnetic fields acting on electrons in solids need to be incorporated into the photonic platform by introducing artificial fields. These artificial gauge fields need to act on photons in the same way that their electro-magnetic counterparts act on electrons. E.g., to create a photonic analogue of a topological insulator the waveguides are bent helically along their propagation axis to model the effect of a magnetic field [3]. This means that the fabrication of these waveguide arrays needs to be done in 3D.
In this thesis, a new method to 3D micro-print waveguides is introduced. The inverse structure is fabricated via direct laser writing, and subsequently infiltrated with a material with higher refractive index contrast. We will use these model systems of evanescently coupled waveguides to look at different effects in topological systems, in particular at Floquet topological systems.
We will start with a topologically trivial system, consisting of two waveguide arrays with different artificial gauge fields. There, we observe that an interface between these trivial gauge fields has a profound impact on the wave vector of the light traveling across it. We deduce an analog to Snell's law and verify it experimentally.
Then we will move on to Floquet topological systems, consisting of helical waveguides. At the interface between two Floquet topological insulators with opposite helicity of the waveguides, we find additional trivial interface modes that trap the light. This allows to investigate the interaction between trivial and topological modes in the lattice.
Furthermore, we address the question if topological edge states are robust under the influence of time-dependent defects. In a one-dimensional topological model (the Su-Schrieffer-Heeger model [11]) we apply periodic temporal modulations to an edge wave-guide. We find Floquet copies of the edge state, that couple to the bulk in a certain frequency window and thus depopulate the edge state.
In the two-dimensional Floquet topological insulator, we introduce single defects at the edge. When these defects share the temporal periodicity of the helical bulk waveguides, they have no influence on a topological edge mode. Then, the light moves around/through the defect without being scattered into the bulk. Defects with different periodicity, however, can – likewise to the defects in the SSH model – induce scattering of the edge state into the bulk.
In the end we will briefly highlight a newly emerging method for the fabrication of waveguides with low refractive index contrast. Moreover, we will introduce new ways to create artificial gauge fields by the use of orbital angular momentum states in waveguides.
Digitalisierung als ein wesentlicher Treiber von Veränderungen und Wissen als ein wichtiger Wettbewerbs- und Überlebensfaktor stellen Organisationen aller Branchen und Sektoren vor neue Anpassungsbestrebungen, um ihre Existenz zu sichern. Das Gesundheitswesen mit seinem großen Potenzial mithilfe neuer Technologien aus Ideen verwertbare Produkte oder Dienstleistungen entstehen zu lassen (Digital Health Innovationen) steht vor der Herausforderung, nur bedingt an vorhandenes Wissen anknüpfen zu können. Die Gründe hierfür liegen im Digital Health Bereich zum einen in der häufigen Nicht-Patentierbarkeit von Erfindungen und zum anderen in der Gestaltung des Prozesses an sich, um aus einer Idee ein Produkt entstehen zu lassen. Zu komplex ist der Innovationsprozess geworden, in dem universitäre Technologietransferstellen (Technology Transfer Offices (TTOs)) als Schnittstelle zwischen Forschung, Politik und Wirtschaft agieren. Die Masterarbeit beschäftigt sich mit der Frage, welchen Beitrag universitäre Technologietransferstellen zur Umsetzung von Digital Health Innovationen leisten können und wie diese Umsetzung organisationsintern aus Blickwinkel des organisationalen Lernens gestaltet werden kann.
Die Entwicklung des ersten 3D-druckbaren Smartphonephotometers zur Erfassung kinetischer und statischer Messdaten enzymatischer und chemischer Reaktionen am Smartphone ohne den Einsatz zusätzlicher elektronischer Komponenten oder aufwändiger optischer Komponenten wird vorgestellt. Die Entwicklung erfolgt sowohl im Bereich der Umweltanalytik zum Nachweis von Schwermetallbelastungen in Gewässerproben im Rahmen von Citizen Sciences Anwendungen als auch als point of need Analysesystem zum industriellen Einsatz in Winzereibetrieben unter jeweils angepassten Zielsetzungen und Beispielsystemen. Für die verschiedenen Anwendungsbereiche werden unterschiedliche Systeme mit angepassten Zielsetzungen entwickelt. Ein küvettenbasiertes System wird in Hinblick auf die Anforderungen des Citizen Sciences Bereichs entwickelt. Ein kapillarbasiertes Smartphonephotometer und –nephelometer wird entwickelt um den Anforderungen in Winzereibetrieben optimal zu entsprechen.
Verwendung finden im Bereich der Umweltanalytik enzymatische Assay, die in herkömmlichen Küvetten durchgeführt werden. Die Assays beruhen auf der Erfassung inhibitorischer Effekte auf die Aktivität von Enzymen und Enzymkaskaden durch Schwermetallbelastungen in Gewässerproben. Im Anwendungsfeld der Weinanalytik werden chemisch Parameter am Smartphonephotometer bestimmt. Die photometrische Analyse wird in vorkonfektionierbaren Assaykapillaren durchgeführt. Dies ermöglicht die Realisierung minimaler Anforderungen an die durchführenden Personen bei maximaler Reproduzierbarkeit der Untersuchungsergebnisse.
Die Smartphonephotometer sind unter Verwendung der smartphoneeigenen Blitzlicht-LED als Lichtquelle in der Lage Änderungen der Extinktion in den Wellenlängenbereichen von 410-545 nm, 425-650 und 555-675 nm zu quantifizieren. Die Einschränkung der spezifischen Wellenlänge wird durch die inhomogenen Emissionsspektren der LED der Blitzlicht-LED des Smartphones verursacht. Nephelometrische Trübungsmessungen können bis zu einer Trübung von 250 FNU quantitativ durchgeführt werden.
We report the design, fabrication and experimental investigation of a spectrally wide-band terahertz spatial light modulator (THz-SLM) based on an array of 768 actuatable mirrors with each having a length of 220 μm and a width of 100 μm. A mirror length of several hundred micrometers is required to reduce diffraction from individual mirrors at terahertz frequencies and to increase the pixel-to-pixel modulation contrast of the THz-SLM. By means of spatially selective actuation, we used the mirror array as reconfigurable grating to spatially modulate terahertz waves in a frequency range from 0.97 THz to 2.28 THz. Over the entire frequency band, the modulation contrast was higher than 50% with a peak modulation contrast of 87% at 1.38 THz. For spatial light modulation, almost arbitrary spatial pixel sizes can be realized by grouping of mirrors that are collectively switched as a pixel. For fabrication of the actuatable mirrors, we exploited the intrinsic residual stress in chrome-copper-chrome multi-layers that forces the mirrors into an upstanding position at an inclination angle of 35°. By applying a bias voltage of 37 V, the mirrors were pulled down to the substrate. By hysteretic switching, we were able to spatially modulate terahertz radiation at arbitrary pixel modulation patterns.
Die vorliegende Arbeit lässt sich in drei Themengebiete unterteilen. Jedes davon kann durch ein Übergangsmetall der sechsten Nebengruppe repräsentiert werden. Ein Vertreter der sperrigen Alkylcyclopentadienyl-Liganden wurde stets als Hilfsligand verwendet. Mehr als 40 Komplexe des Chroms, Molybdäns und Wolframs mit sperrigen Cyclopentadienyl-Liganden konnten im Rahmen dieser Arbeit hergestellt und untersucht werden. Die meisten Strukturmotive konnten dabei röntgenkristallographisch aufgeklärt werden.
Mit dem synthetisch und sterisch besonders aufwändigen Pentaisopropyl-cyclopentadienyl-Liganden konnten allein sieben Chromkomplexe hergestellt und charakterisiert werden. Eine sehr hohe Reaktivität der Ausgangsverbindungen der Form [RCpCr(µ-Br)]2 mit RCp = Cp’’’ und 5Cp gegenüber Nucleophilen zeigte sich in Umsetzungen mit Natrium-cyclopentadieniden, Natrium-bis(trimethylsilyl)amid, einem N-heterocylischen Carben, unterschiedlichen Natrium-phenolaten, Natrium-phenylacetylid, unterschiedlichen Grignard-Reagenzien, Lithiumaluminiumhydrid, Natriumazid und Kaliumcyanid. Gemischt substituierte Pentaalkyl-Chromocene [Cp’’’CrCp’’] und [5CpCrCp] mit unterschiedlich substituierten Hilfsliganden konnten erfolgreich synthetisiert werden. Mit sperrigen Nucleophilen oder mit einem sperrigen N-heterocyclischen Carbenliganden wurden die Einkernkomplexe [RCpCrYL] mit der Kombination aus einem anionischen Liganden Y und einem neutralen Donorliganden L (Y/L = Br/NHC, CH3/NHC, N(SiMe3)2/THF und O(tBu)2C6H3/THF) gebildet. Die Umsetzungen der Chrom(II)-Ausgangsverbindungen mit Phenolato-Liganden lieferten Produkte mit unterschiedlichen Strukturmotiven je nach Sperrigkeit der Substituenten am aromatischen Sechsring des eingesetzten Liganden. Dabei konnte neben dem Einkernkomplex [Cp’’’Cr(O(tBu)2C6H3)(THF)] eine Zweikernverbindung [Cp’’’Cr(µ-OPh)]2 isoliert und kristallographisch aufgeklärt werden. Die µ,η1:η2-Koordination der Phenylacetylido-Brücken des Zweikernkomplexes [Cp’’’Cr(µ,η1:η2-C≡CPh)]2 konnte mittels Röntgenstrukturanalyse belegt werden. Die Umsetzungen der Bromido-verbrückten Ausgangsverbindungen mit Me- oder Ph-MgX erfolgten unter Bildung entsprechender Zweikernkomplexe mit Alkyl- oder Aryl-Brückenliganden. Beim Einsatz von Et- oder iPr-MgX gelang durch eine β-H-Eliminierung ein Zugang zu einer Hydrido-Spezies des Chroms mit der Form [RCpCr(µ-H)]2 mit RCp = Cp’’’ und 5Cp. Die Vierkernkomplexe [Cp’’’Cr(µ-X)]4 entstanden mit dem linear verbrückenden Cyanid oder mit Tetrahydridoaluminat als Nucleophil. [(Cp’’’Cr)3(µ3-N)4(CrBr)] wurde durch eine Umsetzung mit Azid unter Abspaltung von Distickstoff erhalten.
Ein Vertreter der Molybdän-Komplexe mit Acetato-Brücken [Cp’’Mo(µ-OAc)]2 konnte erhalten und anschließend mit Trimethylbromsilan weiter umgesetzt werden. Eine Oxidation der Metallzentren zu Molybdän(III) anstelle eines Austausches der verbrückenden Acetato-Liganden wurde dabei beobachtet.
Wolfram-Komplexe der Form [RCpW(CO)3CH3] mit RCp = Cp’’, Cr’’’, 23Cp und 4Cp wurden zunächst ausgehend von W(CO)6 synthetisiert und anschließend mit PCl5 und PBr5 halogeniert. Die isolierten Komplexe [RCpWCl4] und [RCpWBr4] mit RCp = Cp’’, Cr’’’, 23Cp und 4Cp konnten in guten Ausbeuten erhalten werden. Anschließende Reduktionen mit Mangan lieferten Zweikernkomplexe des Wolframs mit verbrückenden Halogenido-Liganden [RCpW(µ-Cl)2]2 und [RCpW(µ-Br)2]2 mit RCp = Cp’’, Cr’’’ und 4Cp. Neben [Cp’’W(CO)2(µ-I)]2 konnte durch Reduktion von [Cp’’W(CO)2I3] auch ein Vertreter der „semibridging“-Komplexe, [Cp’’W(CO)2]2, erhalten werden.
Under the notion of Cyber-Physical Systems an increasingly important research area has
evolved with the aim of improving the connectivity and interoperability of previously
separate system functions. Today, the advanced networking and processing capabilities
of embedded systems make it possible to establish strongly distributed, heterogeneous
systems of systems. In such configurations, the system boundary does not necessarily
end with the hardware, but can also take into account the wider context such as people
and environmental factors. In addition to being open and adaptive to other networked
systems at integration time, such systems need to be able to adapt themselves in accordance
with dynamic changes in their application environments. Considering that many
of the potential application domains are inherently safety-critical, it has to be ensured
that the necessary modifications in the individual system behavior are safe. However,
currently available state-of-the-practice and state-of-the-art approaches for safety assurance
and certification are not applicable to this context.
To provide a feasible solution approach, this thesis introduces a framework that allows
“just-in-time” safety certification for the dynamic adaptation behavior of networked
systems. Dynamic safety contracts (DSCs) are presented as the core solution concept
for monitoring and synthesis of decentralized safety knowledge. Ultimately, this opens
up a path towards standardized service provision concepts as a set of safety-related runtime
evidences. DSCs enable the modular specification of relevant safety features in
networked applications as a series of formalized demand-guarantee dependencies. The
specified safety features can be hierarchically integrated and linked to an interpretation
level for accessing the scope of possible safe behavioral adaptations. In this way, the networked
adaptation behavior can be conditionally certified with respect to the fulfilled
DSC safety features during operation. As long as the continuous evaluation process
provides safe adaptation behavior for a networked application context, safety can be
guaranteed for a networked system mode at runtime. Significant safety-related changes
in the application context, however, can lead to situations in which no safe adaptation
behavior is available for the current system state. In such cases, the remaining DSC
guarantees can be utilized to determine optimal degradation concepts for the dynamic
applications.
For the operationalization of the DSCs approach, suitable specification elements and
mechanisms have been defined. Based on a dedicated GUI-engineering framework it is
shown how DSCs can be systematically developed and transformed into appropriate runtime
representations. Furthermore, a safety engineering backbone is outlined to support
the DSC modeling process in concrete application scenarios. The conducted validation
activities show the feasibility and adequacy of the proposed DSCs approach. In parallel,
limitations and areas of future improvement are pointed out.
Im Rahmen dieser Arbeit wurden im ersten von vier Teilen fünf Brønsted-saure, mesoporöse Organokieselgele synthetisiert, vier auf Basis eines BTEB-PMOs und eines auf der eines SBA-15s. Diese wiesen hohe spezifische Oberflächen zwischen 581 und 710 m2/g auf und geordnete, 2D-hexagonale Strukturen. Drei dieser Materialien wurden näher auf ihre Eigenschaft als Katalysator untersucht. Während sie in Kondensationsreaktionen geringe bis moderate Aktivität zeigten, erbrachte das SO3H-BTEB-PMO in der THP-Schützung von Isoamylalkohol und Phenol bereits nach 10 min mit nur 0.1 mol-% Katalysator einen vollständigen Umsatz. In den entsprechenden Entschützungen war die Aktivität vergleichbar mit der von pTsOH. Der Katalysator konnte mehrmals regeneriert werden, ohne dabei erheblich an Aktivität zu verlieren.
Im zweiten Teil der vorliegenden Arbeit wurde das SO3H-BTEB-PMO dazu genutzt, um vier kationisch funktionalisierte Phenothiazine zu immobilisieren. Die Phenothiazine wurden allesamt in Kooperation im Rahmen des DFG-Projekts TH 550/20-1 von M.Sc. Hilla Khelwati im Arbeitskreis von Prof. Dr. T. J. J. Müller an der HHU Düsseldorf synthetisiert. So konnten neuartige, redoxaktive Hybridmaterialien mit spezifischen Oberflächen zwischen 500 und 688 m2/g, 2D-hexagonaler Struktur und Phenothiazin-Beladungen zwischen 167 und 243 µmol/g erhalten werden. Die Umwandlung in ihre stabilen Radikalkationen gelang durch gezielte Bestrahlung mit Licht, wobei selbst nach zehn Monaten Lagerung im Dunkeln noch radikalische Spezies in nur gering verminderter Intensität detektiert werden konnten. Zwei weitere, kationisch funktionalisierte Phenothiazine wurden nach demselben Prinzip auf BTEB-NP immobilisiert. Dabei besaßen die beiden Organokieselgele spezifische Oberflächen von 335 und 565 m2/g und Phenothiazin-Beladungen von 394 bzw. 137 µmol/g. Die letzten beiden Phenothiazine, diesmal mit Triethoxysilylgruppen versehen, wurden mittels Grafting auf das BTEB-NP-Gerüst aufgebracht, wobei diese chemisch oxidiert werden mussten, um stabile Radikalkationen zu erhalten. Es zeigte sich, dass bei der Bestrahlung mit Licht bei den kationisch funktionalisierten Phenothiazinen die Umgebung innerhalb der Pore für die beobachtete Stabilität der Radikalkationen essentiell ist, welche bei den gegrafteten Phenothiazinen nicht gegeben war. Die Hybridmaterialien mit den gegrafteten Phenothiazinen besaßen Oberflächen von 172 und 920 m2/g und Phenothiazin-Beladungen von 809 bzw. 88.9 µmol/g.
Der dritte Bereich beschäftigte sich mit der Synthese eines epi-Chinin-BTEB-PMOs für die Anwendung in der Katalyse der Mannich-Reaktion von Ketiminen mit dem Nucleophil 2,4-Pentandion. Dabei konnten hohe Umsätze zwischen 73 und 98%, bei Stereoselektivitäten zwischen 69 und 98% ee, erhalten werden. Das mesoporöse Katalysatorsystem besaß eine spezifische Oberfläche von 812 m2/g, eine 2D-hexagonale Struktur und eine Beladung an aktiven Zentren von 151 µmol/g. Der Katalysator konnte mehrmals regeneriert werden, bei leichten Einbußen im Umsatz und gleichbleibender Selektivität.
Im vierten und letzten Abschnitt wurden Möglichkeiten untersucht, Vanadium- und Aluminium-Spezies in das BTEB-PMO-Grundgerüst zu inkorporieren, um somit Katalysatoren für die Epoxidierung von Olefinen zu erhalten. Dabei konnte eine große Anzahl an Materialien erhalten werden, die jedoch keine geordnete Struktur aufwiesen und sich lediglich in der Epoxidierung von (Z)-Cycloocten sehr aktiv zeigten.
Many loads acting on a vehicle depend on the condition and quality of roads
traveled as well as on the driving style of the motorist. Thus, during vehicle development,
good knowledge on these further operations conditions is advantageous.
For that purpose, usage models for different kinds of vehicles are considered. Based
on these mathematical descriptions, representative routes for multiple user
types can be simulated in a predefined geographical region. The obtained individual
driving schedules consist of coordinates of starting and target points and can
thus be routed on the true road network. Additionally, different factors, like the
topography, can be evaluated along the track.
Available statistics resulting from travel survey are integrated to guarantee reasonable
trip length. Population figures are used to estimate the number of vehicles in
contained administrative units. The creation of thousands of those geo-referenced
trips then allows the determination of realistic measures of the durability loads.
Private as well as commercial use of vehicles is modeled. For the former, commuters
are modeled as the main user group conducting daily drives to work and
additional leisure time a shopping trip during workweek. For the latter, taxis as
example for users of passenger cars are considered. The model of light-duty commercial
vehicles is split into two types of driving patterns, stars and tours, and in
the common traffic classes of long-distance, local and city traffic.
Algorithms to simulate reasonable target points based on geographical and statistical
data are presented in detail. Examples for the evaluation of routes based
on topographical factors and speed profiles comparing the influence of the driving
style are included.
In der Masterarbeit werden aktuelle Gestaltungsmöglichkeiten für den Übergang vom Kindergarten in die Grundschule in Rheinland-Pfalz analysiert und mit dem Modell der schwedischen förskoleklass in Verbindung gebracht und ergänzt. Dabei wird die Frage beantwortet, welche Bedingungen die Institutionen im Elementar- und Primarbereich in Rheinland-Pfalz brauchen, um erfolgreich kooperieren zu können. In Schweden wurde die förskoleklass neu strukturiert, die ab Herbst 2018 obligatorisch für alle Kinder ab sechs Jahren ist. Zuvor war die Teilnahme auf freiwilliger Basis und die Pädagogen konnten Ziele selbst festlegen. Erkenntnisse aus dem schwedischen Modell der förskoleklass werden in Bezug zur Praxis in Rheinland-Pfalz gesetzt. Dabei werden theoretische Grundlagen zur Übergangsgestaltung und zu Kooperationsformen zwischen Elementar- und Primarbereich aus der deutschen und schwedischen Forschungsliteratur herausgearbeitet, verglichen, bewertet und in Bezug zur Praxis gesetzt, um zu erarbeiten, wie ein Übergangskonzept erfolgreich implementiert werden kann.
Die Deutschen Auslandsschulen (DAS) stellen bisher ein Desiderat in der Forschung dar. Diese Arbeit knüpft an dieser Stelle an und entwickelt Thesen sowie Hypothesen darüber, welche Rolle die die Personalfluktuation an DAS für deren Schulentwicklung spielt. Hierfür wurden Leitfadeninterviews mit Schulleitern an DAS geführt und qualitativ ausgewertet.
Die Interviewtranskripte wurden entfernt, um die Anonymität der Interviewten zu garantieren.
In computer graphics, realistic rendering of virtual scenes is a computationally complex problem. State-of-the-art rendering technology must become more scalable to
meet the performance requirements for demanding real-time applications.
This dissertation is concerned with core algorithms for rendering, focusing on the
ray tracing method in particular, to support and saturate recent massively parallel computer systems, i.e., to distribute the complex computations very efficiently
among a large number of processing elements. More specifically, the three targeted
main contributions are:
1. Collaboration framework for large-scale distributed memory computers
The purpose of the collaboration framework is to enable scalable rendering
in real-time on a distributed memory computer. As an infrastructure layer it
manages the explicit communication within a network of distributed memory
nodes transparently for the rendering application. The research is focused on
designing a communication protocol resilient against delays and negligible in
overhead, relying exclusively on one-sided and asynchronous data transfers.
The hypothesis is that a loosely coupled system like this is able to scale linearly
with the number of nodes, which is tested by directly measuring all possible
communication-induced delays as well as the overall rendering throughput.
2. Ray tracing algorithms designed for vector processing
Vector processors are to be efficiently utilized for improved ray tracing performance. This requires the basic, scalar traversal algorithm to be reformulated
in order to expose a high degree of fine-grained data parallelism. Two approaches are investigated: traversing multiple rays simultaneously, and performing
multiple traversal steps at once. Efficiently establishing coherence in a group
of rays as well as avoiding sorting of the nodes in a multi-traversal step are the
defining research goals.
3. Multi-threaded schedule and memory management for the ray tracing acceleration structure
Construction times of high-quality acceleration structures are to be reduced by
improvements to multi-threaded scalability and utilization of vector processors. Research is directed at eliminating the following scalability bottlenecks:
dynamic memory growth caused by the primitive splits required for high-
quality structures, and top-level hierarchy construction where simple task par-
allelism is not readily available. Additional research addresses how to expose
scatter/gather-free data-parallelism for efficient vector processing.
Together, these contributions form a scalable, high-performance basis for real-time,
ray tracing-based rendering, and a prototype path tracing application implemented
on top of this basis serves as a demonstration.
The key insight driving this dissertation is that the computational power necessary
for realistic light transport for real-time rendering applications demands massively
parallel computers, which in turn require highly scalable algorithms. Therefore this
dissertation provides important research along the path towards virtual reality.
Basierend auf den Erkenntnissen und Erfahrungen zum Klimawandel ergaben sich in den letzten Jahren weltweit enorme energie- und klimapolitische Veränderungen. Dies führt zu einem immer stärken Wandel der Erzeugungs-, Verbrauchs- und Versorgungsstrukturen unserer Energiesysteme. Der Fokus der Energieerzeugung auf fluktuierenden erneuerbaren Energieträgern erfordert einen weitreichenderen Einsatz von Flexibilitäten als dies bisher der Fall war.
Diese Arbeit diskutiert den Einsatz von Wärmepumpen und Speichersystemen als Flexibilitäten im Kontext des Zellularen Ansatzes der Energieversorgung. Dazu werden die Flexibilitätspotentiale von Wärmepumpen -Speichersystemen auf drei Betrachtungsebenen untersucht und validiert. Erstere berücksichtigt die Wärmepumpe, den thermischen Speicher und thermische Lasten in einer generellen Potentialbetrachtung. Darauf aufbauend folgt die Betrachtung der Wärmepumpen-Speichersysteme im Rahmen einer Haushalts-Zelle als energetische Einheit, gefolgt von Untersuchungen im Niederspannungs-Zellkontext. Zur Abbildung des Flexibilitätsverhaltens werden detaillierte Modelle der Wandler und Speicher sowie deren Steuerungen entwickelt und anhand von Zeitreihensimulationen analysiert und evaluiert.
Die zentrale Frage ob Wärmepumpen mit Speichersystemen einen Beitrag als Flexibilität zum Gelingen der Energiewende leisten können kann mit einem klaren Ja beantwortet werden. Dennoch sind die beim Einsatz von Wärmepumpen-Speichersystemen als Flexibilität zu beachtenden Randbedingungen vielfältig und bedürfen, je nach Anwendungszweck der Flexibilität, einer genauen Betrachtung. Die entscheidenden Faktoren sind dabei die Außentemperatur, der zeitliche Kontext, das Netz und die Wirtschaftlichkeit.
Technische und gesellschaftliche Entwicklungen im Bereich der Digitalisierung und vor allem der künstlichen Systeme werden in der gutachterlichen Stellungnahme dargestellt. Im Mittelpunkt stehen Auswirkungen der digitalen Transformation für Politik und Verwaltung in Rhein-land-Pfalz, verschiedene technische Lösungen, Divergenzen zwischen ländlichem und urbanen Räumen sowie Zukunftsvorstellungen.
Bei künstlicher Intelligenz handelt es sich um einen spezifischen Aspekt der Digitalisierung. Beide – Digitalisierung und Künstliche Intelligenz – gehen mit unterschiedlichen Facetten gesellschaftlichen Wandels einher, die in ihrer orts- und regionalspezifischen Einbettung zu untersuchen sind. Dabei ist es unabdingbar, sowohl die gesellschaftlichen als auch die technischen Innovationen aufeinander zu beziehen und diese in ihren Wechselwirkungen als eine sozio-technische Dynamik aufzufassen.
Auf Grundlage eines umfassenden Literaturreviews wird ein Überblick über die aktuellen technischen Anwendungen bei der Künstlichen Intelligenz und der Digitalisierung gegeben (Maschinenlernen, Robotics, Deep Learning, Data Mining, Blockchain, etc). In den verschiedenen Siedlungsräumen in Rheinland-Pfalz kommen – teilweise in transdisziplinären Forschungsprojekten – die neuen digitalen Möglichkeiten bereits zum Einsatz, z.B. im Projekt Digitale Dörfer, in der Chemieindustrie oder bei Versuchen für autonomes Fahren. Anwendungsfelder in unterschiedlichen Lebensbereichen werden für die verschiedenen Regionen in Rheinland-Pfalz aufgezeigt. Das Verschmelzen von virtuellem und realem Raum sowie die Normalisierung digitaler Lebensstile führt auch zu wachsenden Erwartungen an die Digitalität von Verwaltung und Politik. Vorteile von KI in der Verwaltung können erleichterte Kontakte zu Bürgern, schnellere interne Kommunikationswege, eine Prozessoptimierung und die Vernetzung der Abteilungen und Ressorts sein.
Die Autorinnen und Autoren der TU Kaiserslautern, Fachgebiet Stadtsoziologie, des Deut-schen Forschungszentrums für Künstliche Intelligenz DFKI und des Fraunhofer-Instituts für Experimentelles Software-Engineering IESE erarbeiteten in einem Expertenworkshop verschiedene Szenarien zur Darstellung der zukünftigen Lebenssituationen kommunaler Gemeinschaften unter der An- und Verwendung von Digitalisierungstechnologien und KI im Jahr 2050. Die Chancen und Risiken für die unterschiedlichen Regionen und Lebens-bereiche in Rheinland-Pfalz wurden in zwei extremen Varianten skizziert und einander gegenübergestellt. Während der Dystopie-Zustand eine Zukunft zeichnet, in der die Märkte von wenigen Global-Playern mit enormer Datenhoheit und aggressiven Geschäftsmodellen dominiert wer-den, zeigt der Utopie-Zustand eine von Teilhabe und Mitbestimmung geprägte, digitale Zukunft: Die digitale Transformation wird durch Politik und Gesellschaft gleichermaßen gesteuert, Bürger haben volle Datenhoheit und bestimmen individuell und situationsspezifisch, wann und welche Daten sie veröffentlichen möchten. Neue Möglichkeiten der Arbeitsgestaltung und neue Mobilitätsformen haben zu einer Flexibilisierung und Attraktivitätssteigerung hinsichtlich des Lebens und Arbeitens auf dem Land beigetragen. Ethische Grundprinzipien, gesellschaftliche, wirtschaftliche und politische Anforderungen werden somit mit den technologischen Potenzialen optimal in Einklang gebracht.
Wie diese Stellungnahme anhand der entworfenen Utopie und Dystopie illustriert, ist die technische Entwicklung von gesellschaftlicher Steuerung und Regulierung abhängig. Vor diesem Hintergrund erfordert die digitale Transformation Gestaltungswillen, spezifische Kenntnisse und auch Regulierung. Bei Letzterem gilt es, sowohl die Daten als Rohmaterial für KI, die (digitale und KI-) Technologien selbst – ihre Entwicklung und Verwendung – sowie daraus resultierende Informationen bzw. Wissen zu unterscheiden. Die Empfehlung aus dem Gutachten lautet daher, Informationen über Potenziale und Risiken transparent zugänglich und bekannt zu machen, die Bevölkerung aktiv einzubinden und eine strukturierte Förderung zu leisten, um Insellösungen zu überwinden und stattdessen Standards und offene Infrastrukturen zu schaffen. Es besteht die Gefahr, dass sich beim Einführungsprozess nicht-legitimierte, von Spezialisten und der Privatwirtschaft dominierte Strukturen (Meta-Governance) etablieren.
Insgesamt gilt beim Prozess der digitalen Transformation, dass Lösungen aus der vor-digitalen Ära nicht einfach auf heutige und zukünftige Probleme angewendet werden können. Ferner ist die Diversität der Situationen vor Ort bei der digitalen Transformation zu berücksichtigen. Dies ist insbesondere vor dem Hintergrund des ländlich geprägten Rhein-land-Pfalz von Bedeutung.
Die örtlichen Verwaltungen unterliegen der digitalen Transformation ebenso wie andere Systeme und Lebensbereiche, sie sind in unterschiedlichem Maße in der Lage, die Chancen für lokale und regionale Interessen zu nutzen und ihre Interessen durchzusetzen. Kommunen und Landkreise benötigen Unterstützung, damit sie von anderen, z.B. Leuchtturm-Projekten, lernen und beraten werden können. Ein Gegenstromprinzip von zivilgesellschaftlichen bzw. lokalen Bottom-up-Prozessen und Top-down- Unterstützung durch das Land erscheint zielführend (z.B. im Tourismus).
Bei der Bevölkerung sind bezogen auf KI und Digitalisierung aktuell gegensätzliche Tendenzen zu verzeichnen: Einerseits nehmen die Erwartungen an eine digitalisierte und moderne Verwaltung zu. Andererseits stoßen insbesondere als komplexer wahrgenommene Aspekte wie KI auf Vorbehalte. Bei einem verantwortungsvollen Umgang kann KI ihr Potenzial entfalten, indem die Algorithmen und eingeführte Technologien hinsichtlich der Gesetzeslage sowie ethischer und moralischer Überlegungen überwacht und gesteuert wer-den. Ein verantwortungsvoller Umgang mit Daten basiert auf aufgeklärten Entscheidern, informierten Bürgern und der Unterstützung von „bürgerschützenden Regeln”, die Miss-brauch grundsätzlich erschweren und Verstöße ahnden.
Langfristige Aussagen über die konkrete Entwicklung und Auswirkung von KI und Digitalisierung lassen sich nicht treffen aufgrund der Geschwindigkeit und Sprunghaftigkeit der Entwicklungen. In Bildung und Wissenschaft sollten im Bereich von KI die Interdisziplinarität gestärkt, nachhaltige und langfristige Strukturen geschaffen werden, um die digitale Transformation begleitend und aktivierend zu erforschen.
While the design step should be free from computational related constraints and operations due to its artistic aspect, the modeling phase has to prepare the model for the later stages of the pipeline.
This dissertation is concerned with the design and implementation of a framework for local remeshing and optimization. Based on the experience gathered, a full study about mesh quality criteria is also part of this work.
The contributions can be highlighted as: (1) a local meshing technique based on a completely novel approach constrained to the preservation of the mesh of non interesting areas. With this concept, designers can work on the design details of specific regions of the model without introducing more polygons elsewhere; (2) a tool capable of recovering the shape of a refined area to its decimated version, enabling details on optimized meshes of detailed models; (3) the integration of novel techniques into a single framework for meshing and smoothing which is constrained to surface structure; (4) the development of a mesh quality criteria priority structure, being able to classify and prioritize according to the application of the mesh.
Although efficient meshing techniques have been proposed along the years, most of them lack the possibility to mesh smaller regions of the base mesh, preserving the mesh quality and density of outer areas.
Considering this limitation, this dissertation seeks answers to the following research questions:
1. Given that mesh quality is relative to the application it is intended for, is it possible to design a general mesh evaluation plan?
2. How to prioritize specific mesh criteria over others?
3. Given an optimized mesh and its original design, how to improve the representation of single regions of the first, without degrading the mesh quality elsewhere?
Four main achievements came from the respective answers:
1. The Application Driven Mesh Quality Criteria Structure: Due to high variation in mesh standards because of various computer aided operations performed for different applications, e.g. animation or stress simulation, a structure for better visualization of mesh quality criteria is proposed. The criteria can be used to guide the mesh optimization, making the task consistent and reliable. This dissertation also proposes a methodology to optimize the criteria values, which is adaptable to the needs of a specific application.
2. Curvature Driven Meshing Algorithm: A novel approach, a local meshing technique, which works on a desired area of the mesh while preserving its boundaries as well as the rest of the topology. It causes a slow growth in the overall amount of polygons by making only small regions denser. The method can also be used to recover the details of a reference mesh to its decimated version while refining it. Moreover, it employs a geometric fast and easy to implement approach representing surface features as simple circles, being used to guide the meshing. It also generates quad-dominant meshes, with triangle count directly dependent on the size of the boundary.
3. Curvature-based Method for Anisotropic Mesh Smoothing: A geometric-based method is extended to 3D space to be able to produce anisotropic elements where needed. It is made possible by mapping the original space to another which embeds the surface curvature. This methodology is used to enhance the smoothing algorithm by making the nearly regularized elements follow the surface features, preserving the original design. The mesh optimization method also preserves mesh topology, while resizing elements according to the local mesh resolution, effectively enhancing the design aspects intended.
4. Framework for Local Restructure of Meshed Surfaces: The combination of both methods creates a complete tool for recovering surface details through mesh refinement and curvature aware mesh smoothing.
In this thesis we consider the directional analysis of stationary point processes. We focus on three non-parametric methods based on second order analysis which we have defined as Integral method, Ellipsoid method, and Projection method. We present the methods in a general setting and then focus on their application in the 2D and 3D case of a particular type of anisotropy mechanism called geometric anisotropy. We mainly consider regular point patterns motivated by our application to real 3D data coming from glaciology. Note that directional analysis of 3D data is not so prominent in the literature.
We compare the performance of the methods, which depends on the relative parameters, in a simulation study both in 2D and 3D. Based on the results we give recommendations on how to choose the methods´ parameters in practice.
We apply the directional analysis to the 3D data coming from glaciology, which consist in the locations of air-bubbles in polar ice cores. The aim of this study is to provide information about the deformation rate in the ice and the corresponding thinning of ice layers at different depths. This information is substantial for the glaciologists in order to build ice dating models and consequently to give a correct interpretation of the climate information which can be found by analyzing ice cores. In this thesis we consider data coming from three different ice cores: the Talos Dome core, the EDML core and the Renland core.
Motivated by the ice application, we study how isotropic and stationary noise influences the directional analysis. In fact, due to the relaxation of the ice after drilling, noise bubbles can form within the ice samples. In this context we take two classification algorithms into consideration, which aim to classify points in a superposition of a regular isotropic and stationary point process with Poisson noise.
We introduce two methods to visualize anisotropy, which are particularly useful in 3D and apply them to the ice data. Finally, we consider the problem of testing anisotropy and the limiting behavior of the geometric anisotropy transform.
A measurement technique, i.e. reflectance anisotropy/difference spectroscopy (RAS/RDS), which had originally been developed for in-situ
epitaxial growth control, is employed here for in-situ real-time etch-depth control during reactive ion etching (RIE) of cubic crystalline III/V
semiconductor samples. Temporal optical Fabry-Perot oscillations of the genuine RAS signal (or of the average reflectivity) during etching due
to the ever shrinking layer thicknesses are used to monitor the current etch depth. This way the achievable in-situ etch-depth resolution has
been around 15 nm. To improve etch-depth control even further, i.e. down to below 5 nm, we now use the optical equivalent of a mechanical
vernier scale– by employing Fabry-Perot oscillations at two different wavelengths or photon energies of the RAS measurement light – 5%
apart, which gives a vernier scale resolution of 5%. For the AlGaAs(Sb) material system a 5 nm resolution is an improvement by a factor of 3
and amounts to a precision in in-situ etch-depth control of around 8 lattice constants.
Previously in this journal we have reported on fundamental transversemode selection (TMS#0) of broad area semiconductor lasers
(BALs) with integrated twice-retracted 4f set-up and film-waveguide lens as the Fourier-transform element. Now we choose and
report on a simpler approach for BAL-TMS#0, i.e., the use of a stable confocal longitudinal BAL resonator of length L with a
transverse constriction.The absolute value of the radius R of curvature of both mirror-facets convex in one dimension (1D) is R = L
= 2f with focal length f.The round trip length 2L = 4f againmakes up for a Fourier-optical 4f set-up and the constriction resulting
in a resonator-internal beam waist stands for a Fourier-optical low-pass spatial frequency filter. Good TMS#0 is achieved, as long
as the constriction is tight enough, but filamentation is not completely suppressed.
1. Introduction
Broad area (semiconductor diode) lasers (BALs) are intended
to emit high optical output powers (where “high” is relative
and depending on the material system). As compared to
conventional narrow stripe lasers, the higher power is distributed
over a larger transverse cross-section, thus avoiding
catastrophic optical mirror damage (COMD). Typical BALs
have emitter widths of around 100 ????m.
Thedrawback is the distribution of the high output power
over a large number of transverse modes (in cases without
countermeasures) limiting the portion of the light power in
the fundamental transverse mode (mode #0), which ought to
be maximized for the sake of good light focusability.
Thus techniques have to be used to support, prefer, or
select the fundamental transverse mode (transverse mode
selection TMS#0) by suppression of higher order modes
already upon build-up of the laser oscillation.
In many cases reported in the literature, either a BAL
facet, the
In this thesis, we consider the problem of processing similarity queries over a dataset of top-k rankings and class constrained objects. Top-k rankings are the most natural and widely used technique to compress a large amount of information into a concise form. Spearman’s Footrule distance is used to compute the similarity between rankings, considering how well rankings agree on the positions (ranks) of ranked items. This setup allows the application of metric distance-based pruning strategies, and, alternatively, enables the use of traditional inverted indices for retrieving rankings that overlap in items. Although both techniques can be individually applied, we hypothesize that blending these two would lead to better performance. First, we formulate theoretical bounds over the rankings, based on Spearman's Footrule distance, which are essential for adapting existing, inverted index based techniques to the setting of top-k rankings. Further, we propose a hybrid indexing strategy, designed for efficiently processing similarity range queries, which incorporates inverted indices and metric space indices, such as M- or BK-trees, resulting in a structure that resembles both indexing methods with tunable emphasis on one or the other. Moreover, optimizations to the inverted index component are presented, for early termination and minimizing bookkeeping. As vast amounts of data are being generated on a daily bases, we further present a distributed, highly tunable, approach, implemented in Apache Spark, for efficiently processing similarity join queries over top-k rankings. To combine distance-based filtering with inverted indices, the algorithm works in several phases. The partial results are joined for the computation of the final result set. As the last contribution of the thesis, we consider processing k-nearest-neighbor (k-NN) queries over class-constrained objects, with the additional requirement that the result objects are of a specific type. We introduce the MISP index, which first indexes the objects by their (combination of) class belonging, followed by a similarity search sub index for each subset of objects. The number of such subsets can combinatorially explode, thus, we provide a cost model that analyzes the performance of the MISP index structure under different configurations, with the aim of finding the most efficient one for the dataset being searched.
Der Werkstoff Sheet Molding Compound (SMC) wurde in den 1960er Jahren entwickelt
und ermöglichte erstmals die großserientaugliche Herstellung von Faser-
Kunststoff-Verbund (FKV) Bauteilen. Heutzutage werden ca. 20 % aller in Europa
hergestellten Glasfasern in diesem Verfahren zu FKV verarbeitet. Die ökologischen
und ökonomischen Anforderungen an FKV-Bauteile steigen kontinuierlich. Es werden
immer leichtere, mechanisch höher belastbare und auch bio-basierte Pendants zu
bekannten Lösungen gefordert. Im Rahmen dieser Arbeit wurde der Einsatz von biobasierten
und nachwachsenden Rohstoffen als alternative Füllstoffe für duroplastische
SMC-Halbzeuge untersucht. Die Verarbeitung der alternativen Füllstoffe in
SMC-Halbzeugen darf keine negativen Einflüsse auf die Produktions- und Verarbeitungsabläufe
mit sich bringen. Weiterhin soll durch den Einsatz der alternativen Füllstoffe
eine Dichtereduktion um ca. 15 %, bei gleichbleibenden mechanischen Eigenschaften,
erreicht werden. Die Verwendung der bio-basierten und nachwachsenden
Füllstoffe darf nicht in Konkurrenz zur Nahrungsmittelindustrie stehen.
Zu Beginn der Arbeit wurden in Kooperation mit SMC-Experten und SMC-Herstellern
die Spezifikationen und Anforderungen an ein Standard-SMC definiert. Anschließend
wurde ein SMC-Halbzeug auf Basis eines ungesättigten Polyesterharzes, konventioneller
mineralischer Füllstoffe und Glasfasern entwickelt. Dieses Halbzeug erfüllt mit
einer Dichte von 1,95 g/cm³, einem E-Modul von 10,4 GPa und einer Zugfestigkeit
von 100 MPa die geforderten Spezifikationen und diente im weiteren Verlauf der Arbeit
als Referenz.
Im Rahmen der Arbeit wurde nachgewiesen, dass die Verarbeitung von bio-basierten
und nachwachsenden Rohstoffen eine Adaption der zuvor entwickelten Harzpaste
erfordert und Sonnenblumenkernschalenmehl als Füllstoff die konventionellen Füllstoffe
zu 100 % ersetzen kann. Die resultierende Halbzeugdichte beträgt 1,55 g/cm³
und liegt damit 20 % unter dem Referenzmaterial. Sowohl die mechanischen Kennwerte
(E-Modul 10,8 GPa und Zugfestigkeit 96 MPa) als auch die Herstellung und
Verarbeitung der Harzpaste erreichen die Referenzwerte und sind mit konventionellen
Halbzeugen vergleichbar. Im Rahmen der Arbeit konnte somit die Tauglichkeit
bio-basierter und nachwachsender Füllstoffe für einen möglichen Serieneinsatz in
SMC-Halbzeugen nachgewiesen werden.
Sheet Molding Compound (SMC) was developed in the 1960s and initially enabled
the production of glass fiber reinforced polymer composite (GFRPC) in mass scale
production. Nowadays, both material and process are well established for the production
of semi-structural components in various applications from construction industry
to automotive components. Currently, approximately 20% of all glass fibers produced
in Europe are processed to SMC. Increasing strict ecological and economical requirements
for construction materials, force further development of SMC in order to
strengthen its sales markets and open up new ones.
The objective of this work is the development of a SMC semi-finished product, using
bio-based and renewable materials as alternative filler materials. The processing of
the alternative fillers must not have any negative influence on the production and
processing procedures. Furthermore, the use of alternative fillers should achieve a
density reduction of 15% while maintaining the same mechanical properties. The use
of bio-based and renewable fillers must not compete with the food industry.
At first, specifications and requirements for a standard SMC were defined in cooperation
with SMC experts and producers. Afterwards a SMC semi-finished product
based on unsaturated polyester resin, glass fibers and conventional mineral fillers
was developed. With a density of 1.95 g/cm³, a Young’s modulus of 10.4 GPa and a
tensile strength of 100 MPa this SMC fulfills the specifications and is used as a reference
for further development.
In a second step a SMC with bio-based and renewable fillers was developed. This
work proofs the complete replacement of conventional filler materials by bio-based
and renewable filler materials. Therefore an adaption of the resin paste is necessary.
The best results were achieved with a resin paste using sunflower hulls flour as filler
material. The resulting semi-finished product shows a density of 1.55 g/cm³ and both
processability and mechanical properties are comparable to conventional SMC materials With a fiber mass content of 30% by weight, a Young’s modulus of 10.8 GPa
and a tensile strength of 96 MPa are achieved.
Die Alterungsbeständigkeit und Sicherheit von geklebten Verbindungen sind von großer
Bedeutung in industriellen Anwendungen. Die Ausfallwahrscheinlichkeit einer geklebten
Verbindung nach einer bestimmten Zeit kann hierbei durch verschiedene Alterungseffekte,
wie beispielsweise Temperatur und Luftfeuchtigkeit, beeinflusst werden. Die Korrelation der
Ergebnisse aus beschleunigten Laboralterungstests mit dem Langzeitverhalten der
Verbindungen unter Einsatzbedingungen bleibt häufig eine ungelöste Herausforderung. In der
vorliegenden Arbeit wurden computerbasierte Methoden für die nichtlineare Regressionsanalyse,
die Abschätzung der Zuverlässigkeit und die Vorhersage der Sicherheit auf
experimentelle Daten angewendet, die durch beschleunigte Alterung von Zugscherproben
sowie Substanz-Schulterproben generiert wurden. Die Modellierung des Alterungsverhaltens
wurde mit kombinierten Funktionen in Anlehnung an die Modelle nach EYRING und PECK
durchgeführt. Beide Modellierungsansätze erschienen hierbei geeignet zur Beschreibung der
experimentellen Daten. Die Sicherheitsvorhersage wurde anhand der Versagenswahrscheinlichkeit
sowie des Sicherheitsindex β allerdings auf Basis des EYRING-Modells
durchgeführt, da dieses die experimentellen Daten der Referenzbedingung konservativer
beschreibt.
Gegenstand dieser Arbeit ist die optische Erzeugung von Magnetisierungsverteilungen und der Propagation von Spinwellen durch diese. Spinwellen sind kollektive Anregungen des Spinsystems eines magnetischen Materials - das zugehörige Quasiteilchen wird Magnon genannt. Diese Dissertation wurde im Rahmen von Projekt B04 des transregionalen Sonderforschungsbereiches SFB/TRR 173 "Spin+X - Spin in its collective environment" der Deutschen Forschungsgemeinschaft (DFG) durchgeführt. Das Forschungsprogramm befasst sich mit der Wechselwirkung von Elektronenspins mit deren Umgebung und umfasst neben der theoretischen und experimentellen Grundlagenforschung auch die Übertragung auf technische Anwendungen. In der vorliegenden Arbeit wird die Manipulation von Magnonenströmen in magnetischen Materialien diskutiert. Generell gibt es zwei Methoden zur Modifikation der Eigenschaften eines Materials: Entweder die chemische Zusammensetzung oder die Struktur der Probe wird verändert. Zur räumlichen Veränderung des Materials werden üblicherweise Lithografie-, Abscheidungs- und Ätzprozesse verwendet. Diese Verfahren legen die Eigenschaften des Materials irreversibel fest. In dieser Arbeit wird eine neue Methode zur transienten Modulation der Eigenschaften von magnetischen Materialien entwickelt und an verschiedenen Anwendungen demonstriert. Ein Laser in Kombination mit einem räumlichen Lichtmodulator, auf welchem Computer generierte Hologramme dargestellt werden, erlaubt die Erzeugung von fast beliebigen Intensitätsverteilungen auf einem dünnen magnetischen Film – Yttrium Eisen Granat mit wenigen µm Filmdicke. Das Laserlicht wird von der Probe absorbiert und erzeugt somit optisch induzierte thermische Profile. Daraus resultiert ebenfalls eine lokale Modifikation der Sättigungsmagnetisierung und somit entstehen Magnetisierungslandschaften. Durch zeitliche Modulation der Intensität des Lichts und Wärmeabgabe an die Umgebung, sind diese magnetischen Strukturen dynamisch und rekonfigurierbar. Solche Magnetisierungslandschaften werden in dieser Arbeit verwendet um die Propagation von Spinwellen in der Probe zu beeinflussen. So werden zum Beispiel auf einer einzigen Probe ein- und quasi-zweidimensionale magnonische Kristalle mit unterschiedlichen Gitterkonstanten realisiert. Ein vektorieller Netzwerkanalysator bestimmt das Transmissions- und Reflexionsspektrum. Die auftretenden Bandlücken lassen sich sowohl mit der Transfermatrixmethode beschreiben als auch mit der Dispersionsrelation von Spinwellen vergleichen. Die ermittelten experimentellen Ergebnisse entsprechen den Erwartungen. Eine weitere Anwendung der neu entwickelten Strukturierungsmethode ist die Konvertierung von unterschiedlichen Spinwellentypen. Die Propagation von Spinwellen in parallel zur Filmebene magnetisierten Proben ist streng anisotrop. Magnetostatische Rückwärts-Volumenmoden, die entlang der Magnetisierungsrichtung propagieren, und Oberflächenmoden, die sich senkrecht zu dieser Richtung ausbreiten, existieren üblicherweise nicht simultan bei einer gegebenen Frequenz und sonstigen äußeren Parametern. Durch Verwendung von optisch induzierten Magnetisierungsgradienten lässt sich sowohl experimentell als auch mittels Simulationen zeigen, dass eine Änderung der Propagationsrichtung um bis zu 90° – und somit eine Modenkonvertierung – möglich ist. Der dritte Anwendungsbereich von Magnetisierungslandschaften in dieser Arbeit ist die Spinwellen-Optik. Die räumliche Modulation der Sättigungsmagnetisierung verändert den lokalen Brechungsindex für Spinwellen. Analog zur konventionellen Optik mit Licht können somit Komponenten zur Beeinflussung der Spinwellenpropagation konstruiert werden. In Simulationen werden Spiegel zur Ablenkung von Spinwellenstrahlen, Axicons zur Erzeugung von Bessel-Strahlen und Gradientenindexlinsen zur Fokussierung von Spinwellen gezeigt. Außerdem können Gradientenindexlinsen dazu verwendet werden um Fourieroptik mit Spinwellen zu realisieren.
Visualization is vital to the scientific discovery process.
An interactive high-fidelity rendering provides accelerated insight into complex structures, models and relationships.
However, the efficient mapping of visualization tasks to high performance architectures is often difficult, being subject to a challenging mixture of hardware and software architectural complexities in combination with domain-specific hurdles.
These difficulties are often exacerbated on heterogeneous architectures.
In this thesis, a variety of ray casting-based techniques are developed and investigated with respect to a more efficient usage of heterogeneous HPC systems for distributed visualization, addressing challenges in mesh-free rendering, in-situ compression, task-based workload formulation, and remote visualization at large scale.
A novel direct raytracing scheme for on-the-fly free surface reconstruction of particle-based simulations using an extended anisoptropic kernel model is investigated on different state-of-the-art cluster setups.
The versatile system renders up to 170 million particles on 32 distributed compute nodes at close to interactive frame rates at 4K resolution with ambient occlusion.
To address the widening gap between high computational throughput and prohibitively slow I/O subsystems, in situ topological contour tree analysis is combined with a compact image-based data representation to provide an effective and easy-to-control trade-off between storage overhead and visualization fidelity.
Experiments show significant reductions in storage requirements, while preserving flexibility for exploration and analysis.
Driven by an increasingly heterogeneous system landscape, a flexible distributed direct volume rendering and hybrid compositing framework is presented.
Based on a task-based dynamic runtime environment, it enables adaptable performance-oriented deployment on various platform configurations.
Comprehensive benchmarks with respect to task granularity and scaling are conducted to verify the characteristics and potential of the novel task-based system design.
A core challenge of HPC visualization is the physical separation of visualization resources and end-users.
Using more tiles than previously thought reasonable, a distributed, low-latency multi-tile streaming system is demonstrated, being able to sustain a stable 80 Hz when streaming up to 256 synchronized 3840x2160 tiles and achieve 365 Hz at 3840x2160 for sort-first compositing over the internet, thereby enabling lightweight visualization clients and leaving all the heavy lifting to the remote supercomputer.
Die Dissertation mit dem Titel „bio-psycho-soziale Gesundheit der Studierenden der TU Kaiserslautern“ ist auf dem Hintergrund der Frage entstanden, wie die Gesundheit von Studierenden erhalten und gefördert werden kann. Die Gesundheitsprävention hat auch im Bereich der Hochschulen in den letzten Jahren erheblich an Bedeutung gewonnen, einerseits durch die steigende Anzahl psychischer Erkrankungen bei Studierenden, andererseits durch die Umsetzung des Präventionsgesetzes, das am 01.01.2016 in Kraft getreten ist. Die Arbeit gibt zentrale Hinweise auf Belastungen und Beanspruchungen von Studierenden der TUK und zeigt einen möglichen Weg zum Aufbau eines systematischen Gesundheitsmanagements an einer Universität. Unterfüttert anhand konkreter Beispiele aus der Praxis wird dargestellt, wie Präventionsmaßnahmen im Setting Universität durchgeführt werden können. Ein Beitrag zur Gesundheitsberichterstattung von Studierenden wird durch unterschiedliche Darstellungen zentraler Ergebnisse die Gesundheit der Studierenden betreffend geleistet. Im empirischen Teil der Arbeit werden sechs Hypothesen überprüft die anhand eines definierten Merkmalskanons Zusammenhänge und Unterschiede unterschiedlicher gesundheitsrelevanter Facetten herausarbeiten. Im Konkreten sind dies die Konstrukte Depressives Syndrom, Stress, Erschöpfung, Burnout, Engagement, soziale Unterstützung, allgemeine Lebenszufriedenheit in Kombination mit der Studienphase (Bachelor vs. Master), dem Hochschulsemester, Genderaspekten, körperlicher Aktivität sowie dem Leistungsumfang im Studium.
Topology-Based Characterization and Visual Analysis of Feature Evolution in Large-Scale Simulations
(2019)
This manuscript presents a topology-based analysis and visualization framework that enables the effective exploration of feature evolution in large-scale simulations. Such simulations pose additional challenges to the already complex task of feature tracking and visualization, since the vast number of features and the size of the simulation data make it infeasible to naively identify, track, analyze, render, store, and interact with data. The presented methodology addresses these issues via three core contributions. First, the manuscript defines a novel topological abstraction, called the Nested Tracking Graph (NTG), that records the temporal evolution of features that exhibit a nesting hierarchy, such as superlevel set components for multiple levels, or filtered features across multiple thresholds. In contrast to common tracking graphs that are only capable of describing feature evolution at one hierarchy level, NTGs effectively summarize their evolution across all hierarchy levels in one compact visualization. The second core contribution is a view-approximation oriented image database generation approach (VOIDGA) that stores, at simulation runtime, a reduced set of feature images. Instead of storing the features themselves---which is often infeasable due to bandwidth constraints---the images of these databases can be used to approximate the depicted features from any view angle within an acceptable visual error, which requires far less disk space and only introduces a neglectable overhead. The final core contribution combines these approaches into a methodology that stores in situ the least amount of information necessary to support flexible post hoc analysis utilizing NTGs and view approximation techniques.
Congress Report 2019.5-8
(2019)
Im Rahmen der Untersuchungen zu dieser Dissertation sollten literaturbekannte sowie neue heterocyclische aromatische Liganden synthetisiert werden. Diese Liganden haben die Aufgabe, zwei Metalle in unmittelbarer Nähe zueinander zu komplexieren. Dies ebnet den Weg zum Studium kooperativer Effekte. Die vorliegende Dissertation gliedert sich in drei Themenbereiche, wobei jeweils die Synthese und Charakterisierung von drei verschiedenen Ligandensystemen (A: 4,6-Dimethyl-2-(4H-1,2,4-triazol-4-yl)pyrimidin, B: derivatisierter Dipyrimidinylliganden, C: 2-(Pyrimidin-2-yl)chinolin) sowie deren Komplexierung mit Übergangsmetallen der Gruppen VI, VIII-XI gesondert diskutiert werden.
4,6-Dimethyl-2-(4H-1,2,4-triazol-4-yl)pyrimidin kann vermutlich aus elektronischen Gründen nicht zweifach am Triazolfragment methyliert werden. Diese doppelte Methylierung wäre jedoch erforderlich, um N-heterocyclische Dicarbene zu generieren. Deshalb war der Zugang zu dinuklearen Komplexen über diesen Weg nicht möglich. Erste Hinweise zur erneuten Methylierung einer Triazolylidengruppe eines mono-NHC-Komplexes, der diesen Liganden trägt, wurden aber gefunden. Darüber hinaus wurden ein iridium- und ein rhodiumbasierter NHC-Komplex synthetisiert, welche die Transferhydrierung von Ketonen mit Isopropanol als Wasserstoffquelle katalysieren. Mit derivatisierten Dipyrimdinylliganden konnten erfolgreich roll-over cyclometallierte Komplexe generiert werden, die den Zugang zu homo- und heterodinuklearen Komplexen erlauben. Kooperative Effekte verschiedener dinuklearer Komplexe wurden mit Hilfe der UV/Vis-Spektroskopie detektiert. Die Interpretation dieser Effekte ist Gegenstand laufender und künftiger Arbeiten. Ein generelles Problem war die geringe Löslichkeit vieler der im Rahmen dieser Arbeit untersuchten Metallkomplexe. Dadurch war eine Reihe weiterer dinuklearer Komplexe nicht zugänglich, mit denen ein vertieftes Verständnis kooperativer Effekte möglich gewesen wäre. Der Ligand 2-(Pyrimidin-2-yl)chinolin, sollte mit einem literaturbekannten Derivat von fac-Ir(ppy)3 im Sinne einer roll-over Cyclometallierung umgesetzt werden, um im nächsten Schritt an seiner freien N,N-Koordinationstasche ein zweites Metall zu binden. Auch dies hätte das Studium kooperativer Effekte erlaubt. Die roll-over cyclometallierte Verbindung wurde jedoch nicht erhalten. Es bildete sich ein N,N-koordinierter Komplex, der thermisch nicht in die C,N-Koordination umlagerte. In der Zukunft müssen an diesem Liganden weitere sterisch anspruchsvolle Gruppen eingeführt werden, um den roll-over Prozess voranzutreiben.
Various physical phenomenons with sudden transients that results into structrual changes can be modeled via
switched nonlinear differential algebraic equations (DAEs) of the type
\[
E_{\sigma}\dot{x}=A_{\sigma}x+f_{\sigma}+g_{\sigma}(x). \tag{DAE}
\]
where \(E_p,A_p \in \mathbb{R}^{n\times n}, x\mapsto g_p(x),\) is a mapping, \(p \in \{1,\cdots,P\}, P\in \mathbb{N}
f \in \mathbb{R} \rightarrow \mathbb{R}^n , \sigma: \mathbb{R} \rightarrow \{1,\cdots, P\}\).
Two related common tasks are:
Task 1: Investigate if above (DAE) has a solution and if it is unique.
Task 2: Find a connection among a solution of above (DAE) and solutions of related
partial differential equations.
In the linear case \(g(x) \equiv 0\) the task 1 has been tackeled already in a
distributional solution framework.
A main goal of the dissertation is to give contribution to task 1 for the
nonlinear case \(g(x) \not \equiv 0\) ; also contributions to the task 2 are given for
switched nonlinear DAEs arising while modeling sudden transients in water
distribution networks. In addition, this thesis contains the following further
contributions:
The notion of structured switched nonlinear DAEs has been introduced,
allowing also non regular distributions as solutions. This extend a previous
framework that allowed only piecewise smooth functions as solutions. Further six mild conditions were given to ensure existence and uniqueness of the solution within the space of piecewise smooth distribution. The main
condition, namely the regularity of the matrix pair \((E,A)\), is interpreted geometrically for those switched nonlinear DAEs arising from water network graphs.
Another contribution is the introduction of these switched nonlinear DAEs
as a simplication of the PDE model used classically for modeling water networks. Finally, with the support of numerical simulations of the PDE model it has been illustrated that this switched nonlinear DAE model is a good approximation for the PDE model in case of a small compressibility coefficient.
Zielsetzung dieser Arbeit ist insbesondere die Untersuchung des Zusammenhangs von Konsum und Glück und der Einfluss eines nachhaltigen Konsums auf das Glücksempfin-den. Darüber hinaus soll differenziert dargestellt werden, wie aktuell eine Förderung nachhaltigen Konsums erfolgt und welche Hemmnisse bei Fördermaßnahmen bestehen, bzw. auftreten können.
Shared memory concurrency is the pervasive programming model for multicore architectures
such as x86, Power, and ARM. Depending on the memory organization, each architecture follows
a somewhat different shared memory model. All these models, however, have one common
feature: they allow certain outcomes for concurrent programs that cannot be explained
by interleaving execution. In addition to the complexity due to architectures, compilers like
GCC and LLVM perform various program transformations, which also affect the outcomes of
concurrent programs.
To be able to program these systems correctly and effectively, it is important to define a
formal language-level concurrency model. For efficiency, it is important that the model is
weak enough to allow various compiler optimizations on shared memory accesses as well
as efficient mappings to the architectures. For programmability, the model should be strong
enough to disallow bogus “out-of-thin-air” executions and provide strong guarantees for well-synchronized
programs. Because of these conflicting requirements, defining such a formal
model is very difficult. This is why, despite years of research, major programming languages
such as C/C++ and Java do not yet have completely adequate formal models defining their
concurrency semantics.
In this thesis, we address this challenge and develop a formal concurrency model that is very
good both in terms of compilation efficiency and of programmability. Unlike most previous
approaches, which were defined either operationally or axiomatically on single executions,
our formal model is based on event structures, which represents multiple program executions,
and thus gives us more structure to define the semantics of concurrency.
In more detail, our formalization has two variants: the weaker version, WEAKEST, and the
stronger version, WEAKESTMO. The WEAKEST model simulates the promising semantics proposed
by Kang et al., while WEAKESTMO is incomparable to the promising semantics. Moreover,
WEAKESTMO discards certain questionable behaviors allowed by the promising semantics.
We show that the proposed WEAKESTMO model resolve out-of-thin-air problem, provide
standard data-race-freedom (DRF) guarantees, allow the desirable optimizations, and can be
mapped to the architectures like x86, PowerPC, and ARMv7. Additionally, our models are
flexible enough to leverage existing results from the literature to establish data-race-freedom
(DRF) guarantees and correctness of compilation.
In addition, in order to ensure the correctness of compilation by a major compiler, we developed
a translation validator targeting LLVM’s “opt” transformations of concurrent C/C++
programs. Using the validator, we identified a few subtle compilation bugs, which were reported
and were fixed. Additionally, we observe that LLVM concurrency semantics differs
from that of C11; there are transformations which are justified in C11 but not in LLVM and
vice versa. Considering the subtle aspects of LLVM concurrency, we formalized a fragment
of LLVM’s concurrency semantics and integrated it into our WEAKESTMO model.
The systems in industrial automation management (IAM) are information systems. The management parts of such systems are software components that support the manufacturing processes. The operational parts control highly plug-compatible devices, such as controllers, sensors and motors. Process variability and topology variability are the two main characteristics of software families in this domain. Furthermore, three roles of stakeholders -- requirement engineers, hardware-oriented engineers, and software developers -- participate in different derivation stages and have different variability concerns. In current practice, the development and reuse of such systems is costly and time-consuming, due to the complexity of topology and process variability. To overcome these challenges, the goal of this thesis is to develop an approach to improve the software product derivation process for systems in industrial automation management, where different variability types are concerned in different derivation stages. Current state-of-the-art approaches commonly use general-purpose variability modeling languages to represent variability, which is not sufficient for IAM systems. The process and topology variability requires more user-centered modeling and representation. The insufficiency of variability modeling leads to low efficiency during the staged derivation process involving different stakeholders. Up to now, product line approaches for systematic variability modeling and realization have not been well established for such complex domains. The model-based derivation approach presented in this thesis integrates feature modeling with domain-specific models for expressing processes and topology. The multi-variability modeling framework includes the meta-models of the three variability types and their associations. The realization and implementation of the multi-variability involves the mapping and the tracing of variants to their corresponding software product line assets. Based on the foundation of multi-variability modeling and realization, a derivation infrastructure is developed, which enables a semi-automated software derivation approach. It supports the configuration of different variability types to be integrated into the staged derivation process of the involved stakeholders. The derivation approach is evaluated in an industry-grade case study of a complex software system. The feasibility is demonstrated by applying the approach in the case study. By using the approach, both the size of the reusable core assets and the automation level of derivation are significantly improved. Furthermore, semi-structured interviews with engineers in practice have evaluated the usefulness and ease-of-use of the proposed approach. The results show a positive attitude towards applying the approach in practice, and high potential to generalize it to other related domains.
Alkyl methoxypyrazines (MPs) have been identified in foodstuffs of plant origin as potent flavor compounds, contributing significantly to the characteristic vegetative, so-called green sensory impression of products made thereof. Of particular interest are 2-isopropyl-3-methoxypyrazin (IPMP), 2-methoxy-3-sec-butylpyrazin (SBMP) and 2-isobutyl-3-methoxypyrazin (IBMP) as they are often dominating in flavor due to their low odor thresholds. Biogenesis of MPs takes place in various species, resulting in variing concentration levels and distributions (ppt levels in Vitis vinifera wine berries, ppb levels in vegetables). The before mentioned and further MPs are also found in body fluids of insects such as ladybugs, e. g. in the species Coccinella septempunctata and Harmonia axyridis. Ladybugs may play a role in the generation of off-flavors in wine in case of their incorporation during harvest and wine making. Furthermore, MPs are products from the metabolism of certain microorganisms and could lead to off-flavors indirectly via contact materials like cork stoppers for wine.
The last step in the proposed biosynthetic pathway(s) was clarified als O-methylation of alykl hydroxypyrazines, whereas the initial steps considering naturally occurring amino acids as starting materials are not yet fully explored. In case of SBMP, the alkyl side chain may thus derive from L-isoleucine, resulting in the same, namely (S)-configuration of the stereo center in SBMP.
Considering analytical approaches, MPs in high concentration levels as in vegetables are accessible using classical extraction techniques, simple separation and detection techniques. On the other hand, for lower concentration ranges near the odor thresholds of MPs in wine and for the highly complex matrix of wine most analytical methods do not yield the necessary levels of detections.
In this work a trace-level method for routine analysis and quantitation of MPs in the concentration range of the odor thresholds in white wine of 1 to 2 ng/L was developed. The extraction of the analytes was based on automated headspace solid phase micro extraction (HS-SPME). The separation was done either by heart-cut multidimensional GC (H/C MDGC) or comprehensive two-dimensional GC (GCxGC). MPs were detected using mass spectrometry (MS) in the selected ion monitoring (SIM) mode, especially for higher concentrations. To better clarify co-elution situations and for lower MP concentrations, tandem MS (MS/MS) was used in the selected reaction monitoring (SRM) mode. For a more reliable quatitation of trace levels, the stable isotope dilution assay (SIDA) was applied. The optimized method using HS-SPME H/C MDGC-MS/MS had levels of detection at concentrations below the odor thresholds of MPs in wine and allowed for the analysis of further MPs (isomers of dimethyl methoxypyrazine). As the core piece of enantiodifferentiation, one of the analytical columns in MDGC or GCxGC was replaced by a column with chiral selectors on the stationary phase, enabling the evaluation of the enantiomeric composition of SBMP in various samples.
The quantitation of MPs in vegetable samples in this work revealed levels in the range of a few ng/kg up to µg/kg, which is in accordance with results from literature. Quantitative studies of wine (Sauvignon blanc and Cabernet blanc) indicated influences of oenological and viticultural processes on MP levels. The evaluation of the enantiomeric composition of SBMP resulted in the exclusive detection of (S)-SBMP in all analyzed samples, various vegetables, wine and ladybug species. The congruency of the configuration of the stereo center in the side chain of (S)-SBMP and the side chain of L-Isoleucin supports the hypothesis that natural amino acids serve as starting material in the biosynthesis of MPs. Extending the optimized H/C MDGC method, a successful separation of the isomers 3-methoxy-2,5-dimethylpyrazin (DMMP) and 2-methoxy-3,5-dimethylpyrazin (MDMP) was achieved. Of these isomers only MDMP was detected in cork and wine with an atypical cork off-flavor and it was identified for the first time in two ladybug species, Harmonia axyridis and Coccinella septempunctata.
The methods developed in this work allowed for the quantitation of MPs in the range of a few ng/L. This can be used for further studies on influences on endogenic MP levels in Vitis vinifera or on influences on MP levels in wine by oenological processes or by contamination from different sources. For further clarification on the biogenesis of MPs, studies using labeled precursors or intermediates have to be developed. For the analysis of the resulting compounds from these fundamental studies, the quantitative (and enantioselective) analytical methods described here are essential.
In dieser Masterarbeit wird die Bedeutung von Haltung im Lehr-Lern-Prozess der Erwachsenenbildung theoriebasierend reflektiert und diskutiert. Zur theoretischen Grundlegung der aufgeworfenen Thematik wurde eine Literaturarbeit erstellt mit der erkenntnisleitenden Fragestellung: Warum bedarf es einer Haltung der Anerkennung in der heilpädagogischen Lehre, die einen Begegnungsraum eröffnet und eine Seins-Werdung im Dialog ermöglicht?
Die Haltung, betrachtet als das Sein des Pädagogen, wird mittels einer historischen Skizzierung entfaltet und philosophisch-anthropologisch grundgelegt.
Daran schließt sich ein Diskurs aus drei unterschiedlichen Perspektiven an: Die erste ist die systemisch-konstruktivistische Bildungstheorie Bezug nehmend zu Niklas Luhmann und Horst Siebert sowie Rolf Arnold aus der Erwachsenenbildung. Die zweite fußt auf der kritischen Subjekttheorie basierend auf Max Horkheimer/Theodor W. Adorno, Axel Honneth und Erhard Meueler als Vertreter der Erwachsenenbildung. Die dritte bezieht sich auf die religions-philosophische Theorie von Romano Guardini und Martin Buber als konzeptionelle Entwickler von Angeboten in der Erwachsenenbildung. Es werden die unterschiedlichen Ausrichtungen verglichen, sodass in den Widersprüchen der Perspektiven die Bedeutung der Haltung in ihrer Vielschichtigkeit sichtbar wird.
Aus diesem Diskurs heraus wurde der Versuch unternommen, einen verstehenden Zugang zum Anerkennungskonzept zu bahnen. Als Referenzpunkt dieser Arbeit wird das von Wolfgang Müller-Commichau entwickelte Konzept für die Erwachsenenbildung herangezogen, theoretisch begründet hergeleitet und ausführlich dargelegt. In einem hermeneutischen Zirkel erforscht er die pädagogischen Spannungsfelder und lässt in einem kreativ-konstruierenden Prozess einen intersubjektiven Begegnungsraum im Lehr-Lern-Prozess entstehen, in dem eine Pendelbewegung zwischen Selbst-Referenz und Fremd-Erwartung ermöglicht wird.
Die wertschätzende und respektvolle Haltung der Anerkennung gilt auch für die Bildungsprozesse in der Heilpädagogik, die in einem abschließenden Kapitel mit Impulsen für die Gestaltung von Lehr-Lern-Prozessen praxisbezogen konkretisiert werden.
Ziele der Bildungsangebote zur Heilpädagogik sind somit die Haltungsbildung und der Erwerb von Handlungskompetenzen. Über die Anerkennung im Dialog wird eine Haltungsbildung auf sozial-emotionaler Ebene angeregt, die vorrangig ist vor jeder kognitiven Theoriebildung, um das Sein der Heilpädagogin auszubilden und den Anforderungen der Praxis gerecht zu werden. Dieses Ergebnis der vorliegenden Masterarbeit schließt mit einem Zitat ab: „Wesenhafte Bildung wurzelt nicht im Wissen, sondern im Sein“ (Romano Guardini).
Wissenschaftliche Studien belegen, dass die überwiegende Mehrheit der Geflüchteten in Großstädten wohnen will. Hauptgrund ist die Hoffnung, dort leichter Arbeit und Kontakt zu anderen Geflüchteten zu finden.
Aufgrund geringerer Einkommen, mangelnder Sprachkenntnisse und Diskriminierungen bekommen Geflüchtete allerdings nur schwer Zugang zum Wohnungsmarkt. Befürchtungen, dass gerade Metropolen mit der Unterbringung überfordert sind, führen zu Forderungen, Geflüchtete verstärkt in ländlichen Räumen unterzubringen. Ob eine Integration in ländlichen Regionen jedoch gelingen kann, hängt von der Verfügbarkeit von geeignetem Wohnraum, Arbeitsplätzen, ÖPNV, Kapazitäten im Bildungssystem und einer Akzeptanz von Zuwanderung in der Bevölkerung ab. Das Wohnumfeld nimmt dabei eine entscheidende Rolle für die Integration ein.
Im Poster wird anhand dreier Fallbeispiele in Rheinland-Pfalz dargestellt wo und wie Geflüchtete wohnen, in-wiefern sie von Segregation betroffen sind, welche Einbindung sie in ihr Umfeld haben und was ihnen bei der Unterbringung wichtig ist. Methodisch beruht der Beitrag auf der Auswertung der SOEP-Flüchtlingsstudie – differenziert nach siedlungsstrukturellen Merkmalen - sowie amtlichen Daten aus der kleinen Großstadt Kaiserslau-tern, der Schwarmstadt Mainz und dem ländlichen Landkreis Kusel. Des Weiteren haben wir im Jahr 2018 53 leitfadengestützte Interviews mit Geflüchteten, Anwohnern und Anwohnerinnen sowie Expertinnen und Experten aus drei Untersuchungsräumen geführt.
Der Vergleich von städtischen und ländlichen Räumen zeigt, dass die sozialräumlichen Bedingungen für eine gelungene Integration nicht ausschließlich in Städten vorhanden sind. Multiethnische Quartiere in Metropolen können die Vernetzung begünstigen, sie bergen aber auch die Gefahr einer wachsenden unfreiwilligen Segregation. Die Interviews aus Kusel zeigen, dass Geflüchtete, die zentral im ländlichen Raum wohnen, mit dem Leben dort zufrieden sind. Die Ergebnisse verdeutlichen, dass Geflüchtete – ebenso wie andere Migrantengruppen auch – Quartiere mit dichter Bebauung, einer Nutzung, die Erwerbsmöglichkeiten beinhaltet, und in denen zentrale Angebote zu Bildung, Arbeit und kostenfreien Treffpunkten vorhanden sind, bevorzugen. Diese Quartiere kann es in Metropolen, Mittelstädten, aber auch im ländlichen Raum geben.
Die geometrische Produktspezifikation steht - wie viele andere Industriezweige - vor einschneidenden Veränderungen. Durch Digitalisierung und Automatisierung ändern sich viele industrielle Rahmenbedingungen. Ziel dieser Arbeit ist es, die derzeitigen Trends für die industrielle Rauheitsmesstechnik systematisch zusammenzutragen. Basierend auf diesen Veränderungen werden korrespondierende eigene Forschungsarbeiten vorgestellt, welche an die gezogenen Schlussfolgerungen anknüpfen. Dabei wird ein ganzheitlicher Ansatz zur Betrachtung technischer Oberflächen gewählt, welcher zunächst die fertigungstechnische Erzeugung deterministischer Rauheitsstrukturen analysiert. Anschließend werden die Beschreibung der resultierenden Topographiemerkmale mittels mathematischer Modelle und deren messtechnische Erfassung durch typische Topographie-Messgeräte untersucht. Weiterhin wird die hierauf aufbauende Charakterisierung der Oberfläche thematisiert, welche durch die Anwendung der Operationen Einpassung, Interpolation, Filterung und Berechnung von Rauheitskenngrößen gekennzeichnet ist.
Im Rahmen fertigungstechnischer Betrachtungen werden dabei neue Technologien für die Herstellung flächenhafter Kalibriernormale untersucht, welche stellvertretend für deterministische Rauheitsstrukturen dienen, die immer weitere industrielle Verbreitung finden, um funktionelle Bauteileigenschaften mithilfe der Oberflächenbeschaffenheit abzubilden. Als Fertigungsverfahren werden dabei das direkte Laserschreiben sowie das Mikrofräsen betrachtet.
Für die eigentliche Betrachtung dieser Oberflächen werden dabei Ansätze zur Modellierung von Rauheitseigenschaften untersucht, welche auf Methoden aus der Zeitreihenmodellierung basieren.
Die messtechnische Erfassung von Rauheitsstrukturen ist anschließend Gegenstand der Analyse des Übertragungsverhaltens. Dabei werden hier ebenfalls Modelle genutzt, um die Übertragung von Oberflächeneigenschaften durch technische Rauheitsmessgeräte zu modellieren.
Letzte Betrachtungen werden zur Auswertung von Rauheitskenngrößen angestellt. Dabei werden insbesondere die funktionsorientierten Rauheitskenngrößen untersucht, welche aufgrund der zunehmenden Komplexität technischer rauer Oberflächen verstärkt an Bedeutung gewinnen.
The usage of sensors in modern technical systems and consumer products is in a rapid increase. This advancement can be characterized by two major factors, namely, the mass introduction of consumer oriented sensing devices to the market and the sheer amount of sensor data being generated. These characteristics raise subsequent challenges regarding both the consumer sensing devices' reliability and the management and utilization of the generated sensor data. This thesis addresses these challenges through two main contributions. It presents a novel framework that leverages sentiment analysis techniques in order to assess the quality of consumer sensing devices. It also couples semantic technologies with big data technologies to present a new optimized approach for realization and management of semantic sensor data, hence providing a robust means of integration, analysis, and reuse of the generated data. The thesis also presents several applications that show the potential of the contributions in real-life scenarios.
Due to the broad range, growing feature set and fast release pace of new sensor-based products, evaluating these products is very challenging as standard product testing is not practical. As an alternative, an end-to-end aspect-based sentiment summarizer pipeline for evaluation of consumer sensing devices is presented. The pipeline uses product reviews to extract the sentiment at the aspect level and includes several components namely, product name extractor, aspects extractor and a lexicon-based sentiment extractor which handles multiple sentiment analysis challenges such as sentiment shifters, negations, and comparative sentences among others. The proposed summarizer's components generally outperform the state-of-the-art approaches. As a use case, features of the market leading fitness trackers are evaluated and a dynamic visual summarizer is presented to display the evaluation results and to provide personalized product recommendations for potential customers.
The increased usage of sensing devices in the consumer market is accompanied with increased deployment of sensors in various other fields such as industry, agriculture, and energy production systems. This necessitates using efficient and scalable methods for storing and processing of sensor data. Coupling big data technologies with semantic techniques not only helps to achieve the desired storage and processing goals, but also facilitates data integration, data analysis, and the utilization of data in unforeseen future applications through preserving the data generation context. This thesis proposes an efficient and scalable solution for semantification, storage and processing of raw sensor data through ontological modelling of sensor data and a novel encoding scheme that harnesses the split between the statements of the conceptual model of an ontology (TBox) and the individual facts (ABox) along with in-memory processing capabilities of modern big data systems. A sample use case is further introduced where a smartphone is deployed in a transportation bus to collect various sensor data which is then utilized in detecting street anomalies.
In addition to the aforementioned contributions, and to highlight the potential use cases of sensor data publicly available, a recommender system is developed using running route data, used for proximity-based retrieval, to provide personalized suggestions for new routes considering the runner's performance, visual and nature of route preferences.
This thesis aims at enhancing the integration of sensing devices in daily life applications through facilitating the public acquisition of consumer sensing devices. It also aims at achieving better integration and processing of sensor data in order to enable new potential usage scenarios of the raw generated data.
Im Rahmen dieser Dissertationsarbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden im Ligandenrückgrat und in N-Position funktionalisiert, um chirale C2-symmetrische tridentate Liganden mit Stickstoffdonoratomen bzw. bifunktionelle pentadentate Liganden mit Stickstoff- und Phosphordonoratomen zu generieren. Die C2-symmetrischen tridentaten Liganden wurden mit Eisen(II)- und Ruthenium(II)vorstufen zu monometallischen Katalysatoren umgesetzt. Diese wurden erfolgreich in der Hydrosilylierung und Transferhydrierung von Carbonylverbindungen angewendet. Ebenso wurden erste Untersuchungen der Reaktionsmechanismenverläufe durchgeführt. Mit Hilfe der gut zugänglichen bifunktionellen Bispyrazolylpyridinliganden konnten zahlreiche mono- und multimetallische Übergangsmetallkomplexverbindungen synthetisiert und teilweise auf Kooperativität in der katalytischen Reduzierung von Ketonen getestet werden. Dabei wurde bei den durchgeführten Hydrierungs- und Transferhydrierungsreaktionen eine deutliche Aktivitätssteigerung einiger multimetallischer Katalysatoren im Vergleich zu deren monometallischen Derivaten beobachtet. Durch geschickte Wahl der Übergangsmetallkombinationen konnten zusätzlich erste Erkenntnisse über die Kooperativität innerhalb der multimetallischen Katalysatoren gewonnen werden.
Der zunehmende Ausbau dezentraler Erzeugungsanlagen sowie die steigende Anzahl an Elektrofahrzeugen stellen die Niederspannungsnetze vor neue Herausforderungen. Neben der Einhaltung des zulässigen Spannungsbands führen Erzeugungsanlagen und neue Lasten zu einer zunehmenden thermischen Auslastung der Leitungen. Einfache, konventionelle Maßnahmen wie Topologieänderungen zu vermascht betriebenen Niederspannungsnetzen sind ein erster hilfreicher und kostengünstiger Ansatz, bieten aber keinen grundsätzlichen Schutz vor einer thermischen Überlastung der Betriebsmittel. Diese Arbeit befasst sich mit der Konzeption eines Spannungs- und Wirkleistungsreglers für vermaschte Niederspannungsnetze. Durch den Regler erfolgt eine messtechnische Erfassung der Spannungen und Ströme in einzelnen Messpunkten des Niederspannungsnetzes. Mit Hilfe eines speziellen Kennlinienverfahrens kann eine Leistungsverschiebung in einzelnen Netzmaschen hervorgerufen und vorgegebene Soll- oder Grenzwerte eingehalten werden. In vorliegender Arbeit werden die analytischen Grundlagen des Reglers, seine Hardware sowie das Kennlinienverfahren zusammen mit den realisierbaren Regelkonzepten vorgestellt. Die Ergebnisse aus Simulationsstudien, Labor- und Feldtests stellen die Effektivität des Reglers eindeutig dar und werden diskutiert.
Die Funktion der c-di-GMP modulierenden Membranproteine NbdA und MucR in Pseudomonas aeruginosa
(2019)
NbdA und MucR sind Multi-Domänenproteine aus Pseudomonas aeruginosa. Beide Proteine besitzen eine ähnliche Domänenorganisation mit einer N-terminalen, membranständigen
MHYT-Domäne sowie einer GGDEF- und einer EAL-Domäne im Cytoplasma. Die
cytosolischen Domänen von MucR sind beide aktiv, während NbdA neben der intakten
EAL-Domäne eine degenerierte GGDEF-Domäne mit dem Motiv AGDEF aufweist. Bioinformatischen
Vorhersagen zufolge soll die MHYT-Domäne eine sensorische Funktion für diatomische Gase wie Stickstoffmonoxid oder Sauerstoff vermitteln. Die phänotypische Charakterisierung der markerlosen PAO1-Deletionsmutanten \(Delta\)nbdA, \(Delta\)mucR und \(Delta\)nbdA \(Delta\)mucR zeigte, dass NbdA und MucR nicht in die NO-induzierte
Dispersion involviert sind. Ebenso konnte in einem neu etablierten heterologen in-vivo-System in E. coli keine NO-sensorische Funktion der Proteine detektiert werden. Im Weiteren wurde festgestellt, dass die MHYT-Domäne keinen ersichtlichen Einfluss auf die
Enzymaktivität von NbdA und MucR unter aeroben Bedingungen hat. Demzufolge fungiert
die Membrandomäne vermutlich weder als Sensor für Sauerstoff, noch für NO. Anhand heterologer Komplementationstests konnte eine PDE-Aktivität des NbdA-Volllängenproteins
nachgewiesen werden. Zudem wurde gezeigt, dass die degenerierte AGDEF-Domäne einen regulatorischen Effekt auf die EAL-Domäne hat, der essentiell für die in-
vivo-Aktivität von NbdA ist. In-vivo-Untersuchungen bestätigten die postulierte DGC-Aktivität von MucR. Weiterhin konnte belegt werden, dass MucR ein bifunktionelles Enzym
ist. Entgegen den Erwartungen scheint es jedoch im Planktonischen als DGC und im
Biofilm als PDE zu fungieren.
Ein weiterer Aspekt dieser Arbeit war die Charakterisierung der homologen Überexpression
von nbdA in P. aeruginosa, welche teilweise unerwartete Phänotypen ergab. Anhand
der homologen Überproduktion einer inaktiven NbdA-Variante stellte sich heraus, dass die
Hemmung der Motilität unabhängig von der Aktivität von NbdA auftritt. Massenspektrometrische
Analysen deuteten daraufhin, dass NbdA lokal c-di-GMP hydrolysiert. Diese
Ergebnisse implizieren, dass NbdA eine Trigger-PDE ist, deren primäre Funktion die Regulation
anderer makromolekularer Zielmoleküle ist. In Pseudomonas fluorescens Pf0-1 ist bekannt, dass das NbdA-Homolog Pfl01_1252 mit den Homologen von MucR (Pfl01_2525) und SadC (Pfl01_4451) interagiert. Ergebnisse einer früheren Arbeit lassen eine Interaktion
von NbdA und SadC ebenso in P. aeruginosa vermuten. Daher ist denkbar, dass sich
NbdA im gleichen Netzwerk wie MucR und SadC befindet und deren Aktivität reguliert.