Refine
Year of publication
- 1999 (525)
- 2021 (224)
- 2020 (206)
- 2018 (177)
- 2019 (158)
- 2016 (156)
- 2000 (152)
- 1998 (147)
- 2014 (146)
- 2015 (146)
- 2007 (145)
- 2006 (139)
- 2017 (139)
- 2009 (135)
- 2003 (128)
- 2005 (126)
- 2001 (121)
- 2004 (121)
- 2010 (117)
- 1996 (113)
- 2011 (111)
- 2002 (110)
- 2008 (110)
- 2012 (110)
- 1995 (103)
- 2013 (99)
- 1997 (97)
- 1994 (91)
- 1992 (55)
- 1993 (51)
- 2022 (47)
- 1991 (39)
- 1990 (11)
- 1985 (9)
- 1984 (7)
- 1986 (6)
- 1987 (6)
- 1989 (6)
- 1988 (5)
- 1979 (4)
- 1983 (2)
- 1980 (1)
- 1981 (1)
Document Type
- Doctoral Thesis (1588)
- Preprint (1184)
- Report (480)
- Article (385)
- Periodical Part (271)
- Master's Thesis (173)
- Working Paper (111)
- Conference Proceeding (45)
- Diploma Thesis (34)
- Lecture (25)
Language
- English (2646)
- German (1748)
- Multiple Languages (4)
- Spanish (4)
Is part of the Bibliography
- no (4402)
Keywords
- AG-RESY (64)
- PARO (31)
- Stadtplanung (28)
- Erwachsenenbildung (24)
- Modellierung (22)
- Simulation (22)
- Case-Based Reasoning (20)
- Schule (20)
- wissenschaftliche Weiterbildung (19)
- Visualisierung (18)
Faculty / Organisational entity
- Fachbereich Mathematik (1107)
- Fachbereich Informatik (865)
- Fachbereich Maschinenbau und Verfahrenstechnik (398)
- Fachbereich Chemie (354)
- Fachbereich Physik (303)
- Fachbereich Sozialwissenschaften (297)
- Fraunhofer (ITWM) (223)
- Fachbereich Elektrotechnik und Informationstechnik (152)
- Fachbereich Biologie (148)
- Distance and Independent Studies Center (DISC) (95)
Like many other bacteria, the opportunistic pathogen P. aeruginosa encodes a broad network of enzymes that regulate the intracellular concentration of the second messenger c-di-GMP. One of these enzymes is the phosphodiesterase NbdA that consists of three domains: a membrane anchored, putative sensory MHYT domain, a non-functional diguanylate cyclase domain with degenerated GGDEF motif and an active PDE domain with EAL motif. Analysis of the nbdA open reading frame by 5’-RACE PCR revealed an erroneous annotation of nbdA in the Pseudomonas database with the ORF 170 bp shorter than previously predicted. The newly defined promoter region of nbdA contains recognition sites for the alternative sigma-factor RpoS as well as the transcription factor AmrZ. Promoter analysis within PAO1 wt as well as rpoS and amrZ mutant strains utilizing transcriptional fusions of the nbdA promoter to the reporter gene lacZ revealed transcriptional activation of nbdA by RpoS in stationary growth phase and transcriptional repression by AmrZ. Additionally, no influence of nitrite and neither exogenous nor endogenous NO on nbdA transcription could be shown in this study. However, deletion of the nitrite reductase gene nirS led to a strong increase of nbdA promoter activity which needs to be characterized further. Predicted secondary structures of the 5’-UTR of the nbdA mRNA indicated either an RNA thermometer function of the mRNA or post-transcriptional regulation of nbdA by the RNA binding proteins RsmA and RsmF. Nevertheless, translational studies using fusions of the 5’ UTR of nbdA to the reporter gene bgaB did not verify either of these hypotheses. In general, nbdA translational levels were very low and neither the production of the reporter BgaB nor genomically encoded NbdA could be detected on a western blot. Overproduction of NbdA variants induced many phenotypic changes in motility and biofilm formation. But strains overproducing variants containing the MHYT domain revealed greatly elongated cells and were impaired in surface growth, indicating a misbalance in the membrane protein homeostasis. Therefore, these phenotypes have to be interpreted very critically. Microscopic studies with fluorescently tagged NbdA revealed either a diffuse fluorescent signal of NbdA or the formation of fluorescent foci which were located mainly at the cell poles. Co-localization studies with the polar flagellum and the chemotaxis protein CheA showed that NbdA is not generally localizing to the flagellated cell pole. NbdA localization indicates the control of a specific local c-di-GMP pool in the cell which is most likely involved in MapZ mediated chemotactic flagellar motor switching.
Multi-omics analysis as a tool to investigate causes and consequences of impaired genome integrity
(2022)
Impaired genome integrity has severe consequences for the viability of any cell. Unrepaired DNA lesions can lead to genomically unstable cells, which will often become predisposed for malignant growth and tumorigenesis, where genomic instability turns into a driving factor through the selection of more aggressive clones. Aneuploidy and polyploidy are both poorly tolerated in somatic cells, but frequently observed hallmarks of cancer. Keeping the genome intact requires the concentrated action of cellular metabolism, cell cycle and DNA damage response.
This study presents multi-omics analysis as a versatile tool to understand the various causes and consequences of impaired genome integrity. The possible computational approaches are demonstrated on three different datasets. First, an analysis of a collection of DNA repair experiments is shown, which features the creation of a high-fidelity dataset for the identification and characterization of DNA damage factors. Additionally, a web-application is presented that allows scientists without a computational background to interrogate this dataset. Further, the consequences of chromosome loss in human cells are analyzed by an integrated analysis of TMT labeled mass spectrometry and sequencing data. This analysis revealed heterogeneous cellular responses to chromosome losses that differ from chromosome gains. My analysis further revealed that cells possess both transcriptional and post-transcriptional mechanisms that compensate for the loss of genes encoded on a monosomic chromosome to alleviate the detrimental consequences of reduced gene expression. In my final project, I present a multi-omics analysis of data obtained from SILAC labeled mass spectrometry and dynamic transcriptome analysis of yeast cells of different ploidy, from haploidy to tetraploid. This analysis revealed that unlike cell volume, the proteome of a cell does not scale linearly with increasing ploidy. While the expression of most proteins followed this scaling, several proteins showed ploidy-dependent regulation that could not be explained by transcriptome expression. Hence, this ploidy-dependent regulation occurs mostly on a post-transcriptional level. The analysis uncovered that ribosomal and translation related proteins are downregulated with increasing ploidy, emphasizing a remodeling of the cellular proteome in response to increasing ploidy to ensure survival of cells after whole genome doubling. Altogether this study intends to show how state-of-the-art multi-omics analysis can uncover cellular responses to impaired genome integrity in a highly diverse field of research.
Gegenstand der Forschungsfrage ist, wie Wasserprogramme gemanagt werden, um zu einer nachhaltigen Entwicklung sowie zur Umsetzung des Sustainable Development Goal 6 und anderen zentralen SDGs der Agenda 2030 beitragen zu können, die als Fortschreibung der Millennium Development Goals eine wirksamere internationale Nachhaltigkeitspolitik sicherstellen sollen. Seit der Agenda 2030 versehen Durchführungsorganisationen der Entwicklungszusammenarbeit ihre Vorhaben mit dem Prädikat „nachhaltig“. Hier stellt sich die Frage, ob die Nachhaltigkeit nur auf dem Papier existiert oder ob sich tatsächlich nachhaltigere Ansätze erkennen lassen.
Im Rahmen der deutschen Entwicklungszusammenarbeit implementiert die Gesellschaft für Internationale Zusammenarbeit in Sambia das Vorhaben "Wasser klimasensibel bewirtschaften", in dessen Rahmen nachhaltige Maßnahmen ergriffen werden, Menschen zu befähigen, mit den veränderten klimatischen Bedingungen zurechtzukommen. Darunter fallen unter anderem Sensibilisierungsmaßnahmen für Landwirte, die dazu dienen, die Ressource Wasser effektiv zu nutzen, oder technische Eingriffe, die den Zweck verfolgen, Niederschläge aus Starkregenereignissen abzufangen bzw. deren Zerstörungspotenzial zu lindern.
Obwohl Sambia eines der wasserreichsten Länder Afrikas ist, haben dort nicht alle Menschen Zugang zu Wasser. Auch in der Landwirtschaft sind Engpässe zu verzeichnen. Diese Problematik wird zusätzlich durch den Klimawandel verstärkt. Es kam in den letzten Jahren zunehmend einerseits zu Ausfällen ganzer Regenzeiten, aber andererseits auch zu extremen Niederschlagsereignissen jenseits gewohnter Regen- und Trockenzeiten. Für Landwirte, die ihre Produktion auf die saisonalen Witterungsverhältnisse abgestimmt haben, sind diese unberechenbaren klimatischen Veränderungen existenzbedrohend. Trotz des Wasserreichtums kommt es dann entweder zu Engpässen bei der Bewässerung der Felder oder zur Zerstörung von Ernteerträgen durch Extremwetter.
Das von dem in Sambia lebenden Verfasser gewählte Fallbeispiel, dessen Analyse der Klärung der oben angeführten Forschungsfrage dienen soll, ist das GIZ-Projekt „Nachhaltige Bewirtschaftung von Wasserressourcen und landwirtschaftlicher Wassernutzung in Sambia“. Im Rahmen dieses Fallbeispiels wird kontrovers diskutiert, ob und inwiefern sich das heutige Nachhaltigkeitskonzept von bisherigen Maßnahmen unterscheidet, die zu Zeiten der MDGs noch nicht explizit nachhaltig geprägt waren. Der Verfasser wird sich kritisch mit der Frage auseinandersetzen, ob die in der Fallstudie gewählte Maßnahme "Wasser klimasensibel bewirtschaften" geeignet ist, langfristig nachhaltige Wirkung zu erzielen. Anhand des Fallbeispiels sollen theoretische Ansätze der Nachhaltigkeit empirisch untersucht werden.
Moderne Mikrostrukturierungsverfahren können dazu genutzt werden, die Eigenschaften von Bauteiloberflächen zu verändern und für bestimmte Anwendungsfälle gezielt zu optimieren. Gleichzeitig ist die Beschaffenheit einer Oberfläche von entscheidender Bedeutung für die Initiierung von Ermüdungsrissen. Im Rahmen dieser Arbeit wurden miniaturisierte Proben aus alpha-Titan mit drei verschiedenen Korngrößen, deren Oberflächen mithilfe von vier Mikrostrukturierungsverfahren modifiziert wurden, untersucht und die Einflussfaktoren auf die Schädigungsentwicklung unter zyklischer Beanspruchung eruiert.
Dafür wurden Methoden zur Charakterisierung der Oberflächenmorphologie (Topographie, Korngröße und kristallographische Orientierung) der Proben entwickelt. Die daraus abgeleiteten Informationen wurden für die Detektion kritischer Bereiche genutzt, in denen die Ermüdungsrissinitiierung vorzugsweise auftritt.
Die Untersuchungen zeigen, dass sich der Rissinitiierungsort anhand der entwickelten Methoden basierend auf Topographiedaten für Probenzustände bestimmen lässt, bei denen die Topographie den Rissinitiierungsort determiniert und bei denen folglich auch die Wechselfestigkeit aufgrund der Oberflächenstrukturierung reduziert ist. Für Probenzustände, bei denen die Rissinitiierung nicht an topographischen Merkmalen erfolgt, wird der Rissinitiierungsort durch lokale mikrostrukturelle Charakteristika bestimmt und konnte im Rahmen der vorliegenden Arbeit mit der Korngröße und der kristallographischen Orientierung korreliert werden.
In the field of measurement technology, the use of unmanned aerial vehicles is becoming more and more popular. For many measurement tasks, the use of such devices offers many advantages in terms of cost and measurement effort. However, the occurring vibrations and disturbances are a significant disadvantage for the application of these devices for several measurement tasks. Within the scope of this work, a platform for measurement devices is developed. The platform is designed specifically for use on drones. The task of the platform is to isolate measurement equipments mounted on it from the drone disturbances. For this purpose we go through the product development process according to VDI 2221 to design a mechanical model of the platform. Then, control strategies are applied to isolate the platform. Since the disturbances acting on a drone are not always stationary, two control strategies known for their ability to handle uncertain systems are used. One of them comes from the field of acoustic.
Die Arbeit behandelt das facettenreiche Gebiet des steuerlichen Verlustabzugs, namentlich die konkrete Ausgestaltung des Verlustvortrags. Neben der verfassungsrechtlichen Würdigung der relevanten Normen legt die Autorin besonderen Wert auf die Frage, wie § 10d EStG im Sinne eines kohärenten Verlustabzugssystems auszugestalten sei. Auch die Verwerfungen der Corona-Krise haben im Bereich des Untersuchungsgegenstandes rege gesetzgeberische Tätigkeit ausgelöst. Die Verfasserin nimmt dies zum Anlass, pandemiebedingte Änderungen gesondert auf Rechtmäßigkeit wie auch ökonomische Wirksamkeit zu prüfen und die Vereinbarkeit der Neuerungen mit dem bestehenden Normsystem zu hinterfragen.
Der Bericht umfasst sechs Beiträge von Studierende der Karl-Franzenz-Universität Graz, die sich im Wintersemester 2021/2021 mit Fragen der Digitalisierung der Erwachsenenbildung in Österreich auseinandergesetzt haben. In diesem Rahmen wurden die Themenfelder Lernen und Lehren mit digitalen Medien, die medienpädagogische Professionalisierung von Erwachsenenbilnder:innen, die Digitalisierung der Anbieter sowie die Digitalisierung als Inhalt in den Angeboten und der (Weiter- )Bildungspolitik beleuchtet. Dabei wurde zum einen vorliegende Forschungsarbeiten ausgewertet, also auch ergänzende Recherchen auf durchgeführt, um die Datengrundlage zu verbessern. Allgemein wurde deutlich, dass die Forschungslage noch keine befriedigenden Rückschlüsse auf den Digitalisierungsprozess und dessen Wirkungen auf die Erwachsenenbildung/Weiterbildung in Österreich zulassen. Insofern stellt die hier vorliegende Zusammenstellen ein wichtigen Beitrag dar, die vorliegenden Desiderata zu identifizieren.
Der Klimawandel hat gravierende sowohl schleichende als auch plötzlich eintretende
Folgen. Entwicklungsländer und hier besonders die ärmsten Länder sind hiervon massiv betroffen, da dort weitere sozio-ökonomische und andere Faktoren zu einer erhöhten
Vulnerabilität bestimmter Bevölkerungsgruppen beitragen. Daraus resultiert eine wachsende
klimabedingte Migration. 2019 sind etwa 3,5 % der Weltbevölkerung internationale
Migranten. Migration ist multikausal. Wie viele Menschen aufgrund des Klimawandels emigrieren, ist daher schwer abschätzbar. Allerdings ist davon auszugehen, dass die Zahl zunehmen wird.
Globale Governance spiegelt diese zunehmende Virulenz wider. Relevante Rahmenwerke wie der Global Compact for Migration, die Agenda 2030 und der Migrations- und Asylpakt der Europäischen Union werden in dieser Masterarbeit im Hinblick auf klimainduzierte Migration analysiert. Ein globales Rahmenwerk, das in der Lage wäre, klimainduzierte Migration zu regulieren, den Schutz Betroffener zu gewährleisten und das Phänomen im Sinne
der nachhaltigen Entwicklung kohärent zu adressieren, existiert bislang nicht. Die Vielzahl der heranzuziehenden Rahmenwerke bedeutet eine Herausforderung für die internationale Zusammenarbeit, die diese Arbeit untersucht. Am Beispiel der Deutschen Gesellschaft für Internationale
Zusammenarbeit GmbH als nationaler Durchführungsorganisation der deutschen
Entwicklungszusammenarbeit wird diese Herausforderung anhand eines Fallbeispieles verdeutlicht.
Entwicklung von Fermentationsstrategien zur stofflichen Nutzung von nachwachsenden Rohstoffen
(2022)
Biertreber stellt einen wichtigen Vertreter eines nachwachsenden Rohstoffes dar, da es sich dabei um ein niedrigpreisiges Nebenprodukt des Brauprozesses handelt, welches jedes Jahr in großen Mengen anfällt. In der vorliegenden Arbeit wurde Biertreber aus sieben verschiedenen Braurezepten, sowohl aus eigener Herstellung als auch industriellen Ursprungs, analysiert und in Bezug auf die zugrundeliegenden Braugänge klassifiziert. Darüber hinaus wurde der Treber durch Pressen in zwei separate Stoffströme aufgeteilt: eine flüssige und eine feste Fraktion. Für beide Fraktionen wurden Bioprozesse etabliert, um einerseits das flüssige Substrat (Treberpresssaft) mit einem Milchsäurebakterium (Lactobacillus delbrueckii subsp. lactis) zu Milchsäure und andererseits das feste Substrat (Treberrückstand) mit einem lignocellulolytischen und gemischtsäuregärung-betreibenden Stamm (Cellulomonas uda) zu Ethanol und Essigsäure umzusetzen. Außerdem wurde ein kinetisches Modell aufgestellt, welches u.a. die Milchsäurebildung und das Zellwachstum von L. delbrueckii subsp. lactis für drei Treberpresssäfte unterschiedlicher Braurezepturen, d.h. mit unterschiedlicher Nährstoffausstattung, in einer simultanen Verzuckerung und Fermentation vorhersagen konnte. Des Weiteren konnten die entwickelten Fermentationsstrategien zur Verwertung des Treberpresssaftes und Treberrückstandes sowie die zugrundeliegenden Prozessüberwachungs- und Regelungsstrategien auf Fermentationen mit den gleichen Organismen aber dem Substrat Wiesenschnitt – also einen weiteren nachwachsenden Rohstoff – übertragen werden.
Demonstrating perception without visual awareness: Double dissociations between priming and masking
(2022)
A double dissociation impressively demonstrates that visual perception and visual awareness can be independent of each other and do not have to rely on the same source of information (T. Schmidt & Vorberg, 2006). Traditionally, an indirect measure of stimulus processing and a direct measure of visual awareness are compared (dissociation paradigm or classic dissociation paradigm, Erdelyi, 1986; formally described by Reingold & Merikle, 1988; Merikle & Reingold, 1990; Reingold, 2004). If both measures exhibit opposite time courses, a double dissociation is demonstrated. One tool that is well suited to measure stimulus processing as fast visuomotor response activation is the response priming method (Klotz & Neumann, 1999; Klotz & Wolff, 1995; see also F. Schmidt et al., 2011; Vorberg et al., 2003). Typically, observers perform speeded responses to a target stimulus preceded by a prime stimulus, which can trigger the same motor response by sharing consistent features (e.g., shape) or different responses due to inconsistent features. While consistent features cause speeded motor responses, inconsistent trials can induce response conflicts and result in slowed responses. These response time differences describe the response priming effect (Klotz & Neumann, 1999; Klotz & Wolff, 1995; see also F. Schmidt et al., 2011; Vorberg et al., 2003). The theoretical background of this method forms the Rapid-Chase Theory (T. Schmidt et al., 2006, 2011; see also T. Schmidt, 2014), which assumes that priming is based on neuronal feedforward processing within the visuomotor system. Lamme and Roelfsema (2000; see also Lamme, 2010) claim that this feedforward processing does not generate visual awareness because neuronal feedback and recurrent processes are needed. Fascinatingly, while prime visibility can be manipulated by visual masking techniques (Breitmeyer & Öğmen, 2006), priming effects can still increase over time. Masking effects are used as a direct measure of prime awareness. Based on their time course, type-A and type-B masking functions are distinguished (Breitmeyer & Öğmen, 2006; see also Albrecht & Mattler, 2010, 2012, 2016). Type-A masking is most commonly shown with a typically increasing function over time. In contrast, type-B masking functions are rarely observed, which demonstrate a decreasing or u-shaped time course. This masking type is usually only found under metacontrast backward masking (Breitmeyer & Öğmen, 2006; see also Albrecht & Mattler, 2010, 2012, 2016). While priming effects are expected to increase over time by Rapid-Chase Theory (T. Schmidt et al., 2006, 2011; see also T. Schmidt, 2014), the masking effect can show an opposite trend with a decreasing or u-shaped type-B masking curve, forming a double dissociation.
In empirical practice, double dissociations are a rarity, while historically simple dissociations have been the favored data pattern to demonstrate perception without awareness, despite suffering from statistical measurement problems (T. Schmidt & Vorberg, 2006). Motivated by this shortcoming, I aim to demonstrate that a double dissociation is the most powerful and convincing data pattern, which provides evidence that visual perception does not necessarily generate visual awareness, since both processes are based on different neuronal mechanisms. I investigated which experimental conditions allow for a double dissociation between priming and prime awareness. The first set of experiments demonstrated that a double-dissociated pattern between priming and masking can be induced artificially, and that the technique of induced dissociations is of general utility. The second set of experiments used two awareness measures (objective vs. subjective) and a response priming task in various combinations, resulting in different task settings (single-, dual-, triple tasks). The experiments revealed that some task types constitute an unfavorable experimental environment that can prevent a double dissociation from occurring naturally, especially when a pure feedforward processing of the stimuli seems to be disturbed. The present work provides further important findings. First, stimulus perception and stimulus awareness show a general dissociability in most of the participants, supporting the idea that different neuronal processes are responsible for this kind of data pattern. Second, any direct awareness measure (no matter whether objective or subjective) is highly observer-dependent, requiring the individual analysis at the level of single participants. Third, a deep analysis of priming effects at the micro level (e.g., checking for fast errors) can provide further insights regarding information processing of different visual stimuli (e.g., shape vs. color) and under changing experimental conditions (e.g. single- vs. triple tasks).
Die Entwicklung der Lehrkompetenz von in der wissenschaftlichen Weiterbildung im Gesundheitsbereich Lehrenden und die Begleitung dieses Lernprozesses stellen Herausforderungen dar, die auf eine zunehmende Professionalität der Lehrenden und die Verbesserung der Qualität der Hochschullehre zielen. Basierend auf lerntheoretischen Ansätzen zum Thema Lebenslanges Lernen stellen sich die Fragen: Können aktuelle Erkenntnisse aus den Neurowissenschaften didaktisch und methodisch bei Lehrenden in der wissenschaftlichen Weiterbildung im Gesundheitsbereich einen Prozess der Lehrkompetenzentwicklung initiieren und flankieren? Welche Impulse können die Lehrtätigen aus der Verknüpfung von neurowissenschaftlichen Forschungsergebnissen mit lerntheoretischen Erkenntnissen für die Förderung der Motivation und für die Lernbegleitung der Studierenden gewinnen? Für das fachspezifisch an die naturwissenschaftlichen beziehungsweise medizinischen Vorkenntnisse der Lehrenden im Gesundheitsbereich anknüpfende Modell der Lehrkompetenzentwicklung erfolgt eine Einbettung in einen konzeptionellen Rahmen, der die verschiedenen Handlungsebenen an der Hochschule mit einbezieht.
The knowledge of structural properties in microscopic materials contributes to a deeper understanding of macroscopic properties. For the study of such materials, several imaging techniques reaching scales in the order of nanometers have been developed. One of the most powerful and sophisticated imaging methods is focused-ion-beam scanning electron
microscopy (FIB-SEM), which combines serial sectioning by an ion beam and imaging by
a scanning electron microscope.
FIB-SEM imaging reaches extraordinary scales below 5 nm with large representative
volumes. However, the complexity of the imaging process results in the addition of artificial distortion and artifacts generating poor-quality images. We introduce a method
for the quality evaluation of images by analyzing general characteristics of the images
as well as artifacts exclusively for FIB-SEM, namely curtaining and charging. For the
evaluation, we propose quality indexes, which are tested on several data sets of porous and non-porous materials with different characteristics and distortions. The quality indexes report objective evaluations in accordance with visual judgment.
Moreover, the acquisition of large volumes at high resolution can be time-consuming. An approach to speed up the imaging is by decreasing the resolution and by considering cuboidal voxel configurations. However, non-isotropic resolutions may lead to errors in the reconstructions. Even if the reconstruction is correct, effects are visible in the analysis.
We study the effects of different voxel settings on the prediction of material and flow properties of reconstructed structures. Results show good agreement between highly resolved cases and ground truths as is expected. Structural anisotropy is reported as
resolution decreases, especially in anisotropic grids. Nevertheless, gray image interpolation
remedies the induced anisotropy. These benefits are visible at flow properties as well.
For highly porous structures, the structural reconstruction is even more difficult as
a consequence of deeper parts of the material visible through the pores. We show as an application example, the reconstruction of two highly porous structures of optical layers, where a typical workflow from image acquisition, preprocessing, reconstruction until a
spatial analysis is performed. The study case shows the advantages of 3D imaging for
optical porous layers. The analysis reveals geometrical structural properties related to the manufacturing processes.
Das Allgemeine Gleichbehandlungsgesetz hat durch seine gesetzlich verankerten Regelungen bedeutsame Auswirkungen auf die Personalbeschaffung und birgt deshalb für Unternehmen gewisse Risiken im Rahmen des Prozesses rund um das Thema Stellenausschreibungen. Die Mastarbeit gibt neben Beispielen zu diskriminierenden Stellenanzeigen, einen Einblick in mögliche Rechtsfolgen für Unternehmen im Zusammenhang mit diskriminierenden Stellenanzeigen, sowie Handlungsempfehlungen zur Umsetzung von diskriminierungsfreien Stellenanzeigen.
Due to the steadily increasing number of decentralized generation units, the upcoming smart meter rollout and the expected electrification of the transport sector (e-mobility), grid planning and grid operation at low-voltage (LV) level are facing major challenges. Therefore, many studies, research and demonstration projects on the above topics have been carried out in recent years, and the results and the methods developed have been published. However, the published methods usually cannot be replicated or validated, since the majority of the examination models or the scenarios used are incomprehensible to third parties. There is a lack of uniform grid models that map the German LV grids and can be used for comparative investigations, which are similar to the example of the North American distribution grid models of the IEEE. In contrast to the transmission grid, whose structure is known with high accuracy, suitable grid models for LV grids are difficult to map because of the high number of LV grids and distribution system operators. Furthermore, a detailed description of real LV grids is usually not available in scientific publications for data privacy
reasons. For investigations within a research project, the most characteristic synthetic LV grid models have been created, which are based on common settlement structures and usual grid planning principles in Germany. In this work, these LV grid models, and their development are explained in detail. For the first time, comprehensible LV grid models for the middle European area are available to the public, which can be used as a benchmark for further scientific research and method developments.
This document is an English version of the paper which was originally written in German1. In addition, this paper discusses a few more aspects especially on the planning process of distribution grids in Germany.
Die Verwendung der Fest-Flüssig Extraktion zur Gewinnung von Wirkstoffen aus
Pflanzenmaterial ist so alt wie die Menschheit. Es sind daher angereicherte Extrakte oder
aufgereinigte Wirkstoffe in der Lebensmitteltechnologie, Biotechnologie und Pharmakologie
alltäglich vorzufinden. Die Diffusion sowie der Stofftransport der Wirkstoffe werden durch die
biologischen, chemischen, physikalischen Charakteristika des Pflanzenmaterials und durch die
Betriebsführung des Extraktionsvorgangs beeinflusst. Diese Dissertation analysiert das
Diffusionsverhalten diverser Wirkstoffe aus unterschiedlichen Pflanzenmaterialien mit einer
Unterstützung des Extraktionsvorgangs durch Mikrowellen, Ultraschallwellen oder Hochspannungsimpulse. Der Stofftransport wird bei festgesetzter Temperatur mit verfahrenstechnischen Modellen einstufig und mehrstufig beschrieben.
Im Gegensatz zu vorangegangenen Studien werden mannigfaltige Pflanzenstrukturen in
Kombination mit alternativen Prozesskonzepte beruhend auf den verschiedenen
Wirkmechanismen ausgewählt. Diese Modellierungen sind durch die vielfältigen Pflanzenmaterialien wie Blätter, Blüten, Nadeln, Samen, Rinde, Wurzeln und Kräuter unter der Einwirkung
der Mikrowellen, Ultraschallwellen sowie Hochspannungsimpulse, die zur Erhöhung der Ausbeute
an den Wirkstoffen im Extrakt beitragen, inspiriert. Zuerst wurden die Eigenschaften wie die
Schüttgutdichte, der Anteil an flüchtigen Bestandteilen, Partikelgrößenverteilung, der Lösungsmittel- und Phasenverhältniseinfluss der ausgewählten Pflanzenmaterialien untersucht. Wie
erwartet zeigt jede Pflanze und deren Wirkstoffe verschiedene Merkmale, die sich auf den
Extraktionsvorgang mit alternativen Prozesskonzepte auswirken.
Entgegen den Vermutungen, erreicht die Mikrowellen-unterstützende Extraktion mittels
dielektrischer Erwärmung nach Optimierung der Leistung die höchste Ausbeute für alle ausgewählten Pflanzenmaterialien, wenn diese getrocknet vorliegen. Mit der Ultraschall-unterstützenden Extraktionstechnologie wird bei festgesetzter Extraktionstemperatur eine
größere Quantität der Wirkstoffe im Extrakt im Vergleich zu einem gerührten Batch gemessen.
Die Hochspannungsimpuls-unterstützende Extraktionstechnologie mit einem einfachen
Pulsprotokoll und einer moderaten elektrischen Feldstärke zeigt bei frisch geernteten bzw. nicht
getrockneten Pflanzenmaterialien und wässrigen Extraktionsmilieu mit maximal 20 Vol% Ethanol
eine hohe Ausbeute an Wirkstoffen und eine milde Erwärmung des Extraktionsmittels.
Die Berechnungen der Geschwindigkeitskonstanten, der daraus resultierenden
Aktivierungsenergien und der effektiven Diffusionskoeffizienten, die auf der analytischen Lösung
des 2. Fick‘schen Gesetz basieren, korrelieren mit den festgestellten Makro- und Mikroeigenschaften der Pflanzenmaterialien. Schließlich werden mit einem automatisierten Hochdurchsatzsystem durchgeführte, dreistufige Kreuzstromextraktionen auf Grundlage der
Massenbilanzen modelliert und die tatsächlich eingesetzten mit den berechneten
Extraktionsmittelmengen bei unterschiedlichen Pflanzenmaterialien verglichen. Die Wirkstoffe in
holzartigen Strukturen und in Kräuter zeigen aufgrund ihres Quellverhalten eine abgeschwächte
Diffusion im Vergleich zum Herauslösen der Wirkstoffe aus blättrigem Rohstoff oder
Gewürzsamen.
Recommender systems recommend items (e.g., movies, products, books) to users. In this thesis, we proposed two comprehensive and cluster-induced recommendation-based methods: Orthogonal Inductive Matrix Completion (OMIC) and Burst-induced Multi-armed Bandit (BMAB). Given the presence of side information, the first method is categorized as context-aware. OMIC is the first matrix completion method to approach the problem of incorporating biases, side information terms and a pure low-rank term into a single flexible framework with a well-principled optimization procedure. The second method, BMAB, is context-free. That is, it does not require any side data about users or items. Unlike previous context-free multi-armed bandit approaches, our method considers the temporal dynamics of human communication on the web and treats the problem in a continuous time setting. We built our models' assumptions under solid theoretical foundations. For OMIC, we provided theoretical guarantees in the form of generalization bounds by considering the distribution-free case: no assumptions about the sampling distribution are made. Additionally, we conducted a theoretical analysis of community side information when the sampling distribution is known and an adjusted nuclear norm regularization is applied. We showed that our method requires just a few entries to accurately recover the ratings matrix if the structure of the ground truth closely matches the cluster side information. For BMAB, we provided regret guarantees under mild conditions that demonstrate how the system's stability affects the expected reward. Furthermore, we conducted extensive experiments to validate our proposed methodologies. In a controlled environment, we implemented synthetic data generation techniques capable of replicating the domains for which OMIC and BMAB were designed. As a result, we were able to analyze our algorithms' performance across a broad spectrum of ground truth regimes. Finally, we replicated a real-world scenario by utilizing well-established recommender datasets. After comparing our approaches to several baselines, we observe that they achieved state-of-the-art results in terms of accuracy. Apart from being highly accurate, these methods improve interpretability by describing and quantifying features of the datasets they characterize.
On a route from whole genome duplication to aneuploidy and cancer: consequences and adaptations
(2022)
Whole genome duplication (WGD) is commonly accepted as an intermediate state between healthy cells and aneuploid cancer cells. Usually, cells after WGD get removed from the replicating pool by p53-dependent cell cycle arrest or apoptosis. Cells, which are able to bypass these mechanisms exhibit chromosomal instability (CIN) and DNA damage, promoting the formation of highly aneuploid karyotypes. In general, WGD favors several detrimental consequences such as increased drug resistance, transformation and metastasis formation. Therefore, it is of special interest to investigate the limiting factors and consequences of tetraploid proliferation as well as the adaptations to WGD. In the past it has been difficult to study the consequences of such large-scale genomic changes and how cells adapt to tetraploidy in order to survive. Our lab established protocols to generate tetraploids as well as isolated post-tetraploid/aneuploid single cells clones derived from euploid parental cell lines after induction of cytokinesis failure. This system enables to study the consequences and adaptations of WGD in newly generated tetraploid cells and evolved post-tetraploid clones in comparison to their isogenic parental cell line.
Using newly generated tetraploids from HCT116 cells, we identified USP28 and SPINT2 as novel factors limiting the proliferation after WGD. Using mass spectrometry and immunoprecipitation, we revealed an interaction between USP28 and NuMA1 upon WGD, which affects centrosome coalescence of supernumerary centrosomes, an important process that enhances survival of tetraploids. Furthermore, we validated the occurrence of DNA damage in tetraploid cells and found that USP28 depletion diminished the DNA damage dependent checkpoint activation. SPINT2 influences the proliferation after WGD by regulating the transcription of CDKN1A via histone acetylation. Following proliferating tetraploid cells, we confirmed the activation of the DNA damage response (DDR) by immunoblotting and microscopic approaches. Furthermore, we show that the DDR in the arising post-tetraploid clones is reduced. Further experiments verified the appearance of severe mitotic aberrations, replication stress and accumulation of reactive oxygen species in newly generated tetraploids as well as in the aneuploid cancer cells contributing to the occurrence of DNA damage. Using various drug treatments, we observed an increased dependency on the spindle assembly checkpoint in aneuploid cancer cells compared to their diploid parental cell line. Additionally, siRNA knock down experiments revealed the kinesin motor protein KIF18A as an essential protein in aneuploid cells.
Taken together, the results point out cellular consequences of proliferation after tetraploidization as well as the cellular adaptations needed to cope with the increased amount of DNA.
Einkünfte, die mit Bitcoins erzielt werden, werden unter die steuerlich relevanten Einkunftsarten subsumiert. Dabei wird zunächst auf die technischen Besonderheiten von Bitcoins und der damit einhergehenden Einkünfteerzielung eingegangen. Außerdem werden Bitcoins geschichtlich und rechtlich eingeordnet.
Anschließend wird die Frage geklärt, ob Bitcoins überhaupt ein steuerlich relevantes Wirtschaftsgut darstellen können, unter welchen Umständen sie in Deutschland Ertragsteuerpflichten auslösen und wie sie im Betriebs- und Privatvermögen steuerlich zu behandeln sind. In einem letzten Schritt wird geprüft, ob eine Besteuerung von mit Bitcoins erzielten Einkünften in Deutschland verfassungsgemäß ist.
We present an identification benchmark data set for a full robot movement with an KUKA KR300 R2500 ultra SE industrial robot. It is a robot with a nominal payload capacity of 300 kg, a weight of 1120 kg and a reach of 2500mm. It exhibits 12 states accounting for position and velocity for each of the 6 joints. The robot encounters backlash in all joints, pose-dependent inertia, pose-dependent gravitational loads, pose-dependent hydraulic forces, pose- and velocity dependent centripetal and Coriolis forces as well as a nonlinear friction, which is temperature dependent and therefore potentially time varying. We supply the prepared dataset for black-box identification of the forward or the inverse robot dynamics. Additional to the data for black-box modelling, we supply high-frequency raw data and videos of each experiment. A baseline and figures of merit are defined to make results compareable across different identification methods.
Acrylamid ist eine α,β-ungesättigte Carbonylverbindung, die beim Erhitzen von Lebensmitteln durch die Maillard-Reaktion aus Aminosäuren wie Asparagin und reduzierenden Zuckern gebildet wird. Da für diese prozessbedingte Lebensmittelkontaminante neuro- und gentoxische Effekte beschrieben sind und die mittlere alimentäre Exposition in Europa auf 0,4–1,9 μg/kg KG/d geschätzt wurde, ist Acrylamid von Bedeutung für die Risikobewertung von Lebensmitteln.
Acrylamid und sein gentoxischer Metabolit Glycidamid werden zu den Mercaptursäuren N-Acetyl-S-(2-carbamoylethyl)-L-cystein (AAMA) bzw. N-Acetyl-S-(2-hydroxy-2-carbamoylethyl)-L-cystein (GAMA) metabolisiert, die als renale Biomarker zur Abschätzung der internen Exposition Verwendung finden. Frühere Befunde deuteten bereits auf eine potentielle endogene Bildung hin, die einer Acrylamid-Exposition von 0,2–0,7 µg/kg KG entsprach und somit nennenswert zur Biomarker-Ausscheidung beitragen kann, die exogen durch Acrylamid-Aufnahme durch Lebensmittel, Tabakrauch oder Exposition am Arbeitsplatz beeinflusst werden kann. Um diese verschiedenen Einflussfaktoren weiter zu untersuchen, wurden zwei Humanstudien durchgeführt.
Im Rahmen einer Duplikat-Studie unter streng kontrollierten Bedingungen wurde die Toxikokinetik der Mercaptursäuren und Hämoglobin-Addukte nach Acrylamid-Aufnahme durch den Verzehr von Kaffee (0,15–0,17 µg/kg KG/d) bzw. hitzebehandelten Lebensmitteln (14,1–15,9 μg/kg KG/d) in sechs Probanden untersucht. Während der Kaffeekonsum nur zu einer leicht erhöhten Mercaptursäure-Antwort führte, konnte die renale Ausscheidungskinetik nach Aufnahme von 14,1–15,9 μg/kg KG/d Acrylamid erfasst werden. Weitere sechs Probanden erhielten eine Acrylamid-minimierte Diät, die eine Acrylamid-Aufnahme von 0,05–0,06 µg/kg KG/d nicht überschritt (Washout), und zusätzlich einen einmaligen Bolus von 1 μg/kg KG 13C3D3-Acrylamid. Am Ende des 13-tägigen Washout wurde ein AAMA-Level erfasst, das einer Hintergrundbelastung von 0,3–0,4 µg/kg KG/d entsprach, während die Ausscheidung von 13C3D3-Acrylamid als 13C3D3-AAMA innerhalb von 72–96 h praktisch abgeschlossen war, welches die Hypothese einer anhaltenden endogenen Acrylamid-Bildung in vivo unterstützt. Dies wurde durch Modell-Reaktionen untermauert, die eine Acrylamid-Bildung unter physiologischen Bedingungen zeigten.
Eine zweite Duplikat-Studie mit Gemischtköstlern und Veganern befasste sich mit dem Einfluss der Ernährung und Lebensstils auf die Acrylamid-Exposition und Ausscheidung von AAMA, GAMA sowie Tabakrauch-Expositionsbiomarkern. Die mittlere Acrylamid-Aufnahme betrug 0,32±0,19 µg/kg KG/d, es zeigten sich jedoch deutliche Variabilitäten zwischen den Tagen und den Probanden. So nahmen Veganer mehr Acrylamid auf (0,38±0,23 µg/kg KG/d) als Gemischtköstler (0,26±0,10 µg/kg KG/d). Die Ausscheidungskinetik von AAMA und GAMA im Urin stimmte im Wesentlichen mit der jeweiligen alimentären Acrylamid-Aufnahme überein. Erhöhte Werte konnten auf eine umwelt-bezogene Belastung mit Tabakrauch zurückgeführt werden.
Um die Emissionsziele des Übereinkommens von Paris zu erreichen, muss die Weiterentwicklung von Gasturbinen und deren Komponenten im Mittelpunkt der aktuellen Energieforschung stehen. Ein nach wie vor hohes Optimierungspotential bietet hierbei die sich der Brennkammer anschließende Hochdruckturbine und hierin die Verbesserung der Kühlmethoden, da diese einen signifikanten Beitrag zum Gesamtwirkungsgrad der Gasturbine beitragen. Diese Dissertation nimmt sich dem Teilgebiet der Filmkühlungstechnologie an und untersucht die Anwendbarkeit eines konstruktiv bedingt vorhandenen Leckagespalts zur aktiven Kühlung der Seitenwand in der ersten Turbinenleitschaufelreihe. Die experimentell durchgeführte Studie analysiert in Form einer Parametervariation verschiedene Leckagespaltkühlungskonfigurationen, um einerseits die Einflüsse der Parameter zu identifizieren und andererseits die Konfigurationen auch hinsichtlich der Filmkühlwirkung zu bewerten. Hier kommen neben der Pressure Sensitive Paint Messtechnik zur Bestimmung der Filmkühleffektivität auch Ölanstrichbilder der Seitenwand sowie Fünflochsondenmessungen am Schaufelaustritt zum Einsatz. Dadurch werden zusätzlich die Auswirkungen auf die Aerodynamik beurteilt. Alle Messkampagnen wurden dabei für zwei, sich im Auslegungsprinzip markant unterscheidende Leitschaufelprofildesigns durchgeführt, um in einem weiterführenden Schritt eine Übertragbarkeit der Erkenntnisse oder gar korrelative Zusammenhänge für die untersuchten Leckagespaltparameter aufzuzeigen. Die Ergebnisse dieser umfassenden, komparativen Parameteranalyse decken auf, dass zwar einige Spaltkonfigurationen in Ansätzen konsistente Ergebnistendenzen aufweisen, jedoch nicht ohne weiteres übertragbar sind oder eine Allgemeingültigkeit erkennen lassen. Im Endresultat wird dadurch deutlich, dass die robuste Auslegung solcher Kühlkonzepte zum einen spezifisch und zum anderen auch unter Berücksichtigung der verbundenen Komponenten erfolgen sollte.
Sequence learning describes the process of understanding the spatio-temporal
relations in a sequence in order to classify it, label its elements or generate
new sequences. Due to the prevalence of structured sequences in nature
and everyday life, it has many practical applications including any language
related processing task. One particular such task that has seen recent success
using sequence learning techniques is the optical recognition of characters
(OCR).
State-of-the-art sequence learning solutions for OCR achieve high performance
through supervised training, which requires large amounts of transcribed
training data. On the other hand, few solutions have been proposed on how
to apply sequence learning in the absence of such data, which is especially
common for hard to transcribe historical documents. Rather than solving
the unsupervised training problem, research has focused on creating efficient
methods for collecting training data through smart annotation tools or generating
synthetic training data. These solutions come with various limitations
and do not solve all of the related problems.
In this work, first the use of erroneous transcriptions for supervised sequence
learning is introduced and it is described how this concept can be applied in
unsupervised training scenarios by collecting or generating such transcriptions.
The proposed OCR pipeline reduces the need of domain specific expertise
to apply OCR, with the goal of making it more accessible. Furthermore, an
approach for evaluating sequence learning OCR models in the absence of
reference transcriptions is presented and its different properties compared
to the standard method are discussed. In a second approach, unsupervised
OCR is treated as an alignment problem between the latent features of the
different language modalities. The outlined solution is to extract language
properties from both the text and image domain through adversarial training
and learn to align them by adding a cycle consistency constraint. The proposed
approach has some strict limitations on the input data, but the results
encourage future research into more widespread applications.
Reinforcing sand soils using tyre rubber chips is a novel technology that is under investigation to optimize its engineering application. Previous studies concentrated on static behaviour and very few on cyclic and dynamic behaviour of sand rubber mixtures leaving gaps that need to be addressed.
This research focuses on evaluating the static, cyclic and dynamic behaviours of sand rubber mixtures. The basic properties of sands S2, S3, S4, rubber chips and sand rubber chips mixtures at 10/20/30% rubber chips content by dry mass were first evaluated in order to obtain the parameters essential for subsequent testing. Oedometer, direct shear with larger box 300x300 mm and static triaxial compression tests were performed to assess the static behaviour of the composite material. Further, dynamic cyclic triaxial tests were performed to evaluate the cyclic behaviour of saturated, dry and wet mixtures. All specimens were first isotropically consolidated at 100 kPa. For saturated material a static deviatoric stress of 45 kPa was imposed prior to cycling to simulate the field anisotropic consolidation condition. Cycling was applied stress-controlled with amplitude of 50kPa. Both undrained and drained tests were performed. Cyclic tests in dry or wet conditions were also performed under anisotropic consolidation condition with the application of different stress amplitudes. For all cyclic tests the loading frequency was 1 Hz. With regard to dynamic behaviour of the mixtures, the resonant column tests were conducted. Calibration was first performed yielding a frequency dependent drive head inertia. Wet mixture specimens were prepared at relative density of 50% and tested at various confining stresses. Note that all specimens tested in both triaxial and resonant column were 100 mm diameter. The results from the entire investigation are promising.
In summary, rubber chips in the range of 4 to 14 mm mixed with sands were found to increase the shear resistance of the mixtures. They yield an increase of the cyclic resistance under saturated condition, to a decrease of stiffness and to an increase of damping ratio. Increased confining stress increased the shear modulus reduction and decreased damping ratio of the mixtures. Increased rubber content increased both shear modulus reduction and damping ratio. Several new design equations were proposed that can be used to compute the compression deformation, pore pressure ratio, maximum shear modulus and minimum damping ratio, as well as the modulus reduction with shear strain. Finally, chips content around 20% to 30% by dry mass can be used to reinforce sandy soils. The use of this novel composite material in civil engineering application could consume a large volume of scrap tyres and at the same time contribute to cleaning environment and saving natural resources.
Forschung und Entwicklung (FuE)stellt einen elementaren Baustein für das langfristige Wachstum und die Zukunftsfähigkeit einer Volkswirtschaft dar. Diese Arbeit untersucht, inwiefern der Staat aus steuerrechtlicher Sicht eine FuE-Förderung für Konzerne unternimmt und wo Möglichkeiten zur Verbesserung liegen könnten, um das FuE-Klima in Deutschland nachhaltig zu verbessern. Fokus wird dazu insbesondere auf das Konstrukt der ertragsteuerlichen Organschaft und das neu geschaffene Forschungszulagengesetz (FZulG)gelegt.
Understanding the mechanisms and controlling
the possibilities of surface nanostructuring is of crucial interest
for both fundamental science and application perspectives.
Here, we report a direct experimental observation
of laser-induced periodic surface structures (LIPSS) formed
near a predesigned gold step edge following single-pulse
femtosecond laser irradiation. Simulation results based on a
hybrid atomistic-continuum model fully support the experimental
observations. We experimentally detect nanosized
surface features with a periodicity of ∼300 nm and heights of
a few tens of nanometers.We identify two key components of
single-pulse LIPSS formation: excitation of surface plasmon
polaritons and material reorganization. Our results lay a
solid foundation toward simple and efficient usage of light
for innovative material processing technologies.
Regelkonzept für eine Niederspannungsnetzautomatisierung unter Verwendung des Merit-Order-Prinzips
(2022)
Durch die zunehmende Erzeugungsleistung auf Niederspannungsnetzebene (NS-Netzebene) durch Photovoltaikanlagen, sowie die Elektrifizierung des Wärme- und des Verkehrssektors sind Investitionen in die NS-Netze notwendig. Ein höherer Digitalisierungsgrad im NS-Netz birgt das Potential, die notwendigen Investitionen genauer zu identifizieren, und damit ggf. zu reduzieren oder zeitlich zu verschieben. Hierbei stellt die Markteinführung intelligenter Messsysteme, sog. Smart Meter, eine neue Möglichkeit dar, Messwerte aus dem NS-Netz zu erhalten und auf deren Grundlage die Stellgrößen verfügbarer Aktoren zu optimieren. Dazu stellt sich die Frage, wie Messdaten unterschiedlicher Messzyklen in einem Netzautomatisierungssystem genutzt werden können und wie sich das nicht-lineare ganzzahlige Optimierungsproblem der Stellgrößenoptimierung effizient lösen lässt. Diese Arbeit befasst sich mit der Lösung des Optimierungsproblems. Dazu kommt eine Stellgrößenoptimierung nach dem Merit-Order-Prinzip zur Anwendung.
Automation of the Hazard and Operability Method Using Ontology-based Scenario Causation Models
(2022)
The hazard and operability (HAZOP) method is widely used in chemical and process industries to identify and evaluate hazards. Due to its human-centered nature, it is time-consuming, and the results depend on the team composition. In addition, the factors time pressure, type of implementation, experience of the participants, and participant involvement affect the results. This research aims to digitize the HAZOP method. The investigation shows that knowledge-based systems with ontologies for knowledge representation are suitable to achieve the objective. Complex interdisciplinary knowledge regarding facility, process, substance, and site information must be represented to perform the task. A result of this work is a plant part taxonomy and a developed object-oriented equipment entity library. During ontology development, typical HAZOP scenarios, as well as their structure, components, and underlying causal model, were investigated. Based on these observations, semantic relationships between the scenario components were identified. The likelihood of causes and severity of consequences were determined as part of an automatic risk assessment using a risk matrix to determine safeguards reliably. An inference algorithm based on semantic reasoners and case-based reasoning was developed to exploit the ontology and evaluate the input data object containing the plant representation. With consideration given to topology, aspects like the propagation of sub-scenarios through plant parts were considered. The results of the developed knowledge-based system were automatically generated HAZOP worksheets. Evaluation of the achieved results was based on representative case studies in which the relevance, comprehensibility, and completeness of the automatically identified scenarios were considered. The achieved results were compared with conventionally prepared HAZOP tables for benchmark purposes. By paying particular attention to the causal relationships between scenario components, the risk assessment, and with consideration of safeguards, the quality of the automatically generated results was comparable to conventional HAZOP worksheets. This research shows that formal ontologies are suitable for representing complex interdisciplinary knowledge in the field of process and plant safety. The results contribute to the use of knowledge-based systems for digitizing the HAZOP method. When used correctly, knowledge-based systems can help decrease the preparation time and repetitious nature of HAZOP studies and standardize results.
Die Systeme der Planung von Windenergieanlagen in Deutschland und Frankreich – ein Rechtsvergleich
(2022)
Die Energiewende in Deutschland stockt, so auch der Ausbau der Windenergie an Land. Die Gründe liegen unter anderem in der Umstellung des Fördersystems von einer garantierten Einspeisevergütung hin zu Ausschreibungen, sinkender Akzeptanz gegenüber Windenergieanlagen und der Einführung von Abstandsflächen in bestimmten Bundesländern. Bundesweit stellen Vorhabenträger und Investoren gleichermaßen fest, es mangelt an Ausbauflächen. Vor dem Hintergrund der beabsichtigten Steigerung der Ausbauziele stellen sich beträchtliche Ansprüche an den Raum. Ihnen Geltung zu verschaffen ist in Deutschland die Aufgabe der räumlichen (Gesamt-)Planung. Das bestehende Planungssystem stößt dabei jedoch an seine Grenzen. Die rechtsvergleichende Untersuchung wendet den Blick Deutschlands Nachbarn und starkem Partner in der Europäischen Union zu: Frankreich. Einerseits hat Frankreich im Jahr 2018 den ersten Rang als attraktivsten Markt für Investitionen in erneuerbare Energien vor Deutschland eingenommen. Andererseits verzeichnet Frankreich im Vergleich zu Deutschland einen stetigen Zubau der installierten Windenergieleistung. Der einfachen Frage, was Frankreich anders oder gar besser macht, folgen die zwei zentralen Forschungsleitfragen der Untersuchung:
1. Wie vergleichbar ist die rechtliche und tatsächliche Ausgangslage in Bezug auf die Planungssysteme von Windenergieanlagen in Deutschland und Frankreich?
2. Wie erfolgt die planerische Steuerung des Ausbaus der Windenergie in Deutschland und Frankreich – wie kann das deutsche System durch das französische optimiert werden?
Die Beantwortung dieser Fragen führte zum Aufbau der Arbeit in zwei Teile. Im ersten (Grundlagen-)Teil werden jeweils die Ziele zum Ausbau der Windenergie, die tatsächliche Ausgangssituation, Fördermechanismen und der Staats- und verwaltungsorganisatorische Rahmen aufgezeigt. Dies schafft den Kontext und eine bessere Vergleichbarkeit für den sich anschließenden Zweiten Teil. Verglichen werden hier für Deutschland und Frankreich jeweils das Verständnis von (Raum-)Planung, die Systeme der Planung mit ihren einzelnen Planungsinstrumenten zum Ausbau der Windenergie und die Systeme ihrer planerischen Steuerung sowie das Verhältnis von Planung zur Vorhabenzulassung. Die Untersuchung mündet in dem Entwurf eines „Energieplanungskonzepte-Systems“ für das deutsche Planungssystem. Denn die zentralen Erkenntnisse der Arbeit sind:
In Frankreich stehen keine stärkeren Umsetzungs-/ Durchsetzungsmechanismen als in Deutschland zur Verfügung, auch nicht in Gestalt von finanziellen Fördermechanismen durch das vergleichbare Ausschreibungsmodell für Windenergieanlagen. Das „günstige Klima“ ist zum einen dem größeren Entwicklungspotenzial der Windenergie geschuldet, zum anderem der besseren, landesweiten und einheitlichen Integration von Umweltfachplanungen, die in Deutschland mit Energiekonzepten vergleichbar sind. In Frankreich verhelfen die sektoralen (Energiefach-)Planungen zu einem vergleichbar besseren Überblick über die Erneuerbare- Energien-Erzeugung – auch wenn ein Zusammenführen der (inter-)kommunalen Daten auf regionaler Ebene nicht vorgesehen ist. Durch die Zentralisierung strategischer und struktureller Entscheidungen verfügt das französische Planungssystem zudem über mehr Systemkohärenz.
Die Überführung der Windenergieplanung von der Außenbereichsprivilegierung in Verbindung mit begrenzender Steuerungsplanung hin zu einer Bedarfsfachplanung, die den bundesweiten Ausbaubedarf ermittelt und über die Planungshierarchie schrittweise auf Bundesländer, Regionen und Kommunen herunterbricht, konkretisiert und durchsetzt, würde endlich das vielfach vermisste übergreifende Konzept der Energiewende erbringen. Auf der Grundlage des Vergleichs mit dem französischen Planungssystem bietet die vorliegende Untersuchung einen Vorschlag an, wie das deutsche System für den weiteren Ausbau der Windenergie zur Erreichung der Ausbauziele ertüchtigt werden kann.
Die Anbieter von Produkt-Service Systemen (PSS) im Investitionsgüterbereich unterliegen zunehmend dem Einfluss einer VUKA-Welt. Neue Technologien und Geschäftsmodelle, sich schnell ändernde Kundenbedürfnisse und der Einbezug vieler interner und externer Akteure resultieren in Komplexität, Unsicherheiten und kurzfristigen Änderungen, auf welche die PSS-Anbieter reagieren müssen, um frühzeitig entsprechende Lösungen anbieten zu können. Die PSS-Planung befasst sich mit der Identifikation und Spezifikation neuer PSS-Ideen. Die meisten Vorgehen zur PSS-Planung fokussieren auf die Planung von Sachprodukten, Serviceprodukten, unterstützender Infrastruktur und Netzwerke von Akteuren und binden den Kunden in die Planung ein. Durch die genannten Einflüsse der VUKA-Welt auf die Planung von PSS, muss diese an sich schnell ändernde Gegebenheiten angepasst werden. Agile Methoden der Softwareentwicklung bieten hierfür Potenziale. Insbesondere die Agile Methode Design Thinking, die den Kunden innerhalb eines kurzzyklischen Vorgehens in den Mittelpunkt der Entwicklungstätigkeiten stellt und auf die Entwicklung von Prototypen zur schnellen Realisierung von Lösungen setzt, bietet sich für den Einsatz in der PSS-Planung an. Die Arbeit befasst sich mit der Frage, wie Design Thinking in die PSS-Planung integriert werden kann, um zukünftig auf Änderungen adäquat reagieren zu können und gleichzeitig die Vorteile bestehender Ansätze, wie z. B. Kundenorientierung, nicht zu vernachlässigen. Dabei wird mit Hilfe eines Modellierungsansatzes eine Methode entwickelt, welches mit Rollen, Aktivitäten, Techniken und Ergebnissen den Einsatz von Design Thinking für die agile Planung von PSS ermöglicht, den Kunden an unterschiedlichen Stellen mit einbindet und Rücksprünge bei Änderungen erlaubt. Hervorzuheben ist, dass die Methode sowohl technologiegetrieben als auch marktgetrieben initiiert werden kann. Validiert wurde die Methode innerhalb eines Verbundprojekts bei der GRIMME Landmaschinenfabrik GmbH & Co. KG.
Untersucht wurde das mechanische Verformungsverhalten des massiven metallischen Glases Zr52,5Cu17,9Ni14,6Al10Ti5 (Vitreloy 105) an Luft und im wässrigen Umgebungsmedium 0,01 M Na2SO4 (+ 0,01 M NaCl). Die Belastung erfolgte im Dreipunktbiegeversuch unter quasistatischer sowie zyklischer Beanspruchung und mit Hilfe der instrumentierten Schlagprüfung. Neben dem Umgebungseinfluss wurde der Effekt von zyklisch-kryogenen Vorbehandlungen und Oberflächenbearbeitungen mittels Mikrostrahlen, -fräsen, -erodieren und -laserablation auf die Schädigungsentwicklung und die ertragbaren Spannungen analysiert. Während eine Modifikation der Oberfläche stets in einer Erhöhung der Plastizität infolge einer verstärkten Scherbandbildung resultierte, wiesen diese Proben i.d.R. deutlich niedrigere Dauerfestigkeiten unter zyklischer Wechselbeanspruchung auf. Die tiefkühlbehandelten Zustände zeigten in allen mechanischen Tests ein optimiertes Verformungsverhalten. Mit Hilfe der anodischen Polarisation wurde außerdem im chloridhaltigen Medium ein signifikanter Effekt auf die Lebensdauer der unbehandelten Ermüdungsproben verzeichnet. Die Detektion der scherbandgetriebenen Deformationsprozesse sowie der Rissinitiierung und -ausbreitung erfolgte sowohl mittels Licht- und Rasterelektronenmikroskopie als auch unter Ausnutzung elektrochemischer Messsignale im wässrigen Medium bzw. resistometrischer Methoden an Luft. Auf Basis der Untersuchungsergebnisse wurden abschließend Schädigungsmodelle für die jeweiligen Versuchsbedingungen aufgestellt und diskutiert.
Der Terminus der „Geringqualifizierten“ ist eine ebenso verbreitete wie eingeschränkte Beschreibung einer heterogenen Zielgruppe, welche vor dem Hintergrund steigender arbeitsmarktbezogener Kompetenzanforderungen sowie des Zusammenhangs zwischen formalem Bildungsstatus und Risiken der Erwerbslosigkeit im Zentrum arbeitsmarktpolitischer Diskussionen steht. Geringqualifizierung drückt sich nicht nur im Fehlen formaler, berufsqualifizierender Abschlüsse aus, sondern besitzt angesichts sich dynamisch verändernder Arbeitsfelder und Anforderungen an die Qualifikation der Mitarbeitenden auch eine relative Dimension. So können vorhandene Kompetenzen aufgrund fehlender Aktualisierung veralten und damit als „zu gering“ eingestuft werden. Vor diesem Hintergrund nähert sich der Bericht der Personengruppe der Geringqualifizierten an, indem er bestehende Definitionen kritisch betrachtet, Verbindungen zu anderen Begriffen aufzeigt und aus den Erkenntnissen eine eigene relative Beschreibung ableitet. Ergänzt wird dieser Report durch die Betrachtung von Weiterbildungsangeboten für diese Zielgruppe.
In dieser Arbeit wurden photoaktive Übergangsmetallkomplexe mit häufig vorkommenden Metallen wie Chrom, Vanadium und Kupfer untersucht. Hierbei wurden ausgewählte Exemplare mit besonders interessanten photophysikalischen und photochemischen Eigenschaften in Bezug auf praktische Anwendungen spektroskopisch charakterisiert. Über statische und insbesondere zeitaufgelöste FTIR- und Lumineszenzspektroskopie wurde ein tieferes Verständnis der Dynamik nach Lichtanregung erzielt. Das Hauptziel dieser Forschung besteht darin seltene und teure Elemente wie Ruthenium und Iridium gegen häufigere Metalle zu ersetzen.
In diesem Zusammenhang wurden mononukleare, oktaedrische Chrom(III)- und Vanadium(III)-Komplexe mit Polypyridylliganden, die im Arbeitskreis von Prof. Dr. Katja Heinze synthetisiert wurden, spektroskopisch charakterisiert. Diese Systeme zeigen vielversprechende Lumineszenzeigenschaften mit einer roten bzw. nahinfraroten Phosphoreszenz, wobei bei tiefen Temperaturen besonders hohe Quantenausbeuten und längere Lebensdauern beobachtet werden konnten.
Außerdem wurden einkernige Chrom(0)-, Molybdän(0)- und Wolfram(0)-Komplexe spektroskopisch charakterisiert, die allesamt im Arbeitskreis von Prof. Dr. Biprajit Sarkar synthetisiert wurden. Es sind mononukleare Komplexe mit Pyridyl-Carben-Liganden und Carbonyl-Coliganden mit einer dualen Phosphoreszenz (Emissionsbande im roten und nahinfraroten Bereich), wobei sich die niederenergetische Bande interessanterweise bis 1300 nm erstreckt. Außerdem zeigen die drei Komplexe bei intensiver Bestrahlung mit sichtbarem oder UV-Licht in organischer Lösung eine photochemische Reaktivität.
Als weitere vielversprechende Luminophore (sichtbare Emission) wurden Kupfer(I)-Komplexe analysiert, die für organische Leuchtdioden relevant sind. Einerseits wurden zweikernige Systeme mit einer zentralen Cu2I2-Einheit untersucht, die sich durch eine Fluorierung an den Phosphin-Hilfsliganden von den Derivaten aus Vorarbeiten unterscheiden. Die Systeme wurden im Arbeitskreis von Prof. Dr. Stefan Bräse zur Verbesserung der Löslichkeit im Vergleich zu unfluorierten Derivaten entwickelt. Die spektroskopischen Befunde dieser Arbeit zeigen, dass insbesondere die Einführung von Trifluormethylgruppen nicht nur die Löslichkeit, sondern auch die Stabilität verbessert. Andererseits wurden vierkernige Komplexe mit näherungsweise oktaedrischen Cu4X4-Clustern (X = I, Br, Cl) charakterisiert, wobei sich teilweise eine stark thermochrome Lumineszenz mit zwei klar separierten roten bzw. blauen Phosphoreszenzbanden ergab. Der Ursprung dieser Thermochromie konnte erstmalig auf experimentellem Weg den starken strukturellen Veränderung innerhalb des Cu4X4-Clusters zugeordnet werden.
Außerdem sind Kupfer(I)-Komplexe vielversprechende Kandidaten zur Verwendung als Photosensibilisatoren. Bei einem vom Arbeitskreis von Dr. Michael Karnahl zu Verfügung gestellten Kupfer(I)-Einkerner mit einem Liganden mit ausgedehntem 𝜋-System ergab sich ein langlebiger, nicht-strahlender Triplett-Zustand. In einem verwandten Projekt wurden ein- und zweikernige Kupfer(I)-Komplexe untersucht, die im Arbeitskreis von Dr. Claudia Bizzarri synthetisiert wurden. Der Fokus lag hierbei auf dem Einfluss einer Dimerisierung (kovalente Verbindung zweier mononuklearer Komplexe) oder einer Protonierung eines Liganden auf die photophysikalischen Eigenschaften.
This thesis reports about the investigation of di- and trinuclear coinage metal (Cu, Ag, Au) phosphine complexes with different anion adducts. Several mass spectrometric methods were utilized to investigate the complexes in gas phase without disturbing influences e.g. by the solvent. Electrospray Ionization (ESI) enabled the transfer of ions into the gas phase. In order to determine the fragmentation pathways and relative gas phase stabilities of these ions, Collision Induced Dissociation (CID) was used. The binding motifs and structures of the complexes were assigned by the help of Infrared (Multiple) Photon Dissociation (IR-(M)PD) at cryo (40 K, N2-tagged) and room temperature (300 K). Electron Transfer Dissociation/Reduction (ETD/R) was used to reduce the dicationic complexes to monocationic complexes. A tunable OPO/OPA laser system and the FELIX free-electron laser were used as IR laser sources. All experimental findings were supported by Density Functional Theory (DFT) calculation. In the first part of this thesis, the binding motifs and fragmentation behavior of the dinuclear coinage metal phosphine complexes with formate adduct were determined. Two different binding motifs were found and a stronger Cu-formate binding than in the case of Ag-formate. The dynamic bonding of hydrogen oxalate to phosphine ligand stabilized complexes were investigated in the second part. Several different binding motifs were determined. IR induced isomeric interconversions were found for the Ag complex whereas in case of the Cu complex a stiff hydrogen oxalate coordination seems to suppress such conversions. In the last part of this thesis, the ETD/R method was utilized to unravel the influence of oxidation states on the hydride and deuteride vibration modes of the trinuclear coinage metal complexes as well as the O2 adduct complexes and fragments with less complexity via IR-MPD and the FELIX free-electron laser. Unfortunately, an unambiguous assignment for the hydride and deuteride vibration modes is only possible for the fragments with less complexity.
Schnelllebige Umfeld-Dynamiken wie VUCA, neue Arbeitswelten und digitale Arbeit fordern spätestens seit Beginn der weltweiten COVID 19-Krise im Jahre 2020 adaptive Veränderungen und umfangreichen Wandel von und in Organisationen.
Aktuell zeigen die Veränderungsansätze und Methoden beratender Personen der Organisationsentwicklung oft auf, was alles zur Zielerreichung in den Fokus gestellt werden soll. Das heißt, es ist bekannt welche nach vorwärts gerichteten Veränderungen mit welchen Maßnahmen auf welchen Ebenen benötigt werden, ergänzt um welches Wissen und mit welchen Lernprozessen, das zur und bei Erreichung des Zieles aller Beteiligten als veränderte Kompetenzen und eingenommene Haltungen erforderlich ist. Erst wenn alles erfüllt ist, ist die Organisation am gewünschten Ziel angekommen. Es wird für und während dem Wandel viel Neues gelernt werden müssen. Einerseits wirken die bisherigen Haltungen, Verhalten, Denkweisen, Deutungsmuster, Routinen, Gewohnheiten, Wissensbestände nach wie vor bei den Beteiligten in den Wandelprozess ein, so auch in die Zeit nach der Zielerreichung. Die alte Welt schwingt noch mit und zeigt sich womöglich in unterschiedlichen Ausprägungen als Stolpersteine, vielleicht als Widerstände, als Wandlungsunflexibilität oder deutet sich gar als Wandlungsresistent. Dabei eröffnet sich die Frage „Wie kann eine Organisation das Bisherige loslassen, zurück- oder hinter sich lassen, wenn es rund um die Verhalten, Deutungsmuster, Traditionen und Allteingefahrenes dreht, die sich als Bestandteile einer bisherigen und nun zu wandelnden Organisationsidentität erweisen?“.
Für Organisationen und womöglich auch für die Beteiligten wäre es vorteilhaft, die bisher einwirkenden Faktoren als bislang zweckmäßig anzuerkennen und verabschiedend loszulassen. Das Loslassen und damit eine ermöglichende Wandlung von Haltungen, Wissen, Routinen, Gewohnheiten und Verhalten steht daher im Interesse von Organisationen und der Organisationsentwicklung. Damit würde Bestehendes verlernt, sofern dies in einem organisationalen Kontext erfassbar wäre. Daher wird für diese Arbeit ein Wandelprozess als Kontext angenommen, der auf New Work hinweist.
In der Zielsetzung und im Interesse dieser Arbeit steht daher, ob und wie Konzepte und Ansätze eines „Verlernens“ in Organisationen aus Sicht der OE praktisch genutzt und unterstützend einwirken könnten. Die Masterarbeit verfolgt die Forschungsfrage, deren Beantwortung Ziel der Arbeit darstellt:
„Wie lassen sich Ansätze des Verlernens für die Anwendung in der Organisationsentwicklung nutzen?“
The main objects of study in this thesis are abelian varieties and their endomorphism rings. Abelian varieties are not just interesting in their own right, they also have numerous applications in various areas such as in algebraic geometry, number theory and information security. In fact, they make up one of the best choices in public key cryptography and more recently in post-quantum cryptography. Endomorphism rings are objects attached to abelian varieties. Their computation plays an important role in explicit class field theory and in the security of some post-quantum cryptosystems.
There are subexponential algorithms to compute the endomorphism rings of abelian varieties of dimension one and two. Prior to this work, all these subexponential algorithms came with a probability of failure and additional steps were required to unconditionally prove the output. In addition, these methods do not cover all abelian varieties of dimension two. The objective of this thesis is to analyse the subexponential methods and develop ways to deal with the exceptional cases.
We improve the existing methods by developing algorithms that always output the correct endomorphism ring. In addition to that, we develop a novel approach to compute endomorphism rings of some abelian varieties that could not be handled before. We also prove that the subexponential approaches are simply not good enough to cover all the cases. We use some of our results to construct a family of abelian surfaces with which we build post-quantum cryptosystems that are believed to resist subexponential quantum attacks - a desirable property for cryptosystems. This has the potential of providing an efficient non interactive isogeny based key exchange protocol, which is also capable of resisting subexponential quantum attacks and will be the first of its kind.
Die vorliegende Bachelorarbeit beleuchtet den Status quo der kooperativen Zusammenarbeit in deutschen Kollegien. Zunächst wird der Begriff der Kooperation aus einer theoretischen Sicht beleuchtet, ehe qualitative Interviews mit Lehrkräften über die Kooperationskultur an ihrer Schule ausgewertet werden.
By mapping the boundaries of Kant’s categorical imperative to the point where it permits the committing of a crime against Hume’s three principles of justice, it shall be demonstrated how far the area is in which these two concepts persist alongside each other and how narrow the border zone is in which they do not. Indeed, the latter is a forbidden place that can only be accessed through destiny and never by choice. Whoever is witnessed to stay there, must wish for Justice to draw her sword against him, and whoever dares to try reaching it, will only wander about a deserted land where both justice and morality are left behind.
Risk management is an indispensable component of the financial system. In this context, capital requirements are built by financial institutions to avoid future bankruptcy. Their calculation is based on a specific kind of maps, so-called risk measures. There exist several forms and definitions of them. Multi-asset risk measures are the starting point of this dissertation. They determine the capital requirements as the minimal amount of money invested into multiple eligible assets to secure future payoffs. The dissertation consists of three main contributions: First, multi-asset risk measures are used to calculate pricing bounds for European type options. Second, multi-asset risk measures are combined with recently proposed intrinsic risk measures to obtain a new kind of a risk measure which we call a multi-asset intrinsic (MAI) risk measure. Third, the preferences of an agent are included in the calculation of the capital requirements. This leads to another new risk measure which we call a scalarized utility-based multi-asset (SUBMA) risk measure.
In the introductory chapter, we recall the definition and properties of multi-asset risk
measures. Then, each of the aforementioned contributions covers a separate chapter. In
the following, the content of these three chapters is explained in more detail:
Risk measures can be used to calculate pricing bounds for financial derivatives. In
Chapter 2, we deal with the pricing of European options in an incomplete financial market
model. We use the common risk measures Value-at-Risk and Expected Shortfall to define
good deals on a financial market with log-normally distributed rates of return. We show that the pricing bounds obtained from Value-at-Risk may have a non-smooth behavior under parameter changes. Additionally, we find situations in which the seller's bound for a call option is smaller than the buyer's bound. We identify the missing convexity of the Value-at-Risk as main reason for this behavior. Due to the strong connection between the obtained pricing bounds and the theory of risk measures, we further obtain new insights in the finiteness and the continuity of multi-asset risk measures.
In Chapter 3, we construct the MAI risk measure. Therefore, recall that a multi-asset risk measure describes the minimal external capital that has to be raised into multiple eligible assets to make a future financial position acceptable, i.e., that it passes a capital adequacy test. Recently, the alternative methodology of intrinsic risk measures
was introduced in the literature. These ask for the minimal proportion of the financial position that has to be reallocated to pass the capital adequacy test, i.e., only internal capital is used. We combine these two concepts and call this new type of risk measure an MAI risk measure. It allows to secure the financial position by external capital as well as reallocating parts of the portfolio as an internal rebooking. We investigate several properties to demonstrate similarities and differences to the two
aforementioned classical types of risk measures. We find out that diversification reduces
the capital requirement only in special situations depending on the financial positions. With the help of Sion's minimax theorem we also prove a dual representation for MAI risk measures. Finally, we determine capital requirements in a model motivated by the Solvency II methodology.
In the final Chapter 4, we construct the SUBMA risk measure. In doing so, we consider the situation in which a financial institution has to satisfy a capital adequacy test, e.g., by the Basel Accords for banks or by Solvency II for insurers. If the financial situation of this institution is tight, then it can happen that no reallocation of the initial
endowment would pass the capital adequacy test. The classical portfolio optimization approach breaks down and a capital increase is needed. We introduce the SUBMA risk measure which optimizes the hedging costs and the expected utility of the institution simultaneously subject to the capital adequacy test. We find out that the SUBMA risk measure is coherent if the utility function has constant relative risk aversion and the capital adequacy test leads to a coherent acceptance set. In a one-period financial market model we present a sufficient condition for the SUBMA risk measure to be finite-valued and continuous. Finally, we calculate the SUBMA risk measure in a continuous-time financial market model for two benchmark capital adequacy tests.
Ziel dieser Arbeit ist die Entwicklung einer optimierungsbasierten Betriebsstrategie von
Plug-In-Hybridfahrzeugen (PHEV), welche basierend auf Vorausschauinformationen die
Freiheitsgrade Lastpunktverschiebung und Motor-An/Aus-Entscheidung kraftstoffoptimal
einstellt. Der Hauptfokus der Arbeit liegt dabei auf der Entwicklung einer echtzeitfähigen
Strategie für Serienfahrzeuge. Hierfür wird ein neuartiger Ansatz auf Basis des Minimumprinzips
nach Pontryagin (PMP) vorgestellt, durch welchen die Freiheitsgrade des
PHEV kraftstoffoptimal eingestellt werden können. Dabei werden Informationen über die
vorausliegende Strecke effizient berücksichtigt. Die Qualität der in der Realität verfügbaren
Vorausschaudaten stellt jedoch eine besondere Herausforderung dar, da dadurch zwei in
der Praxis besonders relevante Aspekte auftreten: 1) Bei der Verwendung von PMP können
durch das besonders starke Auftreten sogenannter Singularitäten die Randbedingungen
des Optimalsteuerungsproblems nicht exakt eingehalten werden. Um dieses Problem zu
lösen, wurde in dieser Arbeit eine neuartige, PMP basierte Methodik entwickelt. 2) Die
für die Optimierung zur Verfügung stehenden Informationen sind zwangsweise unsicher,
und das reale Fahrzeugverhalten weicht von dem der Navi-Vorausschau ab. Um mit
dieser Unsicherheit umgehen zu können, wurde in dieser Arbeit eine Feedback-Struktur
entwickelt, welche eine Anpassung der Strategie auf ein abweichendes Fahrzeugverhalten
ermöglicht. Des Weiteren wurde eine Verallgemeinerung der vorgestellten PMP-Methodik
entwickelt, wodurch eine Integration von Motorstartkosten und externen Anforderungen
an die Motor-An/Aus-Entscheidung ermöglicht werden kann. Zu diesem Zweck wurde eine
Kombination von Dynamischer Programmierung und PMP betrachtet. Die entwickelten
Strategien wurden sowohl in der Simulation wie auch auf einem Prüfstand analysiert und
validiert. Abschließend wurde hierfür ein Vergleich mit regelbasierten Betriebsstrategien
vorgestellt. Dabei konnte ein deutlicher Verbrauchsvorteil durch die Verwendung der
entwickelten, optimierungsbasierten Betriebsstrategie ausgewiesen werden.
Mit der Blickrichtung auf die Synthese und Darstellung neuer Verbindungen zur Verbesserung der Lebensqualität, Grundbedürfnisse und Gesundheit einer modernen Gesellschaft sind neue Strategien, welche die Konzepte der Nachhaltigkeit, Effizienz und Umweltschutz verinnerlichen, von immenser Bedeutung. Multikomponentenreaktionen (MCRs) offerieren hierfür einen attraktiven Lösungsansatz. Als Eintopfreaktionen zeichnen sich MCRs durch hohe Stufen- sowie Atomökonomien aus und können ferner dazu beitragen Kosten, Zeit, Energie und Abfälle einzusparen. Durch den modularen Charakter von MCRs lassen sich darüber hinaus schnell und effizient eine Vielzahl unterschiedlicher Molekülstrukturen generieren. Vor diesem Hintergrund konnten im Rahmen dieser Forschungsarbeit einige neue, kombinatorische Konzepte zur Synthese α-substituierter Glycinderivate entwickelt werden. Ausgehend von einer weiterentwickelten, Pd-katalysierten, enantioselektiven 3-Komponentenreaktion auf Basis von Sulfonsäureamiden, Glyoxylsäure Monohydrat und Boronsäuren konnte eine unerwartete Hintergrundreaktion festgestellt werden, die sich schlussendlich als erste katalysatorunabhängige Petasis-Reaktion auf Basis von Sulfonsäureamiden als Amin-Komponente darstellte.
In Anbetracht der Aufgabe eine ressourcensparende und nachhaltigere Aufbaumöglichkeit von unnatürlichen Aminosäurederivaten zu entwickeln, gelang es im Zuge dieser Doktorarbeit weiterhin eine Pd-katalysierte, decarboxylative 3-Komponentenreaktion aufzubauen und zu etablieren. Dabei bieten Arylcarbonsäuren als Schlüsselkomponenten in einem decarboxylativen Konzept mit Palladium eine kostengünstigere und umweltfreundlichere Alternative zu den bisher bestehenden Methoden mit Organoboronsäuren oder anderer Organometall-Spezies. Überraschenderweise konnte im Zuge der Untersuchungen zur Substratbreite der Aldehyd-Komponente eine direkte, decarboxylative Addition zwischen den eingesetzten Arylcarbonsäuren und den verschiedenen Glyoxylsäureestern beobachtet werden. Dabei eröffnete diese Methode in ersten Untersuchungen eine interessante Möglichkeit zur Darstellung entsprechender Mandelsäurederivate.
Der vorliegende Beitrag basiert auf einer Umfrage von 2019, die in kleinen und mittleren Unternehmen (KMU) in Rheinland-Pfalz durchgeführt wurde. Seit Jahren ist in den Medien, der Politik und der Wirtschaft verstärkt von Digitalisierung und Industrie 4.0 die Rede. Diese Entwicklung stellt Unternehmen aller Größen und Branchen vor Herausforderungen, jedoch liegt der Fokus hauptsächlich auf großen Unternehmen. Ziel der in diesem Beitrag vorgestellten Studie ist es, herauszufinden wie KMU in Rheinland-Pfalz den Herausforderungen und Chancen der Digitalisierung begegnen, welche Rolle das Controlling bei der digitalen Transformation spielt und welche Implikationen sich daraus für das Controlling ergeben.
Infobrief FBK 66/22
(2022)
Die Bedeutung und Nachfrage an der Holz-Beton-Verbundbauweise nimmt
aufgrund einer Vielzahl an Vorteilen gegenüber dem reinen Holzund
Stahlbetonbau immer weiter zu. Die Bemessung von Holz-Beton-
Verbundkonstruktionen ist aktuell nicht normativ geregelt, sondern wird auf
der Grundlage von bauaufsichtlichen Zulassungen und Bauartgenehmigungen
durchgeführt. Dabei kommen die unterschiedlichsten Typen an Verbindungsmitteln
zum Einsatz, wie beispielsweise stiftförmige Verbindungsmittel
und Kerven. Kontinuierliche Verbindungsmittel wie die Verbunddübelleiste
im Stahl-Beton-Verbundbau wurden bisher nicht im Holz-Beton-
Verbundbau verwendet. Verbunddübelleisten haben sich als sehr leistungsfähige
Verbundmittel mit einer hohen Tragfähigkeit und einfacher Herstellung
herausgestellt, deren Bemessung in der AbZ Z-26.4-56 2018 geregelt
ist. Zur Entwicklung eines Bemessungskonzeptes für ein den Verbunddübelleisten
ähnliches Verbundmittel für den Holz-Beton-Verbundbau sind klassischer
Weise experimentelle Untersuchungen zur Ermittlung der Tragfähigkeit
durchzuführen. Neben den oftmals zeitaufwendigen und kostenintensiven
Versuchen haben viele Untersuchungen an verschiedensten Verbundmitteln
gezeigt, dass sich numerische Untersuchungen in Form von Finite-
Elemente-Modellen dafür eignen das Tragverhalten abzubilden und die erforderliche
Anzahl an Versuchen zur Abdeckung der verschiedenen Parameter
zu reduzieren.
Im Rahmen dieser Arbeit wurde ein kontinuierliches Verbundmittel für die
Holz-Beton-Verbundbauweise entwickelt und es wurde mittels experimenteller
und numerischer Untersuchungen ein Bemessungskonzept erarbeitet.
Zur Beschreibung des Trag- und Verformungsverhaltens wurden Versuche
unter Längsschub- und Zugbeanspruchung durchgeführt. Anhand dieser
Versuche konnten Finite-Elemente-Modelle kalibriert werden und darauf aufbauend
numerische Untersuchungen zum Tragverhalten unter kombinierter
Zug- und Schubbeanspruchung durchgeführt werden. Da viele numerische
Untersuchungen an Verbundmitteln in der Vergangenheit eine hohe Sensibilität
bei der Variation der Materialparameter der Betonmodelle gezeigt
haben, wurde eine separate Untersuchung zu den Besonderheiten von Verbundmitteln
im Beton bei der numerischen Simulation herausgearbeitet und
entsprechende Lösungsansätze gegeben. Auf Grundlage der experimentellen
und numerischen Untersuchungen konnten die für das neue Verbundmittel
spezifischen Tragmechanismen identifiziert, in einem abschließenden
Trägerversuch bestätigt und in ein Bemessungsmodell überführt werden.
Durch den kombinierten Einsatz von experimentellen und numerischen
Untersuchungen konnte das Tragverhalten des neuen Holz-Beton-
Verbundsystems umfassend beschrieben und ein für die Praxis anwendbares
Bemessungskonzept entwickelt werden. Diese Arbeit soll damit neben dem
Bemessungskonzept einen Beitrag für die Anwendung numerischer Verfahren
bei der Untersuchung des Tragverhaltens von Verbundmitteln im Beton
leisten.
The present thesis investigates the interaction of size selected transition metal cluster cations with \(N_2\) adsorbate molecules under cryogenic conditions. A tandem cryo ion trap mass spectrometer facilitates the recording of the adsorption kinetics of gases onto size selected transition metals clusters under isothermal cryo conditions. The combination with a tunable OPO/OPA laser system allows for the recording of Infrared-(Multiple) Photodissociation (IR-(M)PD) spectra of the resulting cluster adsorbate complexes. The comparison of the experimental results with DFT modelling allows for structural assignments and the evaluation of the clusters’ electronic properties. We apply the combination of these methods on rhodium, rhodium-iron alloy and tantalum clusters and present the results in seven research studies. The IR-(M)PD spectra of rhodium cluster adsorbate complexes indicate co-existing isomers and a spin quench with increasing number of adsorbed \(N_2\). Adsorption kinetics allowed to assign clusters with rough and smooth surfaces and to find features of adsorption reluctance. Calculated spin valley curves reveal a spin quench upon \(N_2\) adsorption onto the \(Rh_5^+\) cluster. Band shifts in the IR-(M)PD spectra of sequential \(N_2\) adsorption onto the \(Rh_6^+\) cluster are interpreted in terms of adsorbate induced charge dilution, which is supported by DFT calculations. Our combined approach reveals alloy like mixed rhodium iron clusters with adsorption site dependent \(N_2\) stretching vibrations, where \(N_2\) preferentially adsorbs onto rhodium sites. The \(Ta_4^+\) cluster facilitates the cleavage of the initial two \(N_2\) adsorbate molecules. By help of IR-(M)PD spectroscopy and DFT modelling we are able to assign a novel AEAS (across edge-above surface) mechanism and to assign an activated side-on intermediate of the third adsorbate molecule. The investigation sequential \(N_2\) adsorption onto the \(Ta_5^+\) cluster does not reveal any evidence for \(N_2\) activation. DFT modelling reveals low spin states.
α-Diimine haben die Fähigkeit starke sigma-Donorbindungen aufzubauen und gleichzeitig als π-Akzeptoren zu fungieren. Damit können sie an eine große Anzahl an Übergangsmetallzentren koordinieren. Durch Funktionalisierung mit einer Phosphanoxid oder -sulfidgruppe können flexible hemilabile Liganden synthetisiert werden, die die Kombination harten und weichen Donorfunktionen vereint. Gepaart mit unterschiedlichen Liganden-Rückgraten, haben diese Liganden die strukturelle Eigenschaft, zwei Metalle in unmittelbarer Nähe koordinieren zu können. In dieser Arbeit werden die Bindungseigenschaften dieser Metalle an bekannten, katalytisch aktiven Übergangsmetallzentren analysiert und verglichen. Die Liganden, 1,4-Bis(2-diphenyl-(thio))phosphorylphenyl)-1,4-diaza-2,3-dimethyl-1,3-butadien (dab-O/S) und [N,N‘-1,2-Acenaphthylenediyliden(2-diphenyl(thio-)phosphorylphenylamin (bian-O/S) können in einer zweistufigen Templatsynthese aus den Edukten 2-Aminophenylendiphenylphosphanoxid oder -sulfid in guten Ausbeuten synthetisiert werden. Sie koordinieren an einwertiges Kupfer in einer tetraedrischen Koordinationsumgebung deren stark verdrehte und schaukelnde Verzerrung durch die τ4- und θx,y,z-Winkelparameter klassifiziert wurde. Mit zweiwertigem Platin gelang die Synthese von monometallischen dab-O- und bian-O-Komplexen und bimetallischen Komplexen mit Zink(II) als zusätzlichen Metall. Durch 195 Pt-NMR-Spektroskopie konnte gezeigt werden, dass trotz der höheren Lewisacidität von Zink(II) die Elektronendichte am Platinzentrum erhöht wird. Mit Ruthenium(II) konnten je nach Zugabe eines schwach koordinierenden Anions monometallische Komplexe oder homobimetallische Komplexe synthetisiert werden. Weiterhin konnten Iridium(III), Rhodium(I) und Nickel(II) Komplexe mit den dab-O und bian-O und bian-S Liganden synthetisiert werden. Die Verbindungen wurden neben den gängigen Verfahren auch cyclovoltammetrisch, spektroelektrochemisch und durch DFT-Rechnungen untersucht.
Eine wachsende Weltbevölkerung und sich verändernde Ernährungsgewohnheiten könnten langfristig die weltweite Ernährungssicherheit gefährden. Menschen konsumieren mehr tierische Produkte (insbesondere Fleisch und Milchprodukte), Zucker, Pflanzenöle und verarbeitete Lebensmittel. Dieser Ernährungstrend fordert einen großen Flächenbedarf. Gleichzeitig werden die landwirtschaftlichen Böden in Folge der intensiven Nutzung belastet und weisen zunehmende Degradationserscheinungen auf, welche deren Bodenfruchtbarkeit und die Produktivität sinken lassen. Ebenso sinkt der Anteil verfügbarer Flächen, weil der Trend zur Urbanisierung dazu führt, dass Siedlungen, Infrastruktur, Straßen oder Gewerbegebiete gebaut werden müssen. Ferner lassen sich Wechselwirkungen zwischen Klimawandel und der Landwirtschaft beobachten. So sind auf der einen Seite die landwirtschaftlich nutzbaren Flächen u. a. durch Überschwemmungen oder Hitzeperioden direkt von den Folgen des Klimawandels betroffen. Auf der anderen Seite ist die Landwirtschaft selbst einer der Haupterzeuger klimaschädlicher Treibhausgase wie Kohlendioxid (CO2), Lachgas (N2O) und Methan (CH4). Vor diesem Hintergrund setzt sich diese Arbeit mit der Frage auseinander, ob die Etablierung nachhaltiger und regionaler Ernährungssysteme die Ernährungssicherheit in Deutschland langfristig gewährleisten und zur Erreichung der Sustainable Development Goals (SDGs) beitragen kann. Es gibt verschiedene Lösungsansätze, um diese Herausforderungen zu meistern. Dies schließt u. a. eine Optimierung des Rural-Urban-Nexus (RUN) sowie innovative urbane Ernährungskonzepte, wie Urban Farming oder die vertikale Landwirtschaft, ein.
Als Beispiele für innovative urbane Ernährungskonzepte werden im Rahmen dieser Arbeit zwei Projekte vorgestellt und analysiert. Dies ist zum einen ein integriertes Dachgewächshaus, der sogenannte „Altmarktgarten“, in Oberhausen. Der Altmarktgarten der Dachmarke InFarming ist ein ganzjährliches Gewächshaus, das auf dem Dach eines Jobcenters errichtet wurde. Die Projektverantwortlichen wollen durch den Altmarktgarten die Integration der Agrikultur in Städten vorantreiben und erhoffen sich von dem Projekt höhere Erträge und qualitativ hochwertige Pflanzen bei gleichzeitig sinkenden Transportkosten und der Fokussierung auf regionale Lebensmittelproduktion. Hierfür haben sie vertikale Kultivierungsmethoden, spezielle Belichtungsstrategien sowie Kreislaufverfahren für Wasser, Nährstoffe und Energie entwickelt.
Zum anderen wird ein frisch eröffneter Pilotsupermarkt aus Wiesbaden der Firma REWE vorgestellt, der nach dem Green-Building-Konzept, eine besonders ressourcenschonende Bauweise, errichtet wurde. In diesem Supermarkt werden nicht nur Lebensmittel verkauft, sondern auch ein Teil der Lebensmittel auf dem Dach angebaut. Damit möchte REWE den Weg für Supermärkte der Zukunft ebnen und dabei helfen, ihre Klimaziele zu erreichen. Mit Hilfe des Instruments „integrierendes Nachhaltigkeitsdreieck“ (IND) werden die beiden Projekte näher untersucht. Das IND ermöglicht es, die isolierte Betrachtung der drei Nachhaltigkeitsdimensionen (Ökologie, Ökonomie und Soziales) aufzulösen und gleichzeitig den drei Dimensionen Handlungsfelder und passende Indikatoren zuzuordnen. Die erarbeiteten Indikatoren und die zugehörigen Maßnahmen können zukünftig dabei helfen, die Nachhaltigkeitsperformance des Altmarktgartens bzw. des Pilotsupermarktes zu überprüfen.
Index Insurance for Farmers
(2021)
In this thesis we focus on weather index insurance for agriculture risk. Even though such an index insurance is easily applicable and reduces information asymmetries, the demand for it is quite low. This is in particular due to the basis risk and the lack of knowledge about it’s effectiveness. The basis risk is the difference between the index insurance payout and the actual loss of the insured. We evaluate the performance of weather index insurance in different contexts, because proper knowledge about index insurance will help to use it as a successful alternative for traditional crop insurance. In addition to that, we also propose and discuss methods to reduce the basis risk.
We also analyze the performance of an agriculture loan which is interlinked with a weather index insurance. We show that an index insurance with actuarial fair or subsidized premium helps to reduce the loan default probability. While we first consider an index insurance with a commonly used linear payout function for this analysis, we later design an index insurance payout function which maximizes the expected utility of the insured. Then we show that, an index insurance with that optimal payout function is more appropriate for bundling with an agriculture loan. The optimal payout function also helps to reduce the basis risk. In addition, we show that a lender who issues agriculture loans can be better off by purchasing a weather index insurance in some circumstances.
We investigate the market equilibrium for weather index insurance by assuming risk averse farmers and a risk averse insurer. When we consider two groups of farmers with different risks, we show that the low risk group subsidizes the high risk group when both should pay the same premium for the index insurance. Further, according to the analysis of an index insurance in an informal risk sharing environment, we observe that the demand of the index insurance can be increased by selling it to a group of farmers who informally share the risk based on the insurance payout, because it reduces the adverse effect of the basis risk. Besides of that we analyze the combination of an index insurance with a gap insurance. Such a combination can increase the demand and reduce the basis risk of the index insurance if we choose the correct levels of premium and of gap insurance cover. Moreover our work shows that index insurance can be a good alternative to proportional and excess loss reinsurance when it is issued at a low enough price.
Beamforming performs spatial filtering to preserve the signal from given directions of interest while suppressing interfering signals and noise arriving from other directions.
For example, a microphone array equipped with beamforming algorithm could preserve the sound coming from a target speaker and suppress sounds coming from other speakers.
Beamformer has been widely used in many applications such as radar, sonar, communication, and acoustic systems.
A data-independent beamformer is the beamformer whose coefficients are independent on sensor signals, it normally uses less computation since the coefficients are computed once. Moreover, its coefficients are derived from the well-defined statistical models, then it produces less artifacts. The major drawback of this beamforming class is its limitation to the interference suppression.
On the other hand, an adaptive beamformer is a beamformer whose coefficients depend on or adapt to sensor signals. It is capable of suppressing the interference better than a data-independent beamforming but it suffers from either too much distortion of the signal of interest or less noise reduction when the updating rate of coefficients does not synchronize with the changing rate of the noise model. Besides, it is computationally intensive since the coefficients need to be updated frequently.
In acoustic applications, the bandwidth of signals of interest extends over several octaves, but we always expect that the characteristic of the beamformer is invariant with regard to the bandwidth of interest. This can be achieved by the so-called broadband beamforming.
Since the beam pattern of conventional beamformers depends on the frequency of the signal, it is common to use a dense and uniform array for the broadband beamforming to guarantee some essential performances together, such as frequency-independence, less sensitive to white noise, high directivity factor or high front-to-back ratio. In this dissertation, we mainly focus on the sparse array of which the aim is to use fewer sensors in the array,
while simultaneously assuring several important performances of the beamformer.
In the past few decades, many design methodologies for sparse arrays have been proposed and were applied in a variety of practical applications.
Although good results were presented, there are still some restrictions, such as the number of sensors is large, the designed beam pattern must be fixed, the steering ability is limited and the computational complexity is high.
In this work, two novel approaches for the sparse array design taking a hypothesized uniform array as a basis are proposed, that is, one for data-independent beamformers and the another for adaptive beamformers.
As an underlying component of the proposed methods, the dissertation introduces some new insights into the uniform array with broadband beamforming. In this context, a function formulating the relations between the sensor coefficients and its beam pattern over frequency is proposed. The function mainly contains the coordinate transform and inverse Fourier transform.
Furthermore, from the bijection of the function and broadband beamforming perspective, we propose the lower and upper bounds for the inter-distance of sensors. Within these bounds, the function is a bijective function that can be utilized to design the uniform array with broadband beamforming.
For data-independent beamforming, many studies have focused on optimization procedures to seek the sparse array deployment. This dissertation presents an alternative approach to determine the location of sensors.
Starting with a weight spectrum of a virtual dense and uniform array, some techniques are used, such as analyzing a weight spectrum to determine the critical sensors, applying the clustering technique to group the sensors into different groups and selecting representative sensors for each group.
After the sparse array deployment is specified, the optimization technique is applied to find the beamformer coefficients. The proposed method helps to save the computation time in the design phase and its beamformer performance outperforms other state-of-the-art methods in several aspects such as the higher white noise gain, higher directivity factor or more frequency-independence.
For adaptive beamforming, the dissertation attempts to design a versatile sparse microphone array that can be used for different beam patterns.
Furthermore, we aim to reduce the number of microphones in the sparse array while ensuring that its performance can continue to compete with a highly dense and uniform array in terms of broadband beamforming.
An irregular microphone array in a planar surface with the maximum number of distinct distances between the microphones is proposed.
It is demonstrated that the irregular microphone array is well-suited to sparse recovery algorithms that are used to solve underdetermined systems with subject to sparse solutions. Here, a sparse solution is the sound source's spatial spectrum that need to be reconstructed from microphone signals.
From the reconstructed sound sources, a method for array interpolation is presented to obtain an interpolated dense and uniform microphone array that performs well with broadband beamforming.
In addition, two alternative approaches for generalized sidelobe canceler (GSC) beamformer are proposed. One is the data-independent beamforming variant, the other is the adaptive beamforming variant. The GSC decomposes beamforming into two paths: The upper path is to preserve the desired signal, the lower path is to suppress the desired signal. From a beam pattern viewpoint, we propose an improvement for GSC, that is, instead of using the blocking matrix in the lower path to suppress the desired signal, we design a beamformer that contains the nulls at the look direction and at some other directions. Both approaches are simple beamforming design methods and they can be applied to either sparse array or uniform array.
Lastly, a new technique for direction-of-arrival (DOA) estimation based on the annihilating filter is also presented in this dissertation.
It is based on the idea of finite rate of innovation to reconstruct the stream of Diracs, that is, identifying an annihilating filter/locator filter for a few uniform samples and the position of the Diracs are then related to the roots of the filter. Here, an annihilating filter is the filter that suppresses the signal, since its coefficient vector is always orthogonal to every frame of signal.
In the DOA context, we regard an active source as a Dirac associated with the arrival direction, then the directions of active sources can be derived from the roots of the annihilating filter. However,
the DOA obtained by this method is sensitive to noise and the number of DOAs is limited.
To address these issues, the dissertation proposes a robust method to design the annihilating filter and to increase the degree-of-freedom of the measurement system (more active sources can be detected) via observing multiple data frames.
Furthermore, we also analyze the performance of DOA with diffuse noise and propose an extended multiple signal classification algorithm that takes diffuse noise into account. In the simulation,
it shows, that in the case of diffuse noise, only the extended multiple signal classification algorithm can estimate the DOAs properly.
Getrieben durch nötige Energie- und Kosteneinsparungen finden Kunststoffe vermehrt Anwendung als Primärkomponenten in tribologischen Systemen. Der Trend zeichnet sich durch stete Forschung und Entwicklung hinsichtlich der Effektivität unterschiedlicher Materialkombinationen zur Reduktion von Reibung und Verschleiß aus, wobei die reibinduzierte Wärme zu den größten Herausforderungen zählt. Insbesondere bei variablen Lastbedingungen sowie beim Einsatz technischer Thermoplaste wirkt sich die Kontakttemperatur negativ auf die Leistungsfähigkeit des Systems aus. Die gezielte Nutzung chemischer Umwandlungsprozesse durch Einbringung reaktiver Füllstoffe wie Magnesiumhydroxid verspricht Abhilfe. Die Arbeit befasst sich mit dem Einfluss dieses Füllstoffes auf die werkstofflichen Eigenschaften eines Polyamid 66 und beleuchtet durch umfassende tribologische und oberflächenanalytische Methoden dessen grundlegende Wirkmechanismen. So konnte eine durch Reibungswärme induzierte Umwandlung bestätigt werden, die jedoch eine Schwachstelle im niedrigen Lastbereich aufgrund eines kurzzeitig ungünstigen Zusammenspiels tribochemischer und abrasiver Effekte hervorruft. Im Vergleich zu einer ungefüllten Referenz und zwei Kontrollmaterialien wird insgesamt eine deutliche und über ein großes Lastspektrum stabile Leistungssteigerung erreicht, wobei die Wirkung der Reaktionspartikel durch das Verhindern von Schäden an den integrierten Fasern sowie durch einen reaktionsumsatzabhängigen Vernarbungseffekt hervorsticht. Die Nutzung von Stoffen wie Magnesiumhydroxid stellt einen neuen Ansatz für die Polymertribologie dar und könnte zukünftig intelligente Werkstoffe hervorbringen, die durch lastabhängige Beeinflussung des tribologischen Kontakts dynamisch auf veränderliche Umgebungsbedingungen reagieren.
The concept of bioplastics as sustainable and environmentally friendly materials has become increasingly interesting in both academia and industry. Consequently, many researchers have made great effort in developing bioplastic materials. As new challenging materials, there is still a lack of in-depth understanding of the process−structure−property relationships, especially in multi-phase component nanocomposites. In this thesis, the bioplastics − poly(lactic acid) (PLA)/polybutylene adipate-co-terephthalate (PBAT)-based nanocomposites containing nano-SiO2 particles − are examined. Various processing procedures are carried out to investigate their effect on the structure−property relationships of the nanocomposites. The selective location of the nanoparticles is observed with respect to the processing sequence. The differences in nanoparticle location have a tremendous impact on the rheological, thermal, and mechanical properties of the PLA/PBAT-based nanocomposites. Furthermore, a numerical simulation of the temperature distribution during the injection molding process is applied to corroborate the effect of the injection molding conditions on the final properties. By understanding the working mechanism and behavior of the phase morphology of the studied nanocomposites, the desirable properties can be optimized and adjusted for proper applications.
The nondestructive testing of multilayered materials is increasingly applied in
both scientific and industrial fields. In particular, developments in millimeter
wave and terahertz technology open up novel measurement applications, which
benefit from the nonionizing properties of this frequency range. One example is
the noncontact inspection of layer thicknesses. Frequently used measuring and
analysis methods lead to a resolution limit that is determined by the bandwidth
of the setup. This thesis analyzes the reliable evaluation of thinner layer thicknesses
using model-based signal processing.
Academic research on urban shrinkage and depopulation has advanced significantly in
recent years, mostly by attributing causality between the reasons and consequences of shrinkage in the
positivist tradition of planning research. This paper critically analyzes shrinkage and depopulation
as an issue of planning and policymaking in a broader institutional context. By applying a qualitative
interpretive policy analysis methodology to planning and policy narratives from Spain, Germany
and The Netherlands, this article highlights and scrutinizes how policymakers and planners have
framed shrinkage, and how this framing has justified some of the selected planning and policy
approaches. It is concluded that framing shrinkage in practice may only partially encompass the
scientific definitions. It is also concluded that framing shrinkage and depopulation as a crisis may be
determined by locally and temporally important issues as well as differences in planning cultures,
which in practice may distance the understanding of the phenomenon from the scientific definitions.
Debates on shrinkage conceptualization and the development of new planning concepts can become
more applicable in practice by incorporating insights from qualitative investigations. This can bring
them closer to planning practice and embed them in a wider planning system context, so as to
produce more applicable and contextually sensitive proposals for addressing shrinkage.
Characterization of an Aerosol-Based Photobioreactor for Cultivation of Phototrophic Biofilms
(2021)
Phototrophic biofilms, in particular terrestrial cyanobacteria, offer a variety of biotechnologically interesting products such as natural dyes, antibiotics or dietary supplements. However,
phototrophic biofilms are difficult to cultivate in submerged bioreactors. A new generation of biofilm
photobioreactors imitates the natural habitat resulting in higher productivity. In this work, an aerosol-based photobioreactor is presented that was characterized for the cultivation of phototrophic biofilms.
Experiments and simulation of aerosol distribution showed a uniform aerosol supply to biofilms.
Compared to previous prototypes, the growth of the terrestrial cyanobacterium Nostoc sp. could be
almost tripled. Different surfaces for biofilm growth were investigated regarding hydrophobicity,
contact angle, light- and temperature distribution. Further, the results were successfully simulated.
Finally, the growth of Nostoc sp. was investigated on different surfaces and the biofilm thickness was
measured noninvasively using optical coherence tomography. It could be shown that the cultivation
surface had no influence on biomass production, but did affect biofilm thickness.
Messtechnische Bestimmung der Outputfaktoren für die roboter-gestützte Hochpräzisionsbestrahlung
(2021)
Als ein Teilbereich der Strahlentherapie fokussiert sich die Radiochirurgie auf klar abgrenzbare und nicht allzu große Tumore. Durch eine Eskalation der eingestrahlten Dosis in wenigen Fraktionen wird eine bessere Tumorkontrolle angestrebt. Allerdings wird hierbei das therapeutische Fenster weiter verkleinert. Um dieses schmale Fenster optimal zu nutzen, muss der Dosisgradient hin zum Normalgewebe extrem steil sein. Des Weiteren müssen sehr kleine Feldgrößen wählbar sein um eine sehr gute Dosiskonformität zu erzielen. Die Unschärfen der Einzelschritte der Therapiekette sollten minimal sein. Um diese Anforderungen an die geometrische, dosimetrische und letztlich an die Genauigkeit des Gesamtsystems zu erfüllen, sind dedizierte Geräte notwendig. Als dediziertes Gerät für die Radiochirurgie nutzt das Cyberknife© VSI (Fa. Accuray, Sunnyvale, CA, USA) die Kombination vieler kleiner Felder von 60 mm bis zu 5 mm Durchmesser unter verschiedenen Einstrahlrichtungen um die Dosis selbst bei irregulär geformten Tumoren hochkonformal, unter maximaler Schonung des umgebenden Gewebes, anzupassen. Durch die nichtisozentrische Feldanordnung wird dies noch einmal verbessert. Voraussetzung neben der geometrischen Präzision ist die exakte dosimetrische Berechnung der einzelnen, kleinen Felder aus denen letztlich die Gesamtdosis resultiert. Doch gerade die Kleinfelddosimetrie ist hochempfindlich und daher oftmals mit Fehlern behaftet. Neben der Positioniergenauigkeit, ist die Auswahl der geeigneten Detektoren in Bezug auf Größe und Material, für die Messung der kleinen Felder, besonders wichtig. Insbesondere die korrekte Bestimmung der Wasser-Energiedosis auf dem Zentrahlstrahl, aufgrund des fehlenden lateralen Sekundärelektronengleichgewichts, bleibt auch bei der Verwendung geeigneter Detektoren fehleranfällig. Als Outputfakor bzw. auch totaler Streufaktor, wird das Verhältnis der Dosis auf dem Zentrahlstrahl eines beliebigen Feldes zu einem Referenzfeld bezeichnet. Um eine Gesamtungenauigkeit in der Dosisberechnung von 5 % einzuhalten, ist es notwendig eben diese Outputfaktoren mit einer Unsicherheit von < 3 % zu bestimmen. Ziel der Arbeit ist es anhand verschiedener, für diesen Messzweck geeigneten, Detektoren die Outputfaktoren für die fixen Rundkollimatoren sowie für die Iriskollimatoren des Cyberknife© VSI Systems (Fa. Accuray, Sunnyvale, CA, USA) zu bestimmen. Das Augenmerk gilt hierbei den Feldgrößen kleiner als 25 mm. Ab dieser Feldgröße herrscht aufgrund der Photonengrenzenergie von 6 MeV kein laterales Sekundärelektronengleichgewicht, da die Reichweite der Elektronen größer als die betrachtete Feldgröße ist. Somit lassen sich die Outputfaktoren bzw. totale Streufaktoren nicht direkt mit den zur Verfügung stehenden Messmitteln messen, sondern müssen mit detektorspezifischen Korrekturfaktoren bestimmt werden. Die gemessenen Outputfaktoren werden ausgewertet und mit den Ergebnissen in der Literatur diskutiert. Aus den Ergebnissen der verschiedenen Detektoren soll ein gemittelter Wert abgeleitet und für die Dosisberechnungsalgorithmen als Basisdaten übernommen werden und zu einer Erhöhung der Gesamtgenauigkeit führen.
Gängige Füllstandmesssysteme für mobile Schüttgutsilos werden i. d. R. invasiv an der Innenseite des Behälters angebracht. Hierdurch sind die Sensoren abrasiven Mechanismen und einem entsprechend hohen Verschleiß ausgesetzt. Dies führt zu einer geringen Wirtschaftlichkeit der bisherigen Füllstandüber-wachung von mobilen Schüttgutsilos. Im Rahmen dieser Arbeit wird die Umsetzbarkeit eines alternativen, nichtinvasiven Sensorkonzeptes untersucht, welches auf der Auswertung der füllstandabhängigen Impulsantwort des Silos basiert.
Hierzu werden anhand einer analytischen Modellierung des Messsystems die potentiellen Einflussgrößen des Sensorkonzeptes identifiziert. Anschließend werden die potentiellen Einflussgrößen im Rahmen numerischer Untersuchungen (FEM/DEM) näher analysiert und bewertet. Die ermittelten, scheinbar kritischen Einflussgrößen werden weiterhin experimentell untersucht. Es werden zwölf Füllstandkennwerte definiert, anhand derer eine Support Vector Machine trainiert und anschließend zur robusten Ermittlung des Füllstandes verwendet wird.
Das Zusammenspiel von emotionalem Erleben und motivationalen Aspekten in kollaborativen Situationen
(2021)
Das Lernen und Arbeiten in Gruppen stellt in akademischen Kontexten eine beliebte Methode dar, die unter anderem dem Erwerb von Sozial- und Selbstlernkompetenzen dienen kann. Sie kann für Teilnehmende darüber hinaus gewinnbringend sein, indem durch gemeinsames Durchdenken, Besprechen und Erklären tiefer gehende Lernprozesse der Teilnehmenden angeregt und Vorurteile abgebaut werden. Das Lernen und Arbeiten in Gruppen kann aber auch problembehaftet sein und z. B. durch unangemessene Kommunikation oder fehlschlagende Koordination negative Emotionen sowie eine negative Einstellung zu Gruppenarbeiten auslösen. Günstigstenfalls entwickeln die Teilnehmenden in kollaborativen Situationen soziale und Problemlösekompetenzen, erweitern ihr Wissen und werden auf Situationen in der Berufswelt vorbereitet, in der das Zusammenarbeiten in oftmals heterogenen Gruppen praktiziert und verlangt wird. Im ungünstigsten Fall entwickeln sie eine negative Einstellung zu Gruppenarbeiten und verschließen sich dem Zusammenarbeiten in Teams. Beide Erfahrungen können sich auf die Motivation von Lernenden auswirken. Die vorliegende Forschungsarbeit nimmt das emotionale Erleben von Teilnehmenden während einer Kollaboration und die Gründe, die aus ihrer Sicht zu einer erfolgreichen Kollaboration führten, in den Blick. Hierfür wurden in einer ersten explorativen Studie methodische Fragestellungen im Hinblick auf das Erhebungssetting und die Erhebungsmethoden adressiert. In der darauffolgenden Studie fanden das erprobte Setting und der entwickelte Kodierleitfaden Anwendung. Weiterhin wurden die gezeigten Emotionen mit Blick auf die Gruppenzusammensetzung (Geschlecht, Ausmaß der Bekanntschaft untereinander und Erfahrung mit dem Lerngegenstand) detailliert betrachtet. Ferner wurden die Gründe, die aus Sicht der Teilnehmenden zu einer erfolgreichen Kollaboration führten, identifiziert.
In recent decades, there has been increasing interest in analyzing the behavior of complex systems. A popular approach for analyzing such systems is a network analytic approach where the system is represented by a graph structure (Wassermann&Faust 1994, Boccaletti et al. 2006, Brandes&Erlebach 2005, Vespignani 2018): Nodes represent the system’s entities, edges their interactions. A large toolbox of network analytic methods, such as measures for structural properties (Newman 2010), centrality measures (Koschützki et al. 2005), or methods for identifying communities (Fortunato 2010), is readily available to be applied on any network structure. However, it is often overlooked that a network representation of a system and the (technically applicable) methods contain assumptions that need to be met; otherwise, the results are not interpretable or even misleading. The most important assumption of a network representation is the presence of indirect effects: If A has an impact on B, and B has an impact on C, then A has an impact on C (Zweig 2016, Brandes et al. 2013). The presence of indirect effects can be explained by ”something” flowing through the network by moving from node to node. Such network flows (or network processes) may be the propagation of information in social networks, the spread of infections, or entities using the network as infrastructure, such as in transportation networks. Also several network measures, particularly most centrality measures, assume the presence of such a network process, but additionally assume specific properties of the network processes (Borgatti 2005). Then, a centrality value indicates a node’s importance with respect to a process with these properties.
While this has been known for several years, only recently have datasets containing real-world network flows become accessible. In this context, the goal of this dissertation is to provide a better understanding of the actual behavior of real-world network processes, with a particular focus on centrality measures: If real-world network processes turn out to show different properties than those assumed by classic centrality measures, these measures might considerably under- or overestimate the importance of nodes for the actual network flow. To the best of our knowledge, there are only very few works addressing this topic.
The contributions of this thesis are therefore as follows: (i) We investigate in which aspects real-world network flows meet the assumptions contained about them in centrality measures. (ii) Since we find that the real-world flows show considerably different properties than assumed, we test to which extent the found properties can be explained by models, i.e., models based on shortest paths or random walks. (iii) We study whether the deviations from the assumed behavior have an impact on the results of centrality measures.
To this end, we introduce flow-based variants of centrality measures which are either based on the assumed behavior or on the actual behavior of the real-world network flow. This enables systematic evaluation of the impact of each assumption on the resulting rankings of centrality measures.
While–on a large scale–we observe a surprisingly large robustness of the measures against deviations in their assumptions, there are nodes whose importance is rated very differently when the real-world network flow is taken into account. (iv) As a technical contribution, we provide a method for an efficient handling of large sets of flow trajectories by summarizing them into groups of similar trajectories. (v) We furthermore present the results of an interdisciplinary research project in which the trajectories of humans in a network were analyzed in detail. In general, we are convinced that a process-driven perspective on network analysis in which the network process is considered in addition to the network representation, can help to better understand the behavior of complex systems.
Die Energieeffizienz wird, bedingt durch kontinuierlich schärfere Auflagen des Gesetzgebers aber auch steigende Anforderungen seitens der Anwender, ein zunehmend entscheidendes Kriterium bei der Auslegung hydraulischer Systeme. Neben neuartigen Systemarchitekturen liegt das Augenmerk besonders auf dem, die hydraulische Energie bereitstellenden, Pumpenantrieb. Wegen der großen Zahl verfügbarer Pumpen und Motoren im Zusammenspiel mit dem sehr weiten Anwendungsfeld gestaltet sich die Auswahl des optimalen Pumpenantriebs schwierig. Hier setzt die vorliegende Arbeit an und entwickelt am Beispiel von Zahnradpumpenantrieben eine Methode, wie die energieeffiziente Auslegung systematisch durchgeführt werden kann. Im Kern der Auslegungsmethode steht dabei die Analyse des Energieflusses durch die Wandlungskette des Pumpenantriebs. Neben der benötigten Messtechnik unterstützen auch Simulationsmodelle bei der Analyse der Einflussparameter auf den Wirkungsgrad. Die vorgestellte Methode ermöglicht es Anwendern wie Systementwicklern, auf Basis des Lastzyklus einer Anwendung die hierfür energieeffizienteste Antriebslösung zu bestimmen. Darüber hinaus lassen sich aus der Analyse auch noch Verbesserungspotentiale ableiten, wie der gesamte Prozess noch effizienter gestaltet werden kann. Letztlich müssen bei einer solchen Effizienzoptimierungen auch weitere Wechselwirkungen des Pumpenantriebs mit dem Prozess berücksichtigt werden, die für den sicheren und fehlerfreien Betrieb entscheidend sind. Dies erfolgt in dieser Arbeit beispielhaft für das thermische Verhalten der Pumpe in kritischen Betriebszuständen.
Als Basis für die hochschuleigenen Konzepte zur Steigerung des Studienerfolgs in Sachsen verfasste das Staats-ministerium für Wissenschaft und Kunst (SMWK) im Jahr 2014 die „Strategie zur Steigerung der Qualität und Effizienz der Hochschulausbildung sowie zur Steigerung der Studienerfolgsquote im Freistaat Sachsen“. Vor dem Hintergrund des steigenden Bedarfs an akademisch qualifizierten Fachkräften ist es laut sächsischer Strategie ein zentrales Ziel der Hochschulen, „möglichst viele Studierende in einem vertretbaren Zeitrahmen zu einem erfolgreichen Studienabschluss zu führen – mit einem Wort: Den Studienerfolg zu erhöhen“. Die Hoch-schulen sehen sich damit vor die Herausforderung gestellt, neue Studierendengruppen zu gewinnen, die Stu-dierenden auf ihrem Weg zum Studienabschluss zu unterstützen und gezielt auf den Einstieg in den wissen-schaftlichen und wirtschaftlichen Arbeitsmarkt vorzubereiten.
The subject of this thesis is the design of axial flow machines. The type of turbomachine under examination is used to supply energy for high viscous fluid flow, as used in mixing and stirring tasks. The high viscous media treated in these tasks usually have non-Newtonian fluid properties. This kind of fluid flow is frequently associated with the field of energy and process engineering.
In order to narrow down the problem described, the field of turbomachinery is restricted to the consideration of propellers. Propellers are used in a wide range of fluid mechanics tasks. In the form of wind turbines, propellers extract kinetic energy from a control room and thereby slow down the flow. Propeller stirrers, on the other hand, increase the energy level of a flow and accelerate it. Both machines are based on the same principle - only the direction of the energy flow is to be considered as the opposite direction.
The design of new agitators is usually based on experience. Often, agitators are, therefore, not flow-optimised, and cannot be optimally operated. In this thesis, it is investigated whether the design processes of modern wind turbines, which are considered to be mature, can be adapted in order to generate a flow-optimised geometry for this type of turbomachine as well.
This thesis will first examine the basics of wind turbine design processes. Special attention will be paid to the differences caused by the viscous fluid properties under consideration. The highly viscous behaviour of the fluids under consideration means that the theoretical fundamentals have to be extended as a result. Such extensions are identified and supplement the theoretical basis. The thesis will then present and examine an analytically based design process for flow-optimised propeller mixers. The procedure is based on blade element momentum theory.
Application of blade element momentum theory requires detailed knowledge of the aerodynamic behaviour of the profiles used. This behaviour is usually only known for low viscosity and high-Re applications, as is usually the case for wind turbines or propeller engines. Comprehensive profile characteristics are not available for highly viscous and low-Re applications. In this thesis, these basics are generated using numerical methods.
In the next step, the newly introduced design method is combined with the results of the investigations of profile aerodynamics for high viscous low-Re fluid flow. This combination is done using a calculation process which produces the flow-optimised geometry of a propeller mixer. The theoretical principles of the methods are implemented in an algorithm in such a way that the resultant turbomachine can be designed for a previously selected operating point, the design point. In contrast to classical turbomachinery, the design point additionally requires the specification of viscous fluid properties.
However, in practical use, the final selected operating point of a turbomachine is often not the design point. The algorithm is examined for its suitability for inverse power calculation as well in order to compute the complete characteristic curve for a previously generated propeller mixer already in the design process.
Parkbauten aus Stahlbeton sind v. a. in den Wintermonaten chloridhaltigen Wässern ausgesetzt. Dringen die Chloride über Risse bis zum Bewehrungsstahl vor, so kann dies Bewehrungskorrosion auslösen. Ebenfalls korrosionsauslösend kann CO2 sein. Beides geht, sofern keine Schutzmaßnahmen getroffen werden, mit dem Verlust der Gebrauchstauglichkeit bis hin zur Gefährdung der Standsicherheit des Bauwerks einher. Eine mögliche Maßnahme zum Schutze des Bauwerks vor diesen korrosionsauslösenden Medien stellt der Oberflächenschutz mit polymeren Systemen dar. Aufgrund der Befahrung durch PKWs sind die Oberflächenschutzsysteme mechanischem Abrieb ausgesetzt, welchem sie nur eine gewisse Zeit widerstehen können. Der Nachweis der Verschleißbeständigkeit erfolgt normativ gegenwärtig mit Verfahren, die aus anderen Bereichen entliehen sind und die hier auftretenden Verschleißmechanismen nicht ansatzweise widerspiegeln.
Im theoretischen Teil dieser Arbeit werden die verschiedenen Aufbauvarianten von Oberflächenschutzsystemen und deren Funktionsweise erörtert. Ebenfalls werden die normativen und nicht normativ geregelten Prüfverfahren hinsichtlich der wirkenden Verschleißmechanismen bewertet. Im anschließenden praktischen Teil werden die Entwicklung und Evaluierung der Tauglichkeit eines eigenen Prüfstandes vorgestellt. Zusätzlich erfolgt eine Abgrenzung des Prüfverfahrens zum BCA-Verfahren (normatives Prüfverfahren) und dem Bänziger Rad (Prüfstand der Sika Deutschland GmbH). Neben der Prüfung marktüblicher Beschichtungssysteme werden weitere Parameter hinsichtlich ihrer Verschleißbeständigkeit geprüft. Dazu zählen die umgebungsbedingten Einflüsse wie eine zusätzliche Wasserbeaufschlagung und Verunreinigungen der Oberfläche, die durch eine Splittbeaufschlagung dargestellt werden, sowie der produktspezifische Einfluss der Deckversiegelung. Es können sowohl Unterschiede zwischen als auch innerhalb eines Oberflächenschutzsystemes aufgezeigt werden. Neben der Durchführung der Verschleißversuche werden auch verschiedene Wege zur Dokumentation des Verschleißes entwickelt. Hiervon hervorzuheben ist die zerstörungsfreie Aufzeichnung des Verschleißes mittels eines 2D / 3D-Lasers. Weiterhin werden mechanische Werkstoffparameter ermittelt und deren Aussagekraft hinsichtlich einer Verschleißbeständigkeit bewertet.
Die Ergebnisse der vorgenannten Forschungsvorhaben mündeten in einen beim Bundesministerium für Wirtschaft und Energie (BMWi) im Rahmen der Förderschiene "WIPANO - Wissens- und Technologietransfer durch Patente und Normen" beantragten und inzwischen bewilligten Normungsantrag mit dem Titel „Entwicklung eines Prüfverfahrens zur Bestimmung der Verschleißbeständigkeit von befahrenen Oberflächenschutzsystemen mit Hilfe des Parking Abrasion Test (PAT-Verfahren)“.
Kunststoffe gewinnen aufgrund ihres vorteilhaften Eigenschaftsprofils in tribologischen
Anwendungen zunehmend an Bedeutung. Eine Herausforderung bei der Entwicklung tribologischer
Systeme mit Kunststoffgrundkörpern stellt die eingeschränkte Übertragbarkeit
experimentell ermittelter tribologischer Eigenschaften aus standardisierten Modellversuchen
dar. Diese stimmen oftmals nicht mit dem Verhalten überein, welches in anwendungsnäheren
Prüfkonfigurationen beobachtet wird. In der vorliegenden Arbeit
wurde die Temperaturverteilung innerhalb des tribologischen Systems als mögliche Ursache
für diese Diskrepanzen untersucht. Tribocompounds auf Basis von PEEK wurden
sowohl in Modellsystemen als auch in anwendungsnäheren Prüfkonfigurationen experimentell
charakterisiert. Für die Analyse des Wärmehaushaltes und der resultierenden
Temperaturverteilungen in den unterschiedlichen Prüfsystemen wurden FEM-Modelle
aufgebaut. Durch die Kopplung von Modellversuchen unter gezielter Temperaturführung
mit numerischen Parameterstudien konnten Reibungskoeffizienten in den anwendungsnahen
Prüfkonfigurationen in guter Näherung vorhergesagt werden. Darüber hinaus wurden
hilfreiche Erkenntnisse zur Modellierungsmethodik und zur Validität bekannter analytischer
Berechnungsansätze für die wärmetechnische Beschreibung tribologischer Systeme
gewonnen.
LinTim is a scientific software toolbox that has been under development since 2007, giving the possibility to solve the various planning steps in public transportation. Although the name originally derives from "Lineplanning and Timetabling", the available functions have grown far beyond this scope. This document is the documentation for version 2021.10. For more information, see https://www.lintim.net
The high complexity of civil engineering structures makes it difficult to satisfactorily evaluate their reliability. However, a good risk assessment of such structures is incredibly important to avert dangers and possible disasters for public life. For this purpose, we need algorithms that reliably deliver estimates for their failure probabilities with high efficiency and whose results enable a better understanding of their reliability. This is a major challenge, especially when dynamics, for example due to uncertainties or time-dependent states, must be included in the model.
The contributions are centered around Subset Simulation, a very popular adaptive Monte Carlo method for reliability analysis in the engineering sciences. It particularly well estimates small failure probabilities in high dimensions and is therefore tailored to the demands of many complex problems. We modify Subset Simulation and couple it with interpolation methods in order to keep its remarkable properties and receive all conditional failure probabilities with respect to one variable of the structural reliability model. This covers many sorts of model dynamics with several model constellations, such as time-dependent modeling, sensitivity and uncertainty, in an efficient way, requiring similar computational demands as a static reliability analysis for one model constellation by Subset Simulation. The algorithm offers many new opportunities for reliability evaluation and can even be used to verify results of Subset Simulation by artificially manipulating the geometry of the underlying limit state in numerous ways, allowing to provide correct results where Subset Simulation systematically fails. To improve understanding and further account for model uncertainties, we present a new visualization technique that matches the extensive information on reliability we get as a result from the novel algorithm.
In addition to these extensions, we are also dedicated to the fundamental analysis of Subset Simulation, partially bridging the gap between theory and results by simulation where inconsistencies exist. Based on these findings, we also extend practical recommendations on selection of the intermediate probability with respect to the implementation of the algorithm and derive a formula for correction of the bias. For a better understanding, we also provide another stochastic interpretation of the algorithm and offer alternative implementations which stick to the theoretical assumptions, typically made in analysis.
Using Enhanced Logic Programming Semantics for Extending and Optimizing Synchronous System Design
(2021)
The semantics of programming languages assign a meaning to the written program syntax.
Currently, the meaning of synchronous programming languages, which are especially designed to develop programs for reactive and embedded systems, is based on a formal semantics definition similar to Fitting`s fixpoint semantics for logic programs.
Nevertheless, it is possible to write a synchronous program code that does not evaluate to concrete values with the current semantics, which means those programs are currently seen to be not constructive.
In the last decades, the theoretical knowledge and representation of semantics for logic programming has increased, but not all theoretical results and achievements have found their way to practice and application in system design.
This thesis, in a first part, focuses on extensions to the semantics of synchronous programming languages to an evaluation similar to a well-founded semantics as defined in logic programming by van Gelder, Ross and Schlipf and to the stable model semantics as defined by Gelfond and Lifschitz. Particularly, this allows an evaluation for some of the currently not constructive programs where the semantics based on Fitting`s fixpoint fails.
It is shown that the extension to well-founded semantics is a conservative extension of Fitting`s semantics, so that the meaning for programs which were already constructive does not change. Finally, it is considered how one can still generate circuits that implement the considered synchronous programs with the well-founded semantics. Again, this is a conservative approach that does not modify the circuits generated by the so-far used synthesis procedures.
Answer set programming and the underlying stable model semantics describe problems by constraints and the related answer set solvers give all solutions to that problem as so-called answers. This allows the formulation of searching and planning problems as well as efficient solutions without having the need to develop special and possibly error-prone algorithms for every single application.
The semantics of the synchronous programming language Quartz is also extended to the stable model semantics. For this extension, two alternatives are discussed: First of all, a direct extension similar to the extension to well-founded semantics is discussed. Second, a transformation of synchronous programs to the available answer set programming languages is given, as this allows to directly use answer set solvers for the synthesis and optimization of synchronous systems.
The second part of the thesis contains further examples of the use of answer set programming in system design to emphasis their benefits for system design in general. The first example is hereby the generation of optimal/minimal interconnection-networks which allow non-blocking connections between n sources and n targets in parallel. As a second example, the stable model semantics is used to build a complete compiler chain, which transforms a given program to an optimal assembler code (called move code) for the new SCAD processor architecture which was developed at the University of Kaiserslautern. As a final part, the lessons learned from the two examples are shown by the means of some enhancement ideas for the synchronous programming language paradigm.
Property-Driven Design
(2021)
We introduce Property-Driven Design, a tool-flow that guarantees formal soundness be- tween ESL and RTL and thus enables a shift-left of general functional verification by moving HW verification to higher abstraction layers. In addition, by generating a formal Verification IP (VIP) automatically from ESL descriptions, the entry hurdle to formal methods is reduced considerably, opening them to a wider audience, which effectively ‘democratizes’ them. Short feedback cycles reduce time spent on RTL verification and lead to higher-quality designs.
There are a lot of photonic micro- and nano-structures in nature that consist of materials with a low refractive index and that can keep up with artificial structures concerning optical properties like scattering or coloration. This work aims to understand the photonic structures in the silver ant Cataglyphis bombycina, the blue butterfly of genus Morpho, the beetle Entimus imperialis, which shows polarization-dependent reflection, and the white beetle Cyphochilus insulanus. Furthermore, corresponding micro- and nano-structures are fabricated.
Bioinspired models with the same optical properties as the investigated structures are developed and analyzed using geometric optics and finite-difference time-domain calculations. These models are qualitatively and quantitatively compared regarding their optical properties with the original structures and fabricated by direct laser writing. To mimic potential effects of material-based disorder of the natural photonic structures, a cellulose-based resist for direct laser writing is developed and examined.
Conventional resists in direct laser writing can be replaced by a resist containing cellulose derivatives. Here, different combinations of cellulose derivatives, initiators, and solvents are examined. The best performance is observed for a combination of methacrylated cellulose acetate (MACA500), 2-Isopropyl-9H-thioxanthen-9-one (ITX), and dimethyl sulfoxide (DMSO). These resists allow for direction is attained. The achieved cross-linking enables stable three-dimensional structures and, together with the possible resolution, allows to fabricate the model inspired by the white beetle Cyphochilus insulanus in the cellulose-based resist.
The silver appearance of the Cataglyphis bombycina can be completely explained with geometric optics in the prism-shaped hairs that cover its body. The more complex structures of the other three insects use photonic crystal-like material arrangements with a varying amount of disorder. The polarization dependence of the Entimus imperialis arises from a diamond structure inside the scales of the beetle and can be mimicked with a photonic woodpile crystal. The blue butterfly of the genus Morpho and the white beetle Cyphochilus insulanus both can be reduced to disordered Bragg stacks, in which the exact properties are achieved by introducing different amounts of disorder. For Cataglyphis bombycina, Entimus imperialis, and Cyphochilus insulanus, the developed bioinspired models are fabricated using conventional resists in direct laser writing. All models show a qualitative correspondence to the optical properties of the original structures.
The cellulose-based resists enable the use of polysaccharides in direct laser writing and the concepts can be transferred to other polysaccharides, like chitin. The analysis of the different natural photonic structures and the developed bioinspired models reveal a material independence of the structures that allows the fabrication of these models in different transparent materials.
Im Rahmen dieser Arbeit wurden Liganden des Typs 2-(2‘-Pyridinyl)pyrimidin untersucht, funktionalisiert und in Folgereaktionen eingesetzt. Dabei wurden verschiedene Substituenten in 4- und 6-Position der Pyridineinheit eingeführt, sowie die daraus resultierenden Liganden mit verschiedenen Metallen insbesondere Iridium und Palladium umgesetzt. Erhaltene N,N-koordinierte Komplexe konnten in der Gasphase hinsichtlich ihrer Aktivierungsbarriere für eine sogenannte roll-over Cyclometallierung untersucht werden. Mit Hilfe der Ergebnisse dieser Untersuchungen konnte identifiziert werden konnte, dass stark elektronenschiebende Substituenten den roll-over Prozess erleichtern. Die Schlussfolgerungen der Voruntersuchungen konnten anschließend in die Praxis umgesetzt werden und in der Folge stabile roll-over cyclometallierte Iridium(III)komplexe in Lösung erhalten werden. Diese C,N-koordinierten Komplexe wurden in Folgereaktionen intensiv weitererforscht. Beispielsweise wurden mehrere bimetallische Komplexe synthetisiert, charakterisiert und für den Einsatz in Katalyse und Photochemie untersucht. Neben den Umsetzungen der Liganden mit Iridium(III), zeigte ein Palladium(II)komplex äußert interessante Eigenschaften. Beim Vergleich mit ähnlichen Liganden, die unter den gleichen Bedingungen umgesetzt wurden, konnte beim erwähnten Komplex ein deutlicher Unterschied der Bindung zwischen Palladium(II)zentrum und Ligand festgestellt werden. Während andere Komplexe ebenfalls eine roll-over Cyclometallierung durchlaufen, wird beim genannten Komplex ein sp3-hybridisiertes Wasserstoffatom substituiert und eine C,N,N-Koordination erhalten. Die Schlussfolgerungen aus beiden Bereichen brachten die interessante Erkenntnis, dass für den untersuchten Typ Ligand die benötigte Elektronendichte innerhalb eines engen Fensters liegen muss, was die Entwicklung eines Pyrimidinylpyrimidinliganden zur Folge hatte.
In einem gesonderten Teilbereich wurden außerdem Platin(II)komplexe für die Etablierung einer stopped-flow Messzelle an der Technischen Universität Kaiserslautern entwickelt. Dazu wurde die sehr elektronenreiche Vorstufe Bis(dimethylsulfoxid)dimethylplatin(II) mit einer Reihe verschieden konfigurierter Bipyridine umgesetzt. Die erhaltenen Komplexe wurden durch den Arbeitskreis Gerhards der physikalischen Chemie mit Acetylchlorid zur Reaktion gebracht und die unterschiedlichen Reaktionsgeschwindigkeiten IR-spektroskopisch untersucht.
In this thesis, the software development principles of Model-Driven Architecture have been adopted for developing a generation flow for properties. The taken approach for property generation introduces three models, namely the Model-of-Things, the Model-of-Property, and the Model-of-View. Each model belongs to a distinct model layer in the generation flow and each model layer addresses a specific concern of the property generation. The separation of concerns through model layers ensures modular flow development, and enables uncomplicated enhancements and feature extensions. The properties are generated through a series of model-to-model transformations between these model layers. Python is used as the domain-specific language for describing the intermediate transformations. A metamodel-based automation framework is utilized to generate an infrastructure that facilitates the description of transformations. The APIs that form the central part of the infrastructure are generated from the metamodel definitions of the models mentioned before. The generated APIs are further extended with domain-specific APIs to significantly reduce the effort required for developing the transformations. The property generation solution developed in this thesis is termed as “MetaProp”.
A key aspect of the property generation flow is the translation of informal specifications to formal specification models. Due to the diverse nature of hardware designs, the methodology includes different modeling paradigms to formalize the specifications. The metamodel Meta-Expression provides features to describe the behavior of combinational designs in the form of expression trees and dataflow expressions. The MetaExpression metamodel is modular in nature and can be integrated into other metamodel definitions that capture the specification level configurations of the design. For modeling the behavior of sequential designs, a formalism using finite state machine-like notations for traces is introduced. The metamodel MetaSTS defines this formalism. The MetaSTS metamodel enables to define the behavior of sequential designs with annotated timing information for transitions between important states. Annotation is also used to map abstract states in the Model-of-Things to the Model-of-Property and, finally, to the design implementation. Such an annotation or binding mechanism enables Model-of-Properties to be applicable on a variety of design implementations.
Another important contribution of this thesis is a complete processor verification methodology, which is based on the aforementioned generation approach. The introduced methods for specification modeling are employed to formalize the ISA and the behavior of instructions within the processor pipelines. However, it requires substantial manual efforts and in-depth knowledge of the microarchitectural details of the processor implementation to describe the transformations that define the Model-of-Properties. The prime reason for this requirement is the overlapped execution of instructions within the pipelined architectures of processors and the numerous internal and external pipeline stall scenarios. For a complete processor verification, a set of generated properties must consider all combinations of instruction overlapping coupled with all scenarios of pipeline stalls. In retrospect, the Model-of-Properties —from which the properties are generated — are required to consider all combinations of the aforementioned scenarios. To address these aspects, the C-S²QED method — an extension of the S²QED method — has been developed to completely verify a processor. The C-S²QED method is also applicable to exceptions within the processor pipelines and superscalar pipeline architectures. The C-S²QED method detects all functional bugs in a processor implementation and requires significantly less manual efforts compared to state-of-the-art processor verification methods. The completeness hypothesis of the C-S²QED method based on the completeness criterion defined by C-IPC and a completeness proof are also part of this thesis. The property generation flow has been leveraged to generate a set of C-S²QED properties to further enhance the effectiveness of the methodology.
The applicability and effectiveness of the introduced modeling paradigms and developed methods have been demonstrated with the formal verification of several industry strength designs. Numerous logic bugs including the bugs that are typically regarded as difficult to find have been detected during the formal verification with generated properties. Most IPs of an SoC called “RiVal” including the RISC-V core and excluding the legacy IPs have been formally verified only with the proposed methods in this thesis. The Rival SoC is used in the powertrain and safety automotive applications. The manufactured chip works “first time right” and no logic bug has been detected during the post-manufacturing tests. Various architectural alternatives of the RISC-V based processor designs are verified with the generated C-S²QED properties. The property generation is built in a configurable manner such that any changes in microarchitecture of the processor — that may be caused by the changes in specifications — are implicitly covered by the generation flow. Thus, additional manual efforts are not required and the functional flaws due to the changes in specifications are neutralized. Furthermore, the proposed methods have also been applied to communication protocol IPs, bus bridges, interrupt controllers and safety-relevant designs.
Die realkalisierende Wirkung von mineralischen Mörteln ist aus der Instandsetzung von carbonatisierten Betonen im Hochbau bekannt. Die Anwendungsgrenzen beziehen sich dabei entsprechend der DAfStb-Richtlinie „Schutz und Instandsetzung von Betonbauteilen“ auf die Verwendung eines Portlandzement basierten (CEM I) Instandsetzungsmaterials sowie darauf, dass die mittlere carbonatisierungstiefe um nicht mehr als 20 mm hinter die Bewehrung vorgedrungen ist. Bei der Instandsetzung von Trinkwasserbehältern wird die Realkalisierung von mineralischen Beschichtungen ebenfalls bei der Anwendung der Auskleidungsprinzipien unter Berücksichtigung zusätzlicher technischer und hygienischer Randbedingungen zugrunde gelegt.
Für die Anwendung in Trinkwasserbehältern wird das Realkalisierungsdepot mineralischer Beschichtungen zwar als Fähigkeit zur Erhöhung der Alkalität des Altbetons definiert, jedoch fehlen bisher hinreichende wissenschaftliche Erkenntnisse, damit die Realkalisierung für Anwender und Planer im Trinkwasserbereich fassbar und abschätzbar wird. Unter Berücksichtigung der maßgebenden Einflussgrößen werden in dieser Arbeit die Mechanismen der Realkalisierung anhand experimenteller Untersuchungen abgeleitet und erläutert. Das Realkalisierungsvermögen von Instandsetzungsmörteln wird näher spezifiziert, sodass es dem Anwender ermöglicht wird, Mörtelsysteme auszuwählen, die für das jeweilige Auskleidungsprinzip angewendet werden können.
Da der Realkalisierungsfortschritt unter Berücksichtigung der Einflussgrößen bisher nicht berechnet werden kann, wird auf Grundlage der experimentellen Untersuchungen ein vereinfachtes Berechnungsmodell zur Beschreibung der Realkalisierung entwickelt. Anhand von theoretischen Simulationen wird abschließend das Modell validiert.
Cloud Computing, or the Cloud, became one of the most used technologies in today's world, right after its possibilities had been figured out. It is a renowned technology that enables ubiquitous access to tasks that need collaboration or remote monitoring. It is widely used in daily lives as well as the industry. The paradigm uses Internet Technologies which rely on best-effort communication. Best-effort communication limits the applicability of the technology in the domains where the timing is critical. Edge Computing is a paradigm that is seen as a complementary technology to the Cloud. It is expected to solve the Quality of Service (QoS) and latency problems that are raised due to the increased count of connected devices, and the physical distance between the infrastructure and devices. The Edge Computing adds a new tier between Information Technology (IT) and Operational Technology (OT) and brings the computing power close to the source of the data. Computing power near devices reduces the dependency to the Internet; hence, in case of a network failure, the computation can still continue. Close proximity deployments also enable the application of Edge Computing in the areas where real-timeliness is necessary. Computation and communication in Edge Computing are performed via Edge Servers. This thesis suggests a standardized and hardware-independent software reference architecture for Edge Servers that can be realized as a framework on servers, to be used on domains where the timing is critical. The suggested architecture is scalable, extensible, modular, multi-user supported, and decentralized. In decentralized systems, several precautions must be taken into consideration, such as latencies, delays, and available resources of the neighbouring servers. The resulting architecture evaluates these factors and enables real-time execution. It also hides the complexity of low-level communication and automates the collaboration between Edge Servers to enable seamless offloading in case of a need due to lack of resources. The thesis also validates an exemplary instance of the architecture with at framework, called Real-Time Execution Framework (RTEF), with multiple scenarios. The tasks used are resource-demanding and requested to be executed on an Edge Server in an Edge Network comprising multiple Edge Servers. The servers can make decisions by evaluating their availabilities, and determine the optimal location to execute the task, without causing deadline misses. Even under a heavy load, the decisions made by the servers to execute the tasks on time were correct, and the concept is proven.
Climate-Based Analysis for the Potential Use of Coconut Oil as Phase Change Material in Buildings
(2021)
One of the most efficient measures to reduce energy consumption in buildings is using
passive thermal comfort strategies. This paper shows the potential of coconut oil as a bio-based
phase change material (PCM) incorporated into construction components to improve the thermal
performance of buildings for several climates, due to its environmental advantages, wide availability,
and economic feasibility. The thermophysical properties of coconut oil were determined through
differential scanning calorimetry. Numerical simulations were conducted in ESP-r, comparing an
office space with a gypsum ceiling to one with coconut oil as PCM for 12 climate types in the Köppen–
Geiger classification. The results show that coconut oil is a suitable PCM for construction applications
under tropical and subtropical climates. This PCM can provide year-round benefits for these climates,
even though a higher melting point is needed for optimum performance during hotter months. The
highest demand reduction of 32% and a maximum temperature reduction of 3.7 °C were found in
Mansa, Zambia (Cwa climate). The best results occur when average outdoor temperatures are within
the temperature range of phase change. The higher the diurnal temperature range, the better the
results. Our findings contribute to a better understanding of coconut oil in terms of its properties
and potential for application in the building sector as PCM.
Die Rissbildung in Stahlbetonbauteilen ist systemimmanent und stellt keinen Mangel dar, sofern die am Bauteil auftretenden Risse auf unschädliche Breiten begrenzt sind. Die Begrenzung der Rissbreite kann dabei im Allgemeinen durch planerisch-konstruktive, betontechnologische und ausführungstechnische Maßnahmen zielgerichtet gesteuert werden.
Die derzeit in Deutschland bauaufsichtlich eingeführten Regelwerke DIN EN 1992-1-1 und DIN EN 1992-1-1/NA enthalten Berechnungskonzepte, um Rissbreiten und Rissabstände etwaig auftretender Risse im Rahmen der Bemessung näherungsweise rechnerisch vorauszubestimmen. Bei flächenartigen Bauteilen mit mehrlagig, kreuzweise angeordneter Bewehrung aus großen Stabdurchmessern (d. h. Ø > 32 mm), wie sie beispielsweise in hochbeanspruchten dicken Sohlplatten zum Einsatz kommen können, stellt sich die Frage, ob die am Bauteil auftretenden Risse mit Hilfe der in DIN EN 1992-1-1 und in DIN EN 1992-1-1/NA enthaltenen Berechnungskonzepte realitätsnah vorauszubestimmen sind. Dies ist insbesondere vor dem Hintergrund in Frage zu stellen, dass die den aktuellen normativen Nachweisen zugrundeliegenden Bemessungsformeln vorwiegend an zentrisch bewehrten Versuchsquerschnitten mit „kleinen“ Stabdurchmessern (üblicherweise Ø6 mm bis Ø14 mm) hergleitet wurden.
Zur Bewertung der Übertragbarkeit wurden im Rahmen dieser Arbeit umfangreiche experimentelle Untersuchungen zum Rissverhalten mehrlagig bewehrter Bauteile mit Variation zahlreicher Einflussfaktoren der Rissbildung (z. B. Stabdurchmesser, Querbewehrung, Oberflächenbewehrung) durchgeführt. Das im Rahmen dieser Bauteilversuche feststellbare Trag- und Verformungsverhalten mehrlagig bewehrter Bauteile wurde im Anschluss durch numerische Untersuchungen mit dem nicht linearen Finite-Elemente Programm Atena verifiziert.
Auf Grundlage einer Gegenüberstellung von statistisch ausgewerteten Versuchswerten und den Ergebnissen einer Nachrechnung nach DIN EN 1992-1-1 und DIN EN 1992-1-1/NA und weiteren ausgewählten Ingenieur- und Bemessungsmodellen, wurde die Zuverlässigkeit der rechnerischen Vorhersagegenauigkeit der aktuellen Bemessungsmodelle detailliert überprüft. Als ein Ergebnis bleibt festzu-halten, dass Modifikationen der Bemessungsgleichungen nach DIN EN 1992-1-1/NA für Querschnittskonzeptionen mit mehrlagig, kreuzweise angeordneter Bewehrung zwingend zu empfehlen sind, um eine realitätsnähere, auf der sicheren Seite liegende rechnerische Vorhersage der zu erwartenden Rissbreiten sicherstellen zu können. Zudem zeigt sich, dass bei fehlender Oberflächen-bewehrung insgesamt keine zuverlässige Berechnung der Rissbreite nach DIN EN 1992-1-1/NA auf der Bauteiloberseite erfolgen kann. Für das Bauteilinnere konnte dagegen festgestellt werden, dass die Versuchsergebnisse in den nach DIN EN 1992-1-1/NA zu erwartenden Größenordnungen liegen.
Die aus der ei¬genen Versuchsnachrechnung gewonnenen Erkenntnisse zur Vorhersagegenauigkeit zeigen, dass sich für die vorliegend untersuchten Querschnittskonzeptionen insgesamt das Bemessungsmodell nach prEN1992-1-1 hinreichend gut eignet.
In dieser Arbeit wird ein Ansatz zur Simulation von Initiierung und Wachstum von Rissen in spröden Materialien, basierend auf diffusen Grenzflächen, um seinen Anwendungsbereich erweitert. Durch die Ergänzung der inneren Energie eines bestehenden Phasenfeldmodells um einen zusätzlichen Anteil wird das Beschreiben von Ermüdungsrisswachstum
ermöglicht. Außerdem wird durch das Modifizieren des Gradienten des Phasenfeldparameters in der regularisierten Rissenergie erreicht, dass das entstehende Modell anisotropes
Risswachstum abbilden kann.
Einleitend werden die benötigten Grundlagen aus verschiedenen Feldern der Mechanik
beschrieben sowie die Phasenfeld Methode zur Simulation von Risswachstum eingeführt.
Danach werden die Modifikationen, welche im Rahmen dieser Arbeit eingebracht wurden
begründet. Es wird im Weiteren detailliert beschrieben, wie die entsprechenden Erweiterungen eingearbeitet wurden und die Evolutionsgleichungen der neuen Phasenfeldmodelle,
in Form von Ginzubug-Landau Gleichungen werden hergeleitet.
Das resultierende gekoppelte Differentialgleichungssystem wurde, unter Verwendung von
impliziter Zeitintegration, als ebenes nichtlineares Finite Elemente Problem implementiert.
Die starke als auch die schwache Form der beschreibenden Gleichungen des Phasenfeld
Modells werden beschrieben.
Verschiedene Test Szenarien wurden simuliert, um zu Untersuchen inwieweit reale Ergebnisse mit dem Modell erzielt werden können. Die Ergebnisse zeigen, dass Brüche in
anisotropen Medien beschrieben werden können. Außerdem erzielt das entwickelte Ermüdungsmodell reales Verhalten für wichtige Größen wie die Risswachstumsgeschwindigkeit
und Phänomene wie Mittelspannungseinfluss oder Reihenfolge Einflüsse werden korrekt
abgebildet. Simulationsergebnisse von beiden Modellen werden mit experimentellen Ergebnissen verglichen, wobei eine gute Übereinstimmung nachgewiesen werden kann.
Mit der Agenda 2030 für nachhaltige Entwicklung will die Staatengemeinschaft den globalen Herausforderungen gemeinsam unter Berücksichtigung der wirtschaftlichen, sozialen, ökologischen und politischen Dimension begegnen. Eine zunehmend fragile politische Weltlage prägt das Aufwachsen der jungen Generation und bedroht ihre Zukunft. Die 2015 von den Vereinten Nationen verabschiedeten 17 nachhaltigen Entwicklungsziele sind ein konkreter Aktionsplan, um die Welt bis zum Jahr 2030 zum Besseren zu verändern – auch für Kinder und Jugendliche und vor allem mit ihnen gemeinsam.
Seit dem Jahr 2000 gibt es beachtliche Fortschritte bei der Erreichung des Ziels der universellen Grundschulbildung. Die Gesamteinschulungsrate erreichte 2015 in den Entwicklungsregionen 91 Prozent und die weltweite Zahl der Kinder, die nicht zur Schule gehen, ist um fast die Hälfte gesunken. Auch in Nepal wurden im Bildungssektor bedeutende Erfolge in Bezug auf Zugang und Teilhabe erzielt, insbesondere in den Bereichen Schulbildung, Alphabetisierung und Weiterbildung. Trotzdem gibt es in Nepal viele Kinder, darunter besonders viele Mädchen, die nicht zur Schule gehen oder diese abbrechen, weil die Familien sich den Schulbesuch nicht leisten können, die Schulen zu weit entfernt sind oder sie ethnischen Minderheiten angehören.
Als zentrale Fragestellung der Masterarbeit soll das seit zehn Jahren bestehende UNICEF-Bildungsprogramm Let Us Learn in Nepal im Kontext der Agenda 2030 evaluiert werden. Es soll erforscht werden, inwieweit die Implementierung des Bildungsprogramms Let Us Learn von UNICEF in Nepal auf die SDGs einzahlt. In diesem Zusammenhang sollen die direkten Auswirkungen von Bildungsprogrammen für Kinder, insbesondere Mädchen, in Nepal mit Blick auf die 17 SDGs der Agenda 2030 eruiert werden. Gleichzeitig soll geklärt werden, ob und inwieweit bei diesen Bildungsprogrammen die Prinzipien der Paris-Deklaration über die Wirksamkeit von nachhaltiger Entwicklungszusammenarbeit, insbesondere die Eigenverantwortung der Empfängerländer und die gegenseitigen Rechenschaftspflicht Berücksichtigung finden. Mittels Experteninterviews von Personen aus dem direkten Umfeld der Entwicklungszusammenarbeit und mit Expertise zur Situation in Nepal sowie Fallstudien sollen die notwendigen Daten für die Analyse und Evaluation generiert werden.
Ausgangspunkt der Forschungsfrage ist die Hypothese, dass das Erreichen einer inklusiven und qualitativ hochwertigen Bildung für alle (SDG 4) die Überzeugung bekräftigt, dass Bildung eines der stärksten und bewährtesten Mittel für eine nachhaltige Entwicklung ist. Erfolge im Bildungssektor sollen einen gleichberechtigten Zugang zu einer soliden Berufsausbildung erleichtern oder gar den Zugang zu einer hochwertigen Hochschulbildung ermöglichen und können somit dazu beitragen, Ungleichheiten zwischen den Geschlechtern zu beseitigen, Wohlstand zu schaffen, Armut und Hunger einzudämmen und damit die Chance auf Ernährungssicherheit zu erhöhen. Insbesondere Bildungsprojekte für Grundschüler haben große Potenziale, Chancen für Kinder zu eröffnen, frühzeitig für alle 17 SDGs der Agenda 2030 sensibilisiert zu werden.
Nickel(I)- und Nickel(II)-Komplexe mit sterisch anspruchsvollen Alkylcyclopentadienylliganden
(2021)
Aufbauend auf früheren Arbeiten wurden Reduktionsversuche von [RCpNi(μ-Br)]2
(im Folgenden ist RCp stets C5H2tBu3-1,2,4 = Cp''' oder C5HiPr4 = 4Cp) in nicht-aromatischen
Lösungsmitteln untersucht. Die Ausgangsverbindungen [Cp'''Ni(μ-Br)]2
und [4CpNi(μ-Br)]2 wurden synthetisiert und mit verschiedenen Hydridquellen zu
[Cp'''Ni(μ-H)]2 und [4CpNi(μ-H)]2 umgesetzt. Die Umsetzung mit einem Äquivalent
Kaliumhydroxid führte zu [(RCpNi)2(μ-Br)(μ-OH)]. [(RCpNi)2(μ-Br)(μ-H)] konnten
nur als Produktgemisch mit [RCpNi(μ-Br)]2 oder [RCpNi(μ-H)]2 erhalten werden.
Durch Reduktion von [Cp'''Ni(μ-Br)]2 in aromatischen Lösungsmitteln konnten
[(Cp'''Ni)2(μ-Toluol)] und [(Cp'''Ni)2(μ-Benzol)] erhalten werden. Mit jeweils
zwei Äquivalenten Triphenylphosphan, 1,3-Diisopropyl-4,5-dimethylimidazol-2-
yliden und Diphenylacetylen wurden paramagnetische Komplexe mit 17 VE der Form
[Cp'''Ni(L)] (L = PPh3, IiPr2Me2, C2Ph2) synthetisiert und röntgenkristallograpisch
untersucht. Die einkernigen Ni(I)-Komplexe [Cp'''Ni(dppe)] und [Cp'''Ni(bipy)] zeigten
im 1H-NMR-Spektrum keine Signale. Deren Entstehung konnte mittels ESI-MS belegt
werden. Die Chlorido- und Iodido-verbrückten Cp''' - und 4Cp-Komplexe konnten ausgehend
von [(RCpNi)2(μ-Toluol)] mit CuCl oder CuI erhalten werden. Mit einem
Äquivalent Diphenylacetylen wurde der zweikernige Komplex [(Cp'''Ni)2(μ-C2Ph2)]
erhalten, der in der Kristallstruktur eine Ni-Ni-Bindung zeigt. Der einkernige Ni(II)-
Komplex [Cp'''Ni(TEMPO)] zeigte einen side-on koordinierten TEMPO-Liganden.
Mittels NMR-Spektroskopie wurde für [(Cp'''Ni)2(μ-Toluol)] mit C6D6 ein Aromatenaustausch
beobachtet.
Die diamagnetischen Ni(II)-Komplexe [Cp'''NiCl(PPh3)], [Cp'''NiI(PPh3)],
[Cp'''Ni(dppe)]Br und [Cp'''NiBr(IiPr2Me2)] konnten durch Umsetzung der entsprechenden
Halogenido-verbrückten Cp'''Ni-Komplexe mit PPh3, IiPr2Me2 bzw. dppe
erhalten werden. [Cp'''NiBr(IiPr2)] wurde durch Reaktion von [Cp'''NiN(SiMe3)2] mit
1,3-Diisopropylimidazoliumbromid erhalten.
Ausgehend von [RCpNiN(SiMe3)2] wurden einkernige Nickelkomplexe mit Chelatliganden
unter Eliminierung von HN(SiMe3)2 synthetisiert. Für [Cp'''Ni(8-hydroxychinolin)]
konnte eine Kristallstruktur erhalten werden. [Cp'''Ni(naphthalimid)], [Cp'''Ni(curcumin)]
und [4CpNi(curcumin)] wurden mittels NMR- und IR-Spektroskopie untersucht.
In jüngster Zeit wurde ein komplett neues Feld für den Bedarf an einer Konvertierung von Kohlenstoffdioxid zu Methan erschlossen. Im Gegensatz zu der Erde besteht die dünne Atmosphäre des Mars aus 95,3 % Kohlenstoffdioxid. Um dort hinzukommen und der Menschheit ein potentielles zweites Zuhause zu schaffen, bedarf es allerdings der Raumfahrt. Die bisherigen Raketen dafür wurden entweder mit Feststoffbrennstoffen, flüssigem Wasserstoff sowie flüssigem Sauerstoff oder in neuerer Zeit mit einer Mischung aus Rocketpropellent-1 (Mischung aus Diesel und Kerosin) und flüssigem Sauerstoff geflogen. Die neue Generation der Raketen von SpaceX, Nasa und Blue Origin für die Marsbesiedlung wird allerdings mit Methan und flüssigem Sauerstoff fliegen. Das Besondere daran ist, dass alle Missionen sowohl von NASA, als auch von den privaten Raumfahrtunternehmen, planen den Treibstoff für den Rückflug über den CO2-Fischer-Tropsch Prozess auf dem Mars aus Kohlenstoffdioxid zu gewinnen und alle lebensnotwendigen Chemikalien auf dem Mars aus Wassereis und CO2 über diesen Weg zu erzeugen. Für diesen Prozess unter diesen extraterrestrischen Bedingungen bedarf es neuer und besserer heterogener Katalysatoren, um die Besiedelung des Mars und des Sonnensystems sowie die Nutzung der dort vorhandenen Rohstoffe möglich zu machen.
Daher war in dieser Arbeit das Ziel neuartige Heusler-Legierungen zu erhalten und diese in eine für die Katalyse nutzbare Form zu überführen, um damit das katalytische Potential der Legierungen in der CO2-Fischer-Tropsch-Anwendungen erstmalig zu überprüfen. Dadurch sollten neue Katalysatoren für zukünftige CO2-Fischer-Tropsch-Anwendungen untersucht werden, da diese Prozesse einen breiteren Zugang zu Raffinerieprodukten, Wachsen, Alkanen und Alkenen liefern können als die CO2-intensiven klassischen Routen über den Steamcracker. Sind diese Katalysatoren auch im Hinblick auf den Irdischen gebraucht von großem Interesse. Dazu sollte in dieser Arbeit untersucht werden, welche niedermolekularen Produktfraktionen im Rahmen eines Katalysator Screenings erhalten werden können. Dabei war es die Zielsetzung, die Metallkombinationen zu iterieren und einen groben Überblick über die Produktverteilung anhand der häufigsten Produkte sowie der C4- und C4+-Fraktion zu geben. Zu diesem Zweck wurden Cu2YZ, Ni2YZ, Fe2YZ und Co2FeZ bzw. Fe2CoZ mittels thermischem metallischem Sintern erzeugt und charakterisiert. Unter Zuhilfenahme verschiedener physikalischer und chemischer Methoden wie der pulsed laser ablation (PLAL) und der Zerkleinerung mittels Kugelmühle wurden Katalysatoren erzeugt, welche im Anschluss auf Aluminiumoxids sowie des Siliziumdioxid-Trägermaterials aufgebracht wurden. Die so erhaltenen Material wurde in pelletierter Form in einer Hochdruckströmungsapparatur auf die katalytischen Fähigkeiten der jeweiligen Metallkombination in der CO2-Hydrierung untersucht.
The handling of oxygen sensitive samples and growth of obligate anaerobic organisms
requires the stringent exclusion of oxygen, which is omnipresent in our normal atmospheric
environment. Anaerobic workstations (aka. Glove boxes) enable the handling of
oxygen sensitive samples during complex procedures, or the long-term incubation of
anaerobic organisms. Depending on the application requirements, commercial workstations
can cost up to 60.000 €. Here we present the complete build instructions for a highly
adaptive, Arduino based, anaerobic workstation for microbial cultivation and sample handling,
with features normally found only in high cost commercial solutions. This build can
automatically regulate humidity, H2 levels (as oxygen reductant), log the environmental
data and purge the airlock. It is built as compact as possible to allow it to fit into regular
growth chambers for full environmental control. In our experiments, oxygen levels during
the continuous growth of oxygen producing cyanobacteria, stayed under 0.03 % for 21 days
without needing user intervention. The modular Arduino controller allows for the easy
incorporation of additional regulation parameters, such as CO2 concentration or air pressure.
This paper provides researchers with a low cost, entry level workstation for anaerobic
sample handling with the flexibility to match their specific experimental needs.
Bees are recognized as an indispensable link in the human food chain and general ecological system.
Numerous threats, from pesticides to parasites, endanger bees and frequently lead to hive collapse. The varroa destructor mite is a key threat to bee keeping and the monitoring of hive infestation level is of major concern for effective treatment. Sensors and automation, e.g., as in condition-monitoring and Industry 4.0, with machine
learning offer help. In numerous activities a rich variety of sensors have been applied to apiary/hive
instrumentation and bee monitoring. Quite recent activities try to extract estimates of varroa infestation level by
hive air analysis based on gas sensing and gas sensor systems. In our work in the IndusBee4.0 project [8, 11], an hive-integrated, compact autonomous gas sensing system for varroa infestation level estimation based on low-
cost highly integrated gas sensors was conceived and applied. This paper adds to [11] with the first results of a
mid-term duration investigation from July to September 2020 until formic acid treatment. For the regarded hive more than 79 % of detection probability based on the SGP30 gas sensor readings have been achieved.
The great interest in robust covering problems is manifold, especially due to the plenitude of real world applications and the additional incorporation of uncertainties which are inherent in many practical issues.
In this thesis, for a fixed positive integer \(q\), we introduce and elaborate on a new robust covering problem, called Robust Min-\(q\)-Multiset-Multicover, and related problems.
The common idea of these problems is, given a collection of subsets of a ground set, to decide on the frequency of choosing each subset so as to satisfy the uncertain demand of each overall occurring element.
Yet, in contrast to general covering problems, the subsets may only cover at most \(q\) of their elements.
Varying the properties of the occurring elements leads to a selection of four interesting robust covering problems which are investigated.
We extensively analyze the complexity of the arising problems, also for various restrictions to particular classes of uncertainty sets.
For a given problem, we either provide a polynomial time algorithm or show that, unless \(\text{P}=\text{NP}\), such an algorithm cannot exist.
Furthermore, in the majority of cases, we even give evidence that a polynomial time approximation scheme is most likely not possible for the hard problem variants.
Moreover, we aim for approximations and approximation algorithms for these hard variants, where we focus on Robust Min-\(q\)-Multiset-Multicover.
For a wide class of uncertainty sets, we present the first known polynomial time approximation algorithm for Robust Min-\(q\)-Multiset-Multicover having a provable worst-case performance guarantee.
Data is the new gold and serves as a key to answer the five W’s (Who, What, Where, When, Why) and How’s of any business. Companies are now mining data more than ever and one of the most important aspects while analyzing this data is to detect anomalous patterns to identify critical patterns and points. To tackle the vital aspects of timeseries analysis, this thesis presents a novel hybrid framework that stands on three pillars: Anomaly Detection, Uncertainty Estimation,
and Interpretability and Explainability.
The first pillar is comprised of contributions in the area of time-series anomaly detection. Deep Anomaly Detection for Time-series (DeepAnT), a novel deep learning-based anomaly detection method, lies at the foundation of the proposed hybrid framework and addresses the inadequacy of traditional anomaly detection methods. To the best of the author’s knowledge, Convolutional Neural Network (CNN) was used for the first time in Deep Anomaly Detection for Time-series (DeepAnT) to robustly detect multiple types of anomalies in the tricky
and continuously changing time-series data. To further improve the anomaly detection performance, a fusion-based method, Fusion of
Statistical and Deep Learning for Anomaly Detection (FuseAD) is proposed. This method aims to combine the strengths of existing wellfounded
statistical methods and powerful data-driven methods.
In the second pillar of this framework, a hybrid approach that combines the high accuracy of the deterministic models with the posterior distribution approximation of Bayesian neural networks is proposed.
In the third pillar of the proposed framework, mechanisms to enable both HOW and WHY parts are presented.
With a yearly production of about 39 million tons, brewer’s spent grain (BSG) is the
most abundant brewing industry byproduct. Because it is rich in fiber and protein, it is commonly
used as cattle feed but could also be used within the human diet. Additionally, it contains many
bioactive substances such as hydroxycinnamic acids that are known to be antioxidants and potent
inhibitors of enzymes of glucose metabolism. Therefore, our study aim was to prepare different
extracts—A1-A7 (solid-liquid extraction with 60% acetone); HE1-HE6 (alkaline hydrolysis followed
by ethyl acetate extraction) and HA1-HA3 (60% acetone extraction of alkaline residue)—from various
BSGs which were characterized for their total phenolic (TPC) and total flavonoid (TFC) contents,
before conducting in vitro studies on their effects on the glucose metabolism enzymes α-amylase,
α-glucosidase, dipeptidyl peptidase IV (DPP IV), and glycogen phosphorylase α (GPα). Depending
on the extraction procedures, TPCs ranged from 20–350 μg gallic acid equivalents/mg extract
and TFCs were as high as 94 μg catechin equivalents/mg extract. Strong inhibition of glucose
metabolism enzymes was also observed: the IC50 values for α-glucosidase inhibition ranged from
67.4 ± 8.1 μg/mL to 268.1 ± 29.4 μg/mL, for DPP IV inhibition they ranged from 290.6 ± 97.4 to
778.4 ± 95.5 μg/mL and for GPα enzyme inhibition from 12.6 ± 1.1 to 261 ± 6 μg/mL. However, the
extracts did not strongly inhibit α-amylase. In general, the A extracts from solid-liquid extraction
with 60% acetone showed stronger inhibitory potential towards α-glucosidase and GPα than other
extracts whereby no correlation with TPC or TFC were observed. Additionally, DPP IV was mainly
inhibited by HE extracts but the effect was not of biological relevance. Our results show that BSG
is a potent source of α-glucosidase and GPα inhibitors, but further research is needed to identify
these bioactive compounds within BSG extracts focusing on extracts from solid-liquid extraction
with 60% acetone.
A transition from conventional centralized to hybrid decentralized systems has been increasingly
advised recently due to their capability to enhance the resilience and sustainability of
urban water supply systems. Reusing treated wastewater for non-potable purposes is a promising
opportunity toward the aforementioned resolutions. In this study, we present two optimization
models for integrating reusing systems into existing sewerage systems to bridge the supply–demand
gap in an existing water supply system. In Model-1, the supply–demand gap is bridged by introducing
on-site graywater treatment and reuse, and in Model-2, the gap is bridged by decentralized
wastewater treatment and reuse. The applicability of the proposed models is evaluated using two
test cases: one a proof-of-concept hypothetical network and the other a near realistic network based
on the sewerage network in Chennai, India. The results show that the proposed models outperform
the existing approaches by achieving more than a 20% reduction in the cost of procuring water and
more than a 36% reduction in the demand for freshwater through the implementation of local on-site
graywater reuse for both test cases. These numbers are about 12% and 34% respectively for the
implementation of decentralized wastewater treatment and reuse.
Clinical classification models are mostly pathology-dependent and, thus, are only able to
detect pathologies they have been trained for. Research is needed regarding pathology-independent
classifiers and their interpretation. Hence, our aim is to develop a pathology-independent classifier
that provides prediction probabilities and explanations of the classification decisions. Spinal posture
data of healthy subjects and various pathologies (back pain, spinal fusion, osteoarthritis), as
well as synthetic data, were used for modeling. A one-class support vector machine was used as a
pathology-independent classifier. The outputs were transformed into a probability distribution according
to Platt’s method. Interpretation was performed using the explainable artificial intelligence
tool Local Interpretable Model-Agnostic Explanations. The results were compared with those obtained
by commonly used binary classification approaches. The best classification results were obtained
for subjects with a spinal fusion. Subjects with back pain were especially challenging to distinguish
from the healthy reference group. The proposed method proved useful for the interpretation
of the predictions. No clear inferiority of the proposed approach compared to commonly used
binary classifiers was demonstrated. The application of dynamic spinal data seems important for
future works. The proposed approach could be useful to provide an objective orientation and to
individually adapt and monitor therapy measures pre- and post-operatively.
Modern microtechnology has the central task of ensuring technological progress through the miniaturization and reduction of component dimensions. Micro grinding with micro pencil grinding tools (MPGTs) has established itself as a manufacturing process in microtechnology, especially for the machining of hard and brittle materials. The process has been investigated by numerous researchers. Yet, tools with diameters of <100 μm, could not satisfy the needs of the industry. The tool life of MPGTs was insufficient, their feed rates were too slow for a mean-ingful application and both the MPGTs, and their microstructures were not reproducible. Therefore, this dissertation is dedicated to the task of investigating and revising the complete manu-facturing process and application methodology of these tools. New substrate geometries and materials are investigated. Surface treatment methods are investigated to increase adhesion between the abrasive layer and the substrate. In addition, conventional coating processes like electroplating are replaced by an autocatalytic electroless plating process, that has a much higher reproducibility rate of MPGTs with diameters of about 50 μm and less. The micro grinding methodology is optimized by parameter studies, and new coolant supplying methods with new metalworking fluids, which are introduced to achieve the best possible result when machining 16MnCr5.
Die Bemessung von Verbunddecken ist in DIN EN 1994-1-1 2010 geregelt,
worin ausführliche Informationen zur Bestimmung der Längsschub- und Biegetragfähigkeit
aufgeführt sind. Für den Nachweis der Querkrafttragfähigkeit
verweist der EC4 auf das Modell für nicht schubbewehrte Massivquerschnitte
in DIN EN 1992-1-1 2011, da bis vor kurzem kein eigenständiges
Querkraftbemessungsmodell für Verbunddecken zur Verfügung stand. Das
Modell im EC2 gründet auf einigen Annahmen, die für Verbunddecken nicht
vorausgesetzt werden können. Außerdem können die spezifischen Eigenschaften
von Verbunddecken nicht berücksichtigt werden. Daher wurde in
Hartmeyer 2014 ein Modell zur Ermittlung der Querkrafttragfähigkeit von
Verbunddecken, die ausschließlich durch das Verbundblech längsbewehrt
sind, entwickelt. Verbunddecken werden in der Praxis allerdings stets mit
zusätzlicher Betonstahlbewehrung ausgeführt. In dem zuvor genannten Modell
für Verbunddecken kann der positive Einfluss der zusätzlichen Betonstahlbewehrung
auf das Querkrafttragverhalten der Verbunddecken jedoch
nicht vollumfänglich berücksichtigt werden.
In dieser Arbeit wurde daher ein eigenständiges Ingenieurmodell entwickelt,
mit dem das Querkrafttragverhalten von Verbunddecken unter der Kombination
der beiden Längsbewehrungsarten Blech und Betonstahl mechanisch
beschrieben werden kann. Hierzu wurden umfangreiche Querkraftversuche
an Verbunddecken durchgeführt. Durch den Einsatz kontinuierlicher
Dehnungsmessung mittels Sensorfasern, konnten wesentliche Erkenntnisse
zum Querkrafttragverhalten gewonnen werden. So wurde beispielsweise
festgestellt, dass das Querkrafttragverhalten von Verbunddecken dem
Bogen-Zugband-Modell zuzuordnen ist und Ebenbleiben der Querschnitte
nicht vorausgesetzt werden kann. Das entwickelte Modell beinhaltet vier
Traganteile, die additiv berücksichtigt werden. Diese sind der Schubtraganteil
der ungerissenen Druckzone, der Traganteil der Rissprozesszone, die
Dübelwirkung von Blech und Betonstahl sowie der vertikale Anteil einer direkten
Druckstrebe ins Auflager. Das Modell ist gleichermaßen für offene
und hinterschnittene Geometrien gültig und berücksichtigt über die Teilverbundtheorie
die spezifischen Eigenschaften der Verbundbleche. Die Untersuchungen
in dieser Arbeit konzentrierten sich auf Verbunddecken aus
Normalbeton. Eine Öffnung des Modells für Verbunddecken aus Leichtbeton
ist prinzipiell möglich, da die Materialeigenschaften innerhalb der einzelnen
Traganteile direkt Berücksichtigung finden und somit die speziellen Eigenschaften
des Leichtbetons Eingang finden könnten.
Durch die Berücksichtigung der Kombination der beiden Längsbewehrungsarten
ist es erstmals möglich, die Querkrafttragfähigkeit von Verbunddecken
zutreffend zu beschreiben. Da hiermit eine erhebliche Traglaststeigerung
einhergeht, konnte folglich die Wirtschaftlichkeit von Verbunddecken gesteigert
werden. Im Zuge der Überarbeitung des EC4 wurde das entwickelte
Modell bereits in den Entwurf (prEN 1994-1-1 2020) aufgenommen.
Ein gesellschaftliches Merkmal der Bevölkerung Deutschlands ist ihre heterogene Zusammensetzung. Die Vielfältigkeit wird an vielen Punkten offenbar. Hier leben Menschen mit unterschiedlichen kulturellen Hintergründen, diversen religiösen Weltansichten und verschiedenen Muttersprachen miteinander. Auch Menschen mit Behinderungen bereichern die Vielfalt in der Bunderepublik. Durch Bestimmungen im Grundgesetz sowie die Ratifikation verschiedener internationaler Abkommen verpflichtet sich die Bundesrepublik u.a. allen Menschen die freie und selbstbestimmte Entwicklung der Persönlichkeit zu ermöglichen. Doch insbesondere Menschen mit Behinderungen erleben in Deutschland in vielen Bereichen noch Benachteiligungen. Diese werden bspw. im Lebensbereich ‚Arbeit und Beschäftigung‘ sichtbar. Dabei hat sich die Bundesrepublik insbesondere durch die Ratifizierung der UN-Behindertenrechtskonvention sowie der Agenda 2030, mit den Entwicklungszielen 8 (Menschenwürdige Arbeit und Wirtschaftswachstum) und 10 (Weniger Ungleichheiten) der Gestaltung eines offenen, freien Arbeitsmarktes, auf welchem alle Menschen ihren Lebensunterhalt durch Arbeit, auf Arbeitsplätzen mit guten Bedingungen, verdienen können, verpflichtet. Damit ist die Teilhabe am Arbeitsleben von Menschen mit Behinderungen ein wesentliches Merkmal zur Realisierung intragenerativer Gerechtigkeit im Rahmen des Leitbildes der nachhaltigen Entwicklung.
Mit verschiedenen Maßnahmen aus seinem Nationalen Aktionsplan, hat der Gesetzgeber den Versuch unternommen, die Gestaltung eines solchen inklusiven Arbeitsmarktes zu entwickeln und die Teilhabesituation für Menschen mit Behinderungen am Arbeitsleben zu reformieren. Aufgrund der Aktualität dieses Themas ist die Forschungslage bzgl. geeigneter Umsetzungsmaßnahmen noch gering, sodass u.a. diese Arbeit einen der ersten Versuche zur systematischen Erfassung geeigneter Umsetzungsmaßnahmen und zur Bewertung der bisherigen Maß-nahmen darstellt.
Der Einsatz kohlenstofffaserverstärkter Kunststoffe (CFK) ist schon lange nicht mehr
nur auf die Luft- und Raumfahrt begrenzt, sondern findet auch breite Anwendung in
anderen Industriezweigen wie der Automobilbranche, der Sport- und Freizeitindustrie,
der Medizintechnik und weiteren Branchen. Deswegen sind für diese Werkstoffe in
der Produktion und in der Gebrauchsphase effiziente Prüfverfahren erforderlich. Die
Akzeptanz der Industrie hinsichtlich eines Verfahrens zur zerstörungsfreien Prüfung
(ZfP) ist im Wesentlichen von der Zuverlässigkeit und der Genauigkeit der quantitativen
Angaben abhängig. Eine geeignete Methode zur Prüfung von Verbundwerkstoffen
ist die Infrarot-Thermografie (IRT), eine optische und bildgebende Prüfmethode zur
Erfassung der Oberflächentemperatur, die sich vor allem in den letzten Jahren stark
weiterentwickelt hat. Aktuell verwendete Methoden zur zeitaufgelösten und lateral
ortsaufgelösten Quantifizierung von Defekten im Rahmen der IRT basieren auf der
direkten Auswertung der aufgenommenen Infrarot-Bilder, was in Bezug auf die Empfindlichkeit
gegenüber tieferliegenden Defekten und der Genauigkeit bei der Angabe
der lateral Größe jedoch stark limitiert ist.
Die vorliegende Arbeit beschäftigt sich mit der zeitaufgelösten und lateral ortsaufgelösten Quantifizierung von Defekten in CFK unter Verwendung der passiven Thermografie
während der Schädigungsentstehung sowie der aktiven Thermografie als
unabhängige Inspektionsmethode. Das Potenzial der Quantifizierung anhand von
Amplituden- und Phasenbildern der aktiven und passiven Thermografie wird mit den
bekannten Methoden der Analyse der IR-Bilder verglichen. Hierfür werden drei voneinander
unabhängige Anwendungsfälle verwendet: die aktive Thermografie zur ZfP
an CFK Platten mit künstlichen Delaminationen in Form von Folien, die In-situ-
Überwachung im Rahmen der quasi-statischen Zugprüfung unter Verwendung der
passiven Thermografie und die Visualisierung von Impactschädigungen mit Hilfe der
passiven und aktiven Thermografie. Die Genauigkeit der Quantifizierung ist vor allem
von dem durch einen Defekt verursachten Kontrast abhängig, welcher durch die Auswertung
der Amplituden- und Phasenbilder erheblich gesteigert wird. Die Angabe zur
lateralen Defektgröße ist damit insgesamt genauer und ermöglicht auch die Quantifizierung
tieferliegender Defekte. Auch die Beschreibung des Degradationsverhaltens
kann durch Verwendung der Amplitudenbilder zuverlässiger umgesetzt werden, wobei
Schädigungsereignisse im Rahmen der In-situ-Überwachung auch noch in der vierten
Lage (in einer Tiefe von etwa 0,4 mm) visualisiert werden können. Bei der Visualisierung
von Impactschädigungen kann sowohl die passive, als auch die aktive Thermografie
verwendet werden, wobei die Auswertung der Amplituden- und Phasenbilder
ebenso geeignet ist wie die der IR-Bilder.
Medical cyber-physical systems (MCPS) emerged as an evolution of the relations between connected health systems, healthcare providers, and modern medical devices. Such systems combine independent medical devices at runtime in order to render new patient monitoring/control functionalities, such as physiological closed loops for controlling drug infusion or optimization of alarms. Despite the advances regarding alarm precision, healthcare providers still struggle with alarm flooding caused by the limited risk assessment models. Furthermore, these limitations also impose severe barriers on the adoption of automated supervision through autonomous actions, such as safety interlocks for avoiding overdosage. The literature has focused on the verification of safety parameters to assure the safety of treatment at runtime and thus optimize alarms and automated actions. Such solutions have relied on the definition of actuation ranges based on thresholds for a few monitored parameters. Given the very dynamic nature of the relevant context conditions (e.g., the patient’s condition, treatment details, system configurations, etc.), fixed thresholds are a weak means for assessing the current risk. This thesis presents an approach for enabling dynamic risk assessment for cooperative MCPS based on an adaptive Bayesian Networks (BN) model. The main aim of the approach is to support continuous runtime risk assessment of the current situation based on relevant context and system information. The presented approach comprises (i) a dynamic risk analysis constituent, which corresponds to the elicitation of relevant risk parameters, risk metric building, and risk metric management; and (ii) a runtime risk classification constituent, which aims to analyze the current situation risk, establish risk classes, and identify and deploy mitigation measures. The proposed approach was evaluated and its feasibility proved by means of simulated experiments guided by an international team of medical experts with a focus on the requirements of efficacy, efficiency, and availability of patient treatment.
Deep learning has achieved significant improvements in a variety of tasks in computer vision applications with an open image dataset which has a large amount of data. However, the acquisition of a large number of the dataset is a challenge in real-world applications, especially if they are new eras for deep learning. Furthermore, the distribution of class in the dataset is often imbalanced. The data imbalance problem is frequently bottlenecks of the neural network performance in classification. Recently, the potential of generative adversarial networks (GAN) as a data augmentation method on minority data has been studied.
This dissertation investigates using GAN and transfer learning to improve the performance of the classification under imbalanced data conditions. We first propose a classification enhancement generative adversarial networks (CEGAN) to enhance the quality of generated synthetic minority data and more importantly, to improve the prediction accuracy in data imbalanced condition. Our experiments show that approximating the real data distribution using CEGAN improves the classification performance significantly in data imbalanced conditions compared with various standard data augmentation methods.
To further improve the performance of the classification, we propose a novel supervised discriminative feature generation method (DFG) for minority class dataset. DFG is based on the modified structure of Generative Adversarial Network consisting of four independent networks: generator, discriminator, feature extractor, and classifier. To augment the selected discriminative features of minority class data by adopting attention mechanism, the generator for class-imbalanced target task is trained while feature extractor and classifier are regularized with the pre-trained ones from large source data. The experimental results show that the generator of DFG enhances the augmentation of label-preserved and diverse features, and classification results are significantly improved on the target task.
In this thesis, these proposals are deployed to bearing fault detection and diagnosis of induction motor and shipping label recognition and validation for logistics. The experimental results for bearing fault detection and diagnosis conclude that the proposed GAN-based framework has good performance on the imbalanced fault diagnosis of rotating machinery. The experimental results for shipping label recognition and validation also show that the proposed method achieves better performance than many classical and state-of-the-art algorithms.
The development and implementation of an observational video-based risk assessment is described. Occupational risk assessment is one of the most important yet also challenging tasks for employers. Most assessment tools to date use questionnaires, expert interviews and similar tools. Video analysis is a promising tool for risk assessment, but it needs an objective basis. A video of a plastering worker was recorded using a 360 degree camera. The recording was then analyzed using the developed observational matrix concerning Work Characteristics, Work Activities as well as potential risks. Risk factors present during the video of the work included lifting, fall from ladder, hazardous substances as well as occasionally bad posture. The worker had no or just one risk factor present during most of the time of the video recording, while only 16 seconds with more than one risk factor present according to the observational matrix. The paper presents a promising practical method to assess occupational risks on a case-by-case basis. It can help with the risk assessment process in companies which is required by law in some industrialized countries. The matrix in combination with video analysis is a first step towards digital observational risk assessment. It can also be the basis of an automated risk assessment process.
Daylight is important for the well-being of humans. Therefore, many office buildings use
large windows and glass facades to let more daylight into office spaces. However, this increases the
chance of glare in office spaces, which results in visual discomfort. Shading systems in buildings
can prevent glare but are not effectively adapted to changing sky conditions and sun position,
thus losing valuable daylight. Moreover, many shading systems are also aesthetically unappealing.
Electrochromic (EC) glass in this regard might be a better alternative, due to its light transmission
properties that can be altered when a voltage is applied. EC glass facilitates zoning and also supports
control of each zone separately. This allows the right amount of daylight at any time of the day.
However, an effective control strategy is still required to efficiently control EC glass. Reinforcement
learning (RL) is a promising control strategy that can learn from rewards and penalties and use this
feedback to adapt to user inputs. We trained a Deep Q learning (DQN) agent on a set of weather data
and visual comfort data, where the agent tries to adapt to the occupant’s feedback while observing
the sun position and radiation at given intervals. The trained DQN agent can avoid bright daylight
and glare scenarios in 97% of the cases and increases the amount of useful daylight up to 90%, thus
significantly reducing the need for artificial lighting.
In past decades, many cities and regions have underwent structural transformations—e.g.,
in old industrialized “rust belts” or in peripheral rural areas. Many of these shrinking cities have
to face the challenges of long-term demographic and economic changes. While shrinkage is often
related to post-industrial transformations in the USA, in other countries, such as Germany, for
example, the causes are related to changing demographics with declining birth rates and the effects
of the German reunification. Many cities have tried to combat shrinkage and have thus developed
a variety of policies and strategies such as the establishing of substitute industries. To assess the
sustainability of this approach, this paper investigates the cities of Cleveland, USA and Bochum,
Germany in a comparative analysis following the most similar/most different research design. The
paper shows that substitute industries might lead to new development paths for shrinking cities.
In order to improve performance or conserve energy, modern hardware implementations have adopted weak memory models; that is, models of concurrency that allow more outcomes than the classic sequentially consistent (SC) model of execution. Modern programming languages similarly provide their own language-level memory models, which strive to allow all the behaviors allowed by the various hardware-level memory models, as well as those that can occur as a result of desired compiler optimizations.
As these weak memory models are often rather intricate, it can be difficult for programmers to keep track of all the possible behaviors of their programs. It is therefore very useful to have an abstraction layer over the model that can be used to ensure program correctness without reasoning about the underlying memory model. Program logics are a way of constructing such an abstraction—one can use their syntactic rules to reason about programs, without needing to understand the messy details of the memory model for which the logic has been proven sound.
Unfortunately, most of the work on formal verification in general, and program logics in particular, has so far assumed the SC model of execution. This means that new logics for weak memory have to be developed.
This thesis presents two such logics—fenced separation logic (FSL) and weak separation logic (Weasel)—which are sound for reasoning under two different weak memory models.
FSL considers the C/C++ concurrency memory model, supporting several of its advanced features. The soundness of FSL depends crucially on a specific strengthening of the model which eliminates a certain class of undesired behaviors (so-called out-of-thin-air behaviors) that were inadvertently allowed by the original C/C++ model.
Weasel works under weaker assumptions than FSL, considering a model which takes a more fine-grained approach to the out-of-thin-air problem. Weasel's focus is on exploring the programming constructs directly related to out-of-thin-air behaviors, and is therefore significantly less feature-rich than FSL.
Using FSL and Weasel, the thesis explores the key challenges in reasoning under weak memory models, and what effect different solutions to the out-of-thin-air problem have on such reasoning. It explains which reasoning principles are preserved when moving from a stronger to a weaker model, and develops novel proof techniques to establish soundness of logics under weaker models.