Refine
Year of publication
Document Type
- Doctoral Thesis (1625) (remove)
Language
- German (840)
- English (779)
- Multiple Languages (6)
Has Fulltext
- yes (1625) (remove)
Is part of the Bibliography
- no (1625)
Keywords
- Visualisierung (20)
- Simulation (17)
- Stadtplanung (14)
- Katalyse (13)
- Apoptosis (12)
- Phasengleichgewicht (12)
- Finite-Elemente-Methode (11)
- Mobilfunk (10)
- Modellierung (10)
- Visualization (10)
Faculty / Organisational entity
- Fachbereich Chemie (351)
- Fachbereich Maschinenbau und Verfahrenstechnik (324)
- Fachbereich Mathematik (266)
- Fachbereich Informatik (199)
- Fachbereich Biologie (120)
- Fachbereich Elektrotechnik und Informationstechnik (85)
- Fachbereich ARUBI (71)
- Fachbereich Bauingenieurwesen (70)
- Fachbereich Sozialwissenschaften (54)
- Fachbereich Raum- und Umweltplanung (32)
Dealing with Dependence in the End-to-End Performance Analysis in Stochastic Network Calculus
(2022)
Communication networks, in particular the Internet, have become a pivotal part of our life. Since their beginnings, a key aspect of their applicability has been the performance. Safety-critical applications, for example, can sometimes only be implemented in a responsible manner if guarantees about their end-to-end delay can be made. A mathematical modeling and performance evaluation of communication networks requires a powerful set of tools that is able to incorporate their increasing complexity.
The stochastic network calculus (SNC) is a versatile, mathematical framework that allows for a calculation of probabilistic end-to-end performance bounds of distributed systems. Its flexibility enables to incorporate a large class of different schedulers as well as different models of traffic processes beyond the assumption of Poisson arrivals that is predominant in queueing theory-based analyses. It originates in the so-called deterministic network analysis (DNC) in the 90's of the 20th century that was introduced to provide deterministic, ``hard'' guarantees that are of relevance, e.g., in the context of real-time systems. While the DNC of today can be used to calculate fast and accurate delay bounds of arbitrary feedforward networks, the SNC is still in a significantly earlier stage. In particular, method-pertinent dependencies, i.e., a phenomenon that occurs when independent flows become stochastically dependent after sharing resources in the network, can be considered a major challenge in the SNC with moment-generating functions (MGFs).
This thesis argues to contribute to the SNC in several ways. First, we show that the ``pay multiplexing only once'' (PMOO) analysis known from the DNC is also possible in the SNC. Not only does it significantly improve end-to-end delay bounds, it also needs to consider less method-pertinent dependencies. Therefore, complexity and runtimes of the calculation are greatly reduced. Second, we introduce the concept of negative dependence to the SNC with MGFs and give numerical evidence that this can further lead to better performance bounds. Third, for the larger problem of end-to-end performance bounds of tree networks, we introduce so-called ''h-mitigators'', a modification in the calculation of MGF output bounds. It is minimally invasive, all existing results and procedures are still applicable, and improves performance bounds. As a fourth contribution, we conduct extensive numerical evaluations to substantiate our claims. Moreover, we made the respective code, the ''SNC MGF toolbox'', publicly available to ensure that the results are reproducible. At last, we conduct different stochastic analyses of a popular fair scheduler, generalized processor sharing (GPS). We give an overview of the state-of-the-art analyses in the SNC and substantiate the comparison through numerical evaluations.
To support scientific work with large and complex data the field of scientific visualization emerged in computer science and produces images through computational analysis of the data. Frameworks for combination of different analysis and visualization modules allow the user to create flexible pipelines for this purpose and set the standard for interactive scientific visualization used by domain scientists.
Existing frameworks employ a thread-parallel message-passing approach to parallel and distributed scalability, leaving the field of scientific visualization in high performance computing to specialized ad-hoc implementations. The task-parallel programming paradigm proves promising to improve scalability and portability in high performance computing implementations and thus, this thesis aims towards the creation of a framework for distributed, task-based visualization modules and pipelines.
The major contribution of the thesis is the establishment of modules for Merge Tree construction and (based on the former) topological simplification. Such modules already form a necessary first step for most visualization pipelines and can be expected to increase in importance for larger and more complex data produced and/or analysed by high performance computing.
To create a task-parallel, distributed Merge Tree construction module the construction process has to be completely revised. We derive a novel property of Merge Tree saddles and introduce a novel task-parallel, distributed Merge Tree construction method that has both good performance and scalability. This forms the basis for a module for topological simplification which we extend by introducing novel alternative simplification parameters that aim to reduce the importance of prior domain knowledge to increase flexibility in typical high performance computing scenarios.
Both modules lay the groundwork for continuative analysis and visualization steps and form a fundamental step towards an extensive task-parallel visualization pipeline framework for high performance computing.
Der Boom aromatisierter weinhaltiger Getränke mit unterschiedlichsten entwickelten Aromaprofile erhöhte den Absatz dieser Getränke in den letzten Jahren. In Anbetracht der Beliebtheit und der Absatzmöglichkeiten dieser Produkte möchten Winzer und Winzerinnen sowie große Kellereien ihr Produktportfolio um aromatisierte weinhaltige Getränke, wie einem eigenen Glühwein erweitern. Die Abfüllung dieser hoch aromatisierten Getränke auf derselben Füllanlage, auf der auch die klassischen Weine abgefüllt werden, kann jedoch rechtliche Probleme für die Hersteller zur Folge haben. Es besteht ein Verschleppungsrisiko zugesetzter Aromastoffe in nachfolgende Weine aufgrund einer Aufnahme und Abgabe in verbauten Dichtung in einer Abfüllanlage. Diese Verschleppung wird anhand des Weingesetzes als ein unzulässiger Aromazusatz eingestuft. Mit der steigenden Anzahl nachgewiesener Fälle von unbewussten Aromaverschleppungen verfasste das Bundesministerium für Ernährung und Landwirtschaft (BMEL) im Jahr 2019 einen Leitfaden, der zwischen einer Aromatisierung und einer unbewussten Verschleppung differenziert. Verschleppte Aromastoffe, die keinen sensorischen Beitrag im Wein aufzeigen, werden darin als technisch unvermeidbares Übergehen (carryover) eingestuft. Erforderliche Methoden zur Beurteilung des sensorischen Beitrags einzelner Aromastoffe in analytisch auffälligen Weinen werden innerhalb des Leitfadens jedoch nicht genannt.
Das Ziel der vorliegenden Arbeit bestand in der Betrachtung der Aufnahme und Abgabe von Aromastoffen in Dichtungen während einer Abfüllung aromatisierter Weine, der Evaluation der Einflussfaktoren zur Minimierung des Verschleppungsrisikos sowie der Entwicklung eines Konzeptes zur Erfassung des sensorischen Einflusses einzelner verschleppter Aromastoffe.
Zur Beurteilung der sensorischen Relevanz von sieben Aromastoffen, die häufig in aromatisierten Getränken zu finden sind (γ Decalacton, γ Undecalacton, δ Decalacton, α Ionon, Ethyl 2-methylbutanoat, Eugenol, trans-Zimtaldehyd), wurden Wahrnehmungs-schwellenwerte (odor threshold, OT) in Wasser, Modellwein und einem Weißwein bestimmt. Die erfassten Schwellenwerte variierten in den drei Matrices zwischen einem Faktor von zwei bis hin zu vier Größenordnungen. Eine Evaluierung des sensorischen Einflusses des α Ionon (Himbeeraroma) in einem Weißwein zeigte auf, dass ein sensorischer Einfluss dieses Aromastoffes erst bei Konzentrationen auftrat, die zehnmal so hoch waren wie die sensorische Wahrnehmungsschwelle in Wein.
Mit der Etablierung einer robusten Analysemethode (TD-GC-MS) für den direkten Nachweis von Aromastoffen in einer Polymermatrix war es möglich, die Einflussfaktoren zu untersuchen, die die Aufnahme und Freisetzung von Aromastoffen in und aus Dichtungen beeinflussen. In Modellversuchen dieser Arbeit konnte die Abhängigkeit der Aufnahme der Aromastoffe und der exponierten Polymerfläche, der vorliegenden Konzentration sowie der Polarität der Aromastoffe aufgezeigt werden. Mit Hilfe des dekadischen Logarithmus des Octanol-Wasser-Verteilungskoeffizienten (log P) konnte die Varianz in der Absorption der Aromastoffe zu 91 % und fortfolgend verschleppte Aromastoffe in einen nachfolgenden Modellwein zu 99 % erklärt werden. Mit zunehmendem unpolaren Charakter der Aromastoffe stieg die Absorption in unpolare polymere Materialien exponentiell an und führte folglich zu einer proportionalen Zunahme des Verschleppungsrisikos.
Eine Evaluation der üblichen Reinigungsparameter zwischen den Produktwechseln in einer Füllanlage verdeutlichte, dass die gewählte Reinigungstemperatur und -dauer die Abgabe der Aromastoffe an die Reinigungsmittel primär beeinflusst, während die gewählten Reinigungsmedien nur einen sekundären Einfluss hatten. Es konnte ein umgekehrter Effekt zur Absorption gezeigt werden. Polare Aromastoffe wurden von den polaren Reinigungsmitteln effektiver aus der Polymermatrix entfernt. Bei Anwendung niedriger Reinigungstemperaturen von 22 °C wurden längere Reinigungszeiten von bis zu 24 Stunden benötigt, um eine vergleichbare Reinigungseffizienz zu 85 °C über 30 Minuten zu erreichen. Ein vollständiges Entfernen der Aromastoffe war mit einer Reinigung nicht möglich.
Die abschließende Untersuchung einer Abfüllung in einem industriellen Maßstab illustrierte eine hohe Aufnahme der Aromastoffe in Dichtungen und einen niedrigen Reinigungseffekt obgleich der umfangreichen Reinigung in den Kellereien. Trotz der analytisch nachweisbaren Aromastoffe in den Dichtungsmaterialien war eine sensorische bzw. analytische Differenzierung der abgefüllten Weine nicht möglich. Die analytisch erfassten Konzentrationen an Eugenol und γ Decalacton unterschritten die Wahrnehmungsschwellenwerte in Wein, weshalb eine Authentizitätskontrolle hinsichtlich der erfassten Aromastoffe nicht zu einer Beanstandung führen sollte.
Die vorliegende Arbeit ist Teil des Drittmittelprojekts „Minimierung von Aromaverschleppung bei der Abfüllung von Wein, Sekt und Fruchtwein – AiF 20220 N“, einem IGF-Vorhaben der Forschungsvereinigung Forschungskreis der Ernährungsindustrie e. V. (FEI), welches von 2018–2021 über die AiF im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Klimaschutz aufgrund eines Beschlusses des Deutschen Bundestages gefördert wird.
Open Strategy beschreibt die zunehmende Öffnung strategischer Prozesse für zuvor nicht involvierte Individuen und Gruppen. Diese Dissertation ergründet durch eine empirische Betrachtung das Management solcher Prozesse und wie zusätzliche Offenheit gesteuert wird. Um dieses Management der Open Strategy näher zu beschreiben, befasst sich diese Arbeit mit drei zentralen Aspekten. Zuerst werden grundlegende Facetten der Offenheit betrachtet und dadurch das Verständnis geschärft wie diese ausgeprägt ist. Weiterhin wird das Management der Open Strategy als das Implementieren von Steuerungsmechanismen charakterisiert und aufgezeigt wie solche Mechanismen einen Einfluss auf Offenheit haben können. Zuletzt wird die Offenheit in der Open Strategy als eine Balance von Schließung und Öffnung identifiziert, die stetiger Anpassung bedarf. Die Dissertation erweitert die Open Strategy somit um zwei zentrale Punkte: (1) eine differenzierte Sichtweise auf Offenheit und (2) den Zusammenhang von Schließung und Öffnung als auszugleichende Faktoren.
Bauen im Bestand hat bei heutigen Bauaufgaben einen nicht mehr zu vernachlässigbaren
Anteil eingenommen. Aufgrund erhöhter Deckenlasten in Gebäuden durch Nutzungsänderungen
oder erhöhter Verkehrsdichten auf Brücken wird dabei eine statische
Neuberechnung nach aktuell geltendem Normenwerk notwendig. Dazu ist eine möglichst
genaue und realitätsnahe Kenntnis des Belastungszustandes der zu untersuchenden
Bauwerke unabdingbar. Oftmals ergibt ein konventionell geführter Nachweis
dabei keine ausreichende Tragfähigkeit oder dieser ist aufgrund fehlender Bauwerksunterlagen
erschwert zu führen. In diesem Fall werden bisher aufwendige Probebelastungen
durchgeführt, mit Hilfe derer das wirkliche Tragverhalten eines Bauwerks untersucht
wird. Dadurch können für Neubauten zu verwendende Annahmen entfallen und
die vorhandenen Tragwerksreserven lassen sich ausnutzen. Mit dem in dieser Arbeit
vorgestellten Verfahren der Spannungs- und Schnittgrößenermittlung in Stahlbauteilen
mittels zerstörungsfreiem Ultraschallprüfverfahren können diese hohen Aufwendungen
reduziert werden und es lassen sich wirtschaftlich und schnell die vorhandenen Belastungszustände
bestehender Stahlbauwerke bestimmen.
Dazu wird das Verfahren der Ultraschall- Spannungsermittlung an Baustahlträgern untersucht.
Es wird auf die Besonderheiten desWerkstoffs Baustahl eingegangen und die
speziellen baupraktischen Einflüsse werden betrachtet. In Laborversuchen werden die
Ultraschallwellen auf ihre Genauigkeit und ihre Reproduzierbarkeit hin überprüft sowie
der akusto- elastische Kennwert ermittelt, welcher der Ultraschallwellengeschwindigkeit
im Baustahl den vorhandenen Spannungswert zuordnet. Somit können Längsbiegespannungen
und Schubspannungen belasteter Träger ermittelt werden.
Um die Messergebnisse auf nutzbare Ergebnisse für das gültige Format des zu führenden
Tragfähigkeitsnachweises zu übertragen, wird eine stochastische Aufbereitung der
Messdaten vorgenommen. Aus den gemessenen Spannungen können die Schnittgrößenverläufe
verschiedener vorhandener Belastungszustände stochastisch geschätzt
werden. Das Sicherheitskonzept des Bauwesens wird auf die Verwendung dieser
Schnittgrößenverläufe adaptiert. Mit Hilfe von Messungen an ermittelten nachweisrelevanten
Messstellen steht ein Messsystem und -verfahren zur Verfügung, mit welchem
zerstörungsfreie Tragfähigkeitsnachweise an bestehenden Stahlbauwerken nach aktuell
gültigem Normenwerk geführt werden können. In Praxiseinsätzen während der
Entwicklung wird die Handhabbarkeit des Ultraschall- Messsystems validiert und es
werden Optimierungsmöglichkeiten abgeleitet.
Investigations on the high cycle fatigue strength of short glass fiber reinforced polyamide 66
(2022)
The growth of composite materials is closely linked to the demands of the transportation industry for efficient and resource-saving solutions. The beginnings of modern lightweight construction lie in the aviation industry, which constantly strives to reduce weight in order to achieve greater travel distances and reduce fuel consumption. For this purpose, continuous fiber-reinforced plastics are used, that are characterized in particular by their outstanding specific mechanical properties and therefore meet the high requirements for load-bearing capacity in aviation. In the automotive sector, the focus is similar and increasingly trends towards weight-optimized solutions in order to meet the growing requirements to reduce CO2 emissions. Substituting metallic components with composite materials can be a solution for these challenges. However, the requirements for the materials used in the automotive sector are different from those in the aerospace sector. In contrast to the rather low production volumes in the aerospace industry, vehicle components are manufactured in large quantities and therefore require short cycle times and cost-efficient production.
One group of materials that meet these requirements are short-fiber-reinforced thermoplastics (SFRTs). They are characterized in particular by their low-cost manufacturing, which can be achieved through the injection molding process and therefore enables the production of components in high volumes. Glass fibers are mainly used for reinforcement, with the fiber length limited to 1 mm due to the injection molding process. Despite this short fiber length, the strength and stiffness of the pure polymer can be significantly increased with short fiber reinforcement. However, the reinforcement effect is strongly influenced by the fiber orientation resulting from the injection molding process. Layers with different fiber orientation are formed, which are accompanied by a pronounced anisotropic material behavior. Due to the thermoplastic matrix, the mechanical properties of SFRT additionally depend on environmental conditions such as humidity and temperature. Consequently, characterizing the material and thereby covering all influencing factors requires effortful and lengthy testing. Especially when determining fatigue properties for a detailed service life analysis, long testing times combined with high costs must be taken into account. In this case, a quasi-static strength analysis is usually performed for the dimensioning of components, which is often also used with empirical reduction factors for the fatigue analysis.
Considering the above mentioned context, the present work investigates the behavior of short glass fiber-reinforced polyamide 66 in the range of very high cycle fatigue (> 106 load cycles) and addresses the question as to whether a fatigue limit exists for the aforementioned material or not. For this particular purpose, various experimental methods are used, which all have in common, that they generate large amounts of data requiring automated processing. The experiments are carried out with test specimens longitudinally and transversely to the injection molding direction in order to observe a possible influence of the fiber orientation on the material’s fatigue behavior.
In the first part of this experimental work, the stiffness and the hysteresis data are studied during fatigue tests with different maximum stress levels. Subsequently, the stiffness degradation and the dissipative energy are parameterized to correlate this data with the applied maximum stresses. The data analysis method identifies characteristic stress levels at which fatigue behavior changes. The changes occur in three fatigue life ranges of low cycle, high cycle and very high cycle fatigue. The research shows that a cyclic load with 105 cycles is sufficient to estimate the three mentioned fatigue ranges.
In the second part of this experimental work, residual strength tests with acoustic emission (AE) analysis are performed on the cyclically preloaded specimens. AE uses sensors to detect acoustic signals generated by crack initiation and crack growth under mechanical load. Accordingly, in the residual strength tests, only the damage that has not already occurred under cyclic preloading can be recorded. Based on the "acoustic fingerprint", characteristic stress levels were identified at which a change in damage behavior occurred. As long as this "acoustic fingerprint" differs from that of a non-preloaded specimen, it can be concluded that damage was initiated under the applied cyclic load.
Finally, a digital twin was generated to investigate the underlying micromechanical mechanisms at the experimentally identified characteristic stress levels. X-ray microscope scans of the specimens were imported into the commercial software GeoDict®. This voxel-based software uses numerically efficient Fast Fourier Transforms (FFT) to analyze the microstructure and simulate the experiments on the real 3D microstructure. The simulations show that the fiber-matrix interface significantly influences the damage behavior in the very high cycle fatigue range. By analyzing the matrix plasticization rate, the stress levels associated with high cycle fatigue can be estimated. Fiber fractures, on the other hand, are only relevant in the low cycle fatigue range.
Thus, both the experimental methods and the simulation of a digital twin have been proven suitable to estimate the different fatigue ranges in a time-efficient manner. In addition, the analyses of stiffness degradation in fatigue tests and acoustic emissions in residual strength tests indicate that damage occurs at a loading above stresses, which correspond to a fatigue life of 1011 cycles. This in turn implies that no fatigue limit exists before 1011 load cycles for the short-fiber-reinforced polyamide 66 under investigation.
The publication explores policy and planning approaches to urban shrinkage and population decline from Bilbao, Spain (2000-2015), Leipzig, Germany (2000-2015) and Zeeland, the Netherlands (2018-2020). Through the main method of interpretive policy analysis, causal and normative dimensions of the policy and planning approaches are determined. The conclusions from the different cases are reviewed in a cross-national comparative framework, based on policy benchmarking. As a result of the policy benchmarking, variants of the new planning concept of "Shrinking Smart" are defined, providing recommendations for overall policy approach under conditions of population decline, encompassing: the planning process for shrinking cities; a decision making mechanism with normative orientation; economic development and quality of life as a broader policy framework; spatial planning under conditions of urban shrinkage. The conclusions are complemented by critical reflection on growth orientation and its pervasiveness under conditions of shrinkage and population decline as well as with recommendations on particular instruments under each of the concept variants.
2-Methylfuran (MF) ist eine Kontaminante, die vor allem in hitzebehandelten Lebensmitteln wie Kaffee oder Lebensmittelkonserven vorkommt. Jedoch ist die Datenlage für eine Risikobewertung lückenhaft hinsichtlich der Exposition und Toxizität (Knutsen et al., 2017). In vivo Studien mit 14C-MF zeigten die Leber als Zielorgan histopathologischer Veränderungen, wie Nekrosen (Ravindranath et al., 1986; Gill et al., 2014). Es wurde die metabolische Aktivierung von MF zu reaktivem Acetylacrolein (AcA) angenommen, welches ein hohes Potential zeigte an Aminosäuren zu binden (Ravindranath et al., 1984a; Ravindranath und Boyd, 1985). In dieser Arbeit wurden die molekularen und chemischen Mechanismen von MF und AcA untersucht, um Rückschlüsse auf die toxikologischen Effekte zu ermöglichen. Zunächst wurde MF in silico hinsichtlich seines toxikologischen Potentials klassifiziert und endpunktspezifisch quantitative Struktur-Wirkungsbeziehungen (QSAR, engl. quantitative structure-activity relationship) analysiert. Positive toxikologische Abschätzungen basierten auf dessen metabolischer Aktivierung zu verschiedenen Metabolite. Diese wurden in zwei Gruppen unterteilt, welche von AcA oder Furfurylalkohol (FFA) abstammten. Im Folgenden wurde AcA synthetisiert und dessen Reaktivität gegenüber N-Acetyl-L-cystein (AcCys), Nα-Acetyl-L-lysin (AcLys), 2′-Desoxyadenosin (dA), 2′-Desoxyguanosin (dG), 2′-Desoxycytosin (dC) sowie 2′-Desoxythymidin (dT) geprüft. Bis auf dT, welches keine Reaktivität zeigte, wurden alle Addukte von AcA charakterisiert, was die Entwicklung sensitiver Quantifizierungsmethoden via (U)HPLC-ESI+/--MS/MS ermöglichte. Anschließend wurde die metabolische Aktivierung von MF zu AcA unter Verwendung humaner (HLM) und Rattenlebermikrosomen (RLM) verifiziert und enzymkinetisch untersucht. Analog wurde die Umsetzung von MF mit CYP 2E1 charakterisiert, welches sich innerhalb der getesteten SupersomesTM CYP 1A2, 2A6, 2C9, 2D6, 2E1 und 3A4 als Schlüsselenzym herausstellte. Zuletzt wurde die Bildung der in chemico identifizierten AcA-Addukte in vitro untersucht. Hierzu wurde die Zytotoxizität von MF in primären Rattenhepatozyten (pRH) mit der in HepG2-Zellen verglichen als auch in Bezug zu der Zytotoxizität von AcA gesetzt. Wurden pRH mit MF und AcA inkubiert, konnte in den Zellüberständen AcLys-AcA zeit- und dosisabhängig nachgewiesen werden. Dies qualifiziert AcLys-AcA als potenzieller Biomarker. Gleichzeitig konnte hiermit gezeigt werden, dass AcA auch auf zellulärer Ebene gebildet wird. Dahingegen wurde weder AcCys-AcA noch die DNA-Addukte dA-AcA, dG-AcA oder dC-AcA in vitro nachgewiesen. Dies deutete auf eine effiziente Detoxifzierung, bzw. Reaktion mit Biomolekülen in der Zelle hin, obgleich die Induktion anderer DNA-Schäden, ggf. auch durch anderen Metabolit, nicht prinzipiell auszuschließen ist. So wurde erstmals in vitro AcA als reaktiver Metabolit von MF nachgewiesen und seine Addukte mit nukleophilen Zellbestandteilen als potenzielle Biomarker untersucht. Diese ermöglicht eine verbesserte Risikobewertung von MF.
Im Rahmen dieser Dissertation konnten verschiedene multimetallische Komplexe auf Basis des
(η5-Cyclopentadienyl)(η6-phenyl)eisen(II)-Rückgrats dargestellt werden. Als Strukturmotiv zur Bindung
weiterer Metallzentren diente dabei entweder eine Phosphanfunktionalität oder verschiedene
imidazolbasierte N-Heterocyclische Carbenstrukturen. Diese neuartigen Liganden wurden zudem in
Hinblick auf ihre elektronischen und sterischen Eigenschaften untersucht. Neben dem Eisenzentrum
wurden Komplexe mit den häufig katalytisch relevanten Übergangsmetallzentren Ruthenium(II),
Osmium(II), Rhodium(I), Rhodium(III), Iridium(III), Palladium(II), Platin(II), Kupfer(I), Silber(I) und
Gold(I) mit jeweils unterschiedlicher weiterer Koordinationsumgebung erhalten. Diese Vielfalt
neuartiger multimetallischer Verbindungen wurde darüber hinaus im Bereich der homogenen Katalyse
erforscht. Dies geschah insbesondere in Hinblick auf mögliche kooperative Effekte der Metallzentren
mit- und untereinander im Kontext des Sonderforschungsbereichs TRR 88 „3MET“.
This dissertation was developed in the context of the BMBF and EU/ECSEL funded
projects GENIAL! and Arrowhead Tools. In these projects the chair examines methods
of specifications and cooperations in the automotive value chain from OEM-Tier1-Tier2.
Goal of the projects is to improve communication and collaborative planning, especially
in early development stages. Besides SysML, the use of agreed vocabularies and on-
tologies for modeling requirements, overall context, variants, and many other items, is
targeted. This thesis proposes a web database, where data from the collaborative requirements elicitation is combined with an ontology-based approach that uses reasoning
capabilities.
For this purpose, state-of-the-art ontologies have been investigated and integrated that
entail domains like hardware/software, roadmapping, IoT, context, innovation and oth-
ers. New ontologies have been designed like a HW / SW allocation ontology and a
domain-specific "eFuse ontology" as well as some prototypes. The result is a modular
ontology suite and the GENIAL! Basic Ontology that allows us to model automotive
and microelectronic functions, components, properties and dependencies based on the
ISO26262 standard among these elements. Furthermore, context knowledge that influences design decisions such as future trends in legislation, society, environment, etc. is
included. These knowledge bases are integrated in a novel tool that allows for collabo-
rative innovation planning and requirements communication along the automotive value
chain. To start off the work of the project, an architecture and prototype tool was developed. Designing ontologies and knowing how to use them proved to be a non-trivial
task, requiring a lot of context and background knowledge. Some of this background
knowledge has been selected for presentation and was utilized either in designing models
or for later immersion. Examples are basic foundations like design guidelines for ontologies, ontology categories and a continuum of expressiveness of languages and advanced
content like multi-level theory, foundational ontologies and reasoning.
Finally, at the end, we demonstrate the overall framework, and show the ontology with
reasoning, database and APPEL/SysMD (AGILA ProPErty and Dependency Descrip-
tion Language / System MarkDown) and constraints of the hardware / software knowledge base. There, by example, we explore and solve roadmap constraints that are coupled
with a car model through a constraint solver.
Als alternatives Bewehrungsmaterial für Betonbauteile kann eine Faserkunststoffbewehrung (FKB), bestehend aus faserverstärkten Kunststoffen (FVK) eingesetzt werden. Im Vergleich zu Stahlbewehrung weist eine FKB verschiedene Vorteile auf. Neben einer geringen Wärmeleitfähigkeit, nicht magnetischen Eigenschaft und einer hohen Zugfestigkeit weist FKB eine hohe Beständigkeit gegenüber stahlkorrosionsfördernden Umgebungsbedingungen auf. Durch die Anwendung von FKB in Betonbauteilen, besteht das Potenzial eine tragfähige und wartungsarme Betonkonstruktion herzustellen.
Da noch keine allgemeingültige Bemessungsnorm für FKB existiert, werden faserkunststoffbewehrte Betonbauteile derzeit nach den für Betonstahl gültigen Normen in Kombination mit den allgemeinen bauaufsichtlichen Zulassungen bemessen. Infolge der voneinander abweichenden Materialcharakteristiken der Werkstoffe Stahl und FVK, können nicht alle geltenden Bemessungsgleichungen ohne Anpassung angewendet werden. Dies betrifft die Bemessung der Verankerungslänge zur Sicherstellung der Verankerungstragfähigkeit.
Der aktuelle Stand der Wissenschaft bezieht sich überwiegend auf das stabspezifische Verbundverhalten von FKB-Stäben unter Kurzzeitbeanspruchung. Erkenntnisse zum Langzeitverbundverhalten und der Verankerungstragfähigkeit eines faserkunststoffbewehrten Betonbauteils sind unzureichend vorhanden.
Gegenstand der vorliegenden Arbeit ist die Erforschung des Verbundtragverhaltens von FKB-Stäben und die Erarbeitung eines Bemessungskonzepts zur Sicherstellung der Verankerungstragfähigkeit unter Kurz- und Langzeitbeanspruchung. Die Basis hierfür bildet der aktuelle Arbeitsentwurf des Eurocode 2. Die darin aufgeführte Bemessungsgleichung der Verankerungslänge wird für FKB-Stäbe angepasst und um eine Mindestverankerungslänge zur Sicherstellung einer dauerhaften Verankerungstragfähigkeit sowie eine Mindestbetondeckung zur Vermeidung eines schlagartigen Bauteilversagens erweitert.
Zur Erstellung des Bemessungskonzepts werden experimentelle Untersuchungen an faserkunststoffbewehrte Betonbauteile mit Bewehrungsstäben aus glasfaserverstärktem Kunststoff (GFK) durchgeführt. Es werden das Verbundverhalten und das Veran-kerungstragverhalten in Abhängigkeit konstruktiver Parameter erforscht. Um den Einfluss von Langzeiteinflüssen auf die Verankerungstragfähigkeit zu erforschen, wird ein Versuchsstand konzipiert, mit dessen Hilfe der Einfluss einer langandauernden Belas-tung und einer kombinierten Einwirkung von Temperatur, Feuchtigkeit und Betonalkalität auf die Verbundfestigkeit bestimmt wird. Des Weiteren wird ein Versuchskörper entwickelt, welcher ermöglicht die Spannungsverteilung einer Verankerung quantitativ zu erfassen. Hiermit wird die Beanspruchung des Betons entlang der Verankerungslänge abgeleitet.
Die gesammelten Erkenntnisse münden in einem Modell zur Berechnung des Verbundspannungsverlaufs, dessen zeitliche Entwicklung sowie der Beanspruchung der Betondeckung. Anhand dieses Modells werden Bemessungswerte der Verbundfestigkeit stabspezifisch abgeleitet.
Organizational routines constitute how work is accomplished in organizations. This dissertation thesis draws on recent routine research and is anchored in the field of organization theory. The thesis consists of four separate manuscripts that contribute to related research fields such as agility or coordination research from a routine perspective while also extending routine dynamics research. Recent routine dynamics research offers a wide perspective on how situated actions within and across routines unfold as emergent accomplishments. This allows us to analyze other organization research phenomena, such as agility and coordination. Accordingly, the first and second manuscripts argue for the adoption of a very dynamic perspective on routines and the incorporation of these insights into agility and coordination research. This is followed by two empirical manuscripts that expand the routine literature based on qualitative research within agile software development. The third manuscript of this dissertation analyzes how situated actions address different temporal orientations (i.e., past, present, and future). Last, the fourth manuscript addresses the performing of roles within and through routines. In general, this dissertation contributes to overall organization research in two ways: (1) by outlining and examining how agility is enacted; (2) by highlighting that actions are performed flexibly to consider the situation at hand.
Towards standardized operating procedures for eDNA-based monitoring of marine coastal ecosystems
(2022)
Marine coastal ecosystems are exposed to a variety of anthropogenic impacts, which
often manifest themselves in the pollution of the surrounding ecosystem. Especially on
densely populated coasts or in regions heavily used for aquaculture, changes in the natural
marine habitat can be observed. In order to protect nature and thus its ecosystem services
for humans, more and more environmental protection laws are coming into force.
Exemplary, operators of facilities known to contribute to pollution are obliged to regularly
monitor the condition of the surrounding environment. The purpose of such so-called
compliance monitoring is to determine whether the prescribed regulations are being
followed. The traditional routine involves sampling by ship, during which sediment
samples are taken from the seabed below the aquaculture cages and all macrofauna
organisms found, such as mussels or worms, are taxonomically determined and quantified
by experts. Based on the community of organisms the ecological status of the sample can
then be inferred. Since this method is very labor- and time-consuming, a reorientation of
the scientific community towards alternative monitoring methods is currently taking place.
A bacteria-based eDNA (environmental DNA) metabarcoding system in particular has
proven to be a suitable monitoring tool. With this molecular method, the composition of
the benthic bacterial community is determined using high-throughput sequencing. The
great advantage of this method is that bacteria, due to their short generation times, react
rapidly to various environmental influences. The composition of this community can then
be used to infer the ecological status of the sample under investigation via sequencing
without the need for laborious enumeration and identification of organisms. Additionally,
sequencing costs are more and more decreasing, proposing eDNA metabarcoding-based
monitoring as a faster and cheaper alternative to traditional monitoring. In order to
implement the method in legislation in the long term, standard protocols need to be
developed. Once these are sufficiently validated, the novel methodology can be
incorporated into regulations to support or even replace traditional monitoring. However,
some steps of the eDNA metabarcoding method, from sampling to ecosystem assessment,
are not yet sufficiently standardized, which is why the development of this work was
necessary. Since there is no consensus in the scientific community on (i) the preservation of
environmental samples during transport, (ii) the reproducibility of ecosystem assessment
among different laboratories, (iii) the most appropriate bioinformatic method for ecosystem
assessment, and (iv) the minimum sequencing depth required to determine ecosystem
status, these sub-steps were investigated. It was found that the most common methods
currently used to preserve samples during transport had no discernible effect on the final
ecosystem assessment. Furthermore, sample processing in independent laboratories
allowed the same ecological interpretations based on the bacterial community, which
resulted in concordant ecosystem assessments among laboratories. This indicates the
overall reproducibility of the eDNA metabarcoding-based method, thus enabling its
implementation in standard protocols. Furthermore, it was shown that corresponding
ecosystem assessments can be obtained with the currently used methods for determining
ecological status based on eDNA data. Critical to predictive accuracy is not the method
itself, but a sufficient number of samples that accounts for the natural spatial and temporal
variability of bacterial communities. It was demonstrated that a very shallow sequencing
depth per sample can be sufficient to use machine learning to prediction the ecological
status of the environmental sample. The quality of this classifications did not depend on
the sequencing depth as assumed but was determined by the separability of individual
categories. The results and recommendations of this work contribute directly to the
standardization of ecological assessment of nearshore marine ecosystems. By establishing
these standard protocols, it will be possible to integrate the eDNA metabarcoding-based
method for monitoring compliance of coastal marine ecosystems into legislative
regulations in the future.
The testing effect describes the finding that retrieval practice compared to study practice enhances memory performance. Prior evidence consistently demonstrates that this effect can be further boosted by providing feedback after retrieval attempts (test-potentiated encoding, TPE). The present PhD thesis was aimed at investigating the neural processes during memory retrieval underlying the beneficial effect of additional performance feedback beyond the benefits of only adding correct answer feedback. Three studies were conducted and behavioral as well as neural correlates (collected with electroencephalography and functional magnetic resonance imaging) of feedback learning were examined.
Adjoint-Based Shape Optimization and Optimal Control with Applications to Microchannel Systems
(2021)
Optimization problems constrained by partial differential equations (PDEs) play an important role in many areas of science and engineering. They often arise in the optimization of technological applications, where the underlying physical effects are modeled by PDEs. This thesis investigates such problems in the context of shape optimization and optimal control with microchannel systems as novel applications. Such systems are used, e.g., as cooling systems, heat exchangers, or chemical reactors as their high surface-to-volume ratio, which results in beneficial heat and mass transfer characteristics, allows them to excel in these settings. Additionally, this thesis considers general PDE constrained optimization problems with particular regard to their efficient solution.
As our first application, we study a shape optimization problem for a microchannel cooling system: We rigorously analyze this problem, prove its shape differentiability, and calculate the corresponding shape derivative. Afterwards, we consider the numerical optimization of the cooling system for which we employ a hierarchy of reduced models derived via porous medium modeling and a dimension reduction technique. A comparison of the models in this context shows that the reduced models approximate the original one very accurately while requiring substantially less computational resources.
Our second application is the optimization of a chemical microchannel reactor for the Sabatier process using techniques from PDE constrained optimal control. To treat this problem, we introduce two models for the reactor and solve a parameter identification problem to determine the necessary kinetic reaction parameters for our models. Thereafter, we consider the optimization of the reactor's operating conditions with the objective of improving its product yield, which shows considerable potential for enhancing the design of the reactor.
To provide efficient solution techniques for general shape optimization problems, we introduce novel nonlinear conjugate gradient methods for PDE constrained shape optimization and analyze their performance on several well-established benchmark problems. Our results show that the proposed methods perform very well, making them efficient and appealing gradient-based shape optimization algorithms.
Finally, we continue recent software-based developments for PDE constrained optimization and present our novel open-source software package cashocs. Our software implements and automates the adjoint approach and, thus, facilitates the solution of general PDE constrained shape optimization and optimal control problems. Particularly, we highlight our software's user-friendly interface, straightforward applicability, and mesh independent behavior.
Die ganzheitliche stoffliche Verwertung von Biertreber in Bioraffinerieprozessen mit dem Ziel der Itaconsäureproduktion, bietet eine alternative Nutzungsmöglichkeit für diesen industriellen Nebenproduktstrom. Dabei stellt Itaconsäure ein nachhaltiges Substitut für beispielsweise erdölbasierte Acrylsäure dar. Das Ziel der vorliegenden Arbeit liegt in der Entwicklung und Etablierung geeigneter mechanischer, hydrothermaler und enzymatischer Vorbehandlungsmethoden, um zuckerreiche Hydrolysate zu Fermentationszwecken bereitzustellen. Die Optimierung der Einflussgrößen auf die hydrothermale Vorbehandlung erfolgte im Rahmen einer statistischen Versuchsplanung. Dadurch wurden mittels der kombinierten Vorbehandlung, bestehend aus mechanischem Abpressen und anschließender Organosolv Behandlung, im enzymatischen Schritt Ausbeuten von bis zu 66 % (Glucose) und 70 % (Xylose) erzielt. Zur anschließenden fermentativen Herstellung von Itaconsäure wurde ein Produktionsprozess mit dem Organismus Ustilago maydis und den zuckerreichen Biertreberhydrolysaten als Fermentationsmedium etabliert. Dabei konnten Ausbeutesteigerungen von bis zu 52 %, verglichen mit einer Referenz in Standardmedium, erzielt werden. Unter Verwendung von biertreberbasierten Fermentationsmedien wurde bei der Herstellung von bis zu 9,4 g/L Itaconsäure die bereitgestellte Menge an Kohlenhydraten als produktbildungslimitierender Faktor identifiziert. Des Weiteren konnte durch Variation der Prozessführung unter anderem die Option der simultanen Verzuckerung und Fermentation von hydrothermal vorbehandeltem Biertreber mit U. maydis erfolgreich demonstriert werden. Abschließend erfolgte die Evaluation des gesamten entwickelten Bioraffinerieprozesses anhand einer Stoffstromsimulation. Dabei zeigte sich, dass neben der Erhöhung der Ausbeuten noch weitere Optimierungen durchgeführt werden müssen, um ein wirtschaftlich tragfähiges Verfahren zu entwickeln.
With the growing support for features such as hardware virtualization tied to the boost of hardware capacity, embedded systems are now able to regroup many software components on a same hardware platform to save costs. This evolution has raised system complexity, motivating the introduction of Mixed-Criticality Systems (MCS) to consolidate applications from different criticality levels on a hardware target: in critical environments such as an aircraft or a factory floor, high-critical functions are now regrouped with other non-critical functions. A key requirement of such system is to guarantee that the execution of a critical function cannot be compromised by other functions, especially by ones with a lower-criticality level. In this context, runtime intrusion detection contributes to secure system execution to avoid an intentional misbehavior in critical applications.
Host Intrusion Detection Systems (HIDS) has been an active field of research for computer security for more than two decades. The goal of HIDS is to detect traces of malicious activity in the execution of a monitored software at runtime. While this topic has been extensively investigated for general-purpose computers, its application in the specific context of embedded MCS is comparatively more recent.
We extend the domain of HIDS research towards HIDS deployment into industrial embedded MCS. For this, we provide a review of state-of-the-art HIDS solutions and evaluate the main problems towards a deployment into an industrial embedded MCS.
We present several HIDS approaches based on solutions for general-purpose computers, which we apply to protect the execution of an application running into an embedded MCS. We introduce two main HIDS methods to protect the execution of a given user-level application. Because of possible criticality constraints of the monitored application, such as industrial certification aspects, our solutions support transparent monitoring; i.e. they do not require application instrumentation. On one hand, we propose a machine-learning (ML) based framework to monitor low-level system events transparently. On the other hand, we introduce a hardware-assisted control-flow monitoring framework to deploy control-flow integrity monitoring without instrumentation of the monitored application.
We provide a methodology to integrate and evaluate HIDS mechanisms into an embedded MCS. We evaluate and implement our monitoring solutions on a practical industrial platform, using generic hardware system and SYSGO’s industrial real-time hypervisor.
Automation, Industry 4.0 and artificial intelligence are playing an increasingly central role for companies. Artificial intelligence in particular is currently enabling new methods to achieve a higher level of automation. However, machine learning methods are usually particularly lucrative when a lot of data can be easily collected and patterns can be learned with the help of this data. In the field of metrology, this can prove difficult depending on the area of work. Particularly for micrometer-scale measurements, measurement data often involves a lot of time, effort, patience, and money, so measurement data is not readily available. This raises the question of how meaningfully machine learning approaches can be applied to different domains of measurement tasks, especially in comparison to current solution approaches that use model-based methods. This thesis addresses this question by taking a closer look at two research areas in metrology, micro lead determination and reconstruction. Methods for micro lead determination are presented that determine texture and tool axis with high accuracy. The methods are based on signal processing, classical optimization and machine learning. In the second research area, reconstructions for cutting edges are considered in detail. The reconstruction methods here are based on the robust Gaussian filter and deep neural networks, more specifically autoencoders. All results on micro lead and reconstruction are compared and contrasted in this thesis, and the applicability of the different approaches is evaluated.
Controller design for continuous dynamical systems is a core algorithmic problem in the design of cyber-physical systems (CPS). When the CPS application is safety critical, additionally we require the controller to have strong correctness guarantees. One approach for this design problem is to use simpler discrete abstraction of the original continuous system, on which known reactive synthesis methods can be used to design the controller. This approach is known as the abstraction-based controller design (ABCD) paradigm.
In this thesis, we build ABCD procedures which are faster and more modular compared to the state-of-the-art, and can handle problems which were beyond the scope of the existing techniques.
Usually, existing ABCD approaches use state space discretization for computing the abstractions, for which the procedures do not scale well for larger systems. Our first contribution is a multi-layered ABCD algorithm, where we combine coarse abstractions and lazily computed fine abstractions to improve scalability. So far, we only address reach-avoid and safety specifications, for which our prototype tool (called Mascot) showed up to an order of magnitude speedup on standard benchmark examples.
Second, we consider the problem of modular design of sound local controllers for a network of local discrete abstractions communicating via discrete/boolean variables and having local specifications. We propose a sound algorithm, where the systems negotiate a pair of local assume-guarantee contracts, in order to synchronize on a set of non-conflicting and correct behaviors. As a by-product, we also obtain a set of local controllers for the systems which ensure simultaneous satisfaction of the local specifications. We show the effectiveness of the our algorithm using a prototype tool (called Agnes) on a set of discrete benchmark examples.
Our third contribution is a novel ABCD algorithm for a more expressive model of nonlinear dynamical systems with stochastic disturbances and ω-regular specifications. This part has two subparts, which are of significant merits on their own rights. First, we present an abstraction algorithm for nonlinear stochastic systems using 2.5-player games (turn-based stochastic graph games). We show that an almost sure winning strategy in this abstract 2.5-player game gives us a sound controller for the original system for satisfying the specification with probability one. Second, we present symbolic algorithms for a seemingly different class of 2-player games with certain environmental fairness assumptions, which can also be used to efficiently compute winning strategies in the aforementioned abstract 2.5-player game. Using our prototype tool (Mascot-SDS), we show that our algorithm significantly outperforms the state-of-the-art implementation on standard benchmark examples from the literature.
Comparative Uncertainty Visualization for High-Level Analysis of Scalar- and Vector-Valued Ensembles
(2022)
With this thesis, I contribute to the research field of uncertainty visualization, considering parameter dependencies in multi valued fields and the uncertainty of automated data analysis. Like uncertainty visualization in general, both of these fields are becoming more and more important due to increasing computational power, growing importance and availability of complex models and collected data, and progress in artificial intelligence. I contribute in the following application areas:
Uncertain Topology of Scalar Field Ensembles.
The generalization of topology-based visualizations to multi valued data involves many challenges. An example is the comparative visualization of multiple contour trees, complicated by the random nature of prevalent contour tree layout algorithms. I present a novel approach for the comparative visualization of contour trees - the Fuzzy Contour Tree.
Uncertain Topological Features in Time-Dependent Scalar Fields.
Tracking features in time-dependent scalar fields is an active field of research, where most approaches rely on the comparison of consecutive time steps. I created a more holistic visualization for time-varying scalar field topology by adapting Fuzzy Contour Trees to the time-dependent setting.
Uncertain Trajectories in Vector Field Ensembles.
Visitation maps are an intuitive and well-known visualization of uncertain trajectories in vector field ensembles. For large ensembles, visitation maps are not applicable, or only with extensive time requirements. I developed Visitation Graphs, a new representation and data reduction method for vector field ensembles that can be calculated in situ and is an optimal basis for the efficient generation of visitation maps. This is accomplished by bringing forward calculation times to the pre-processing.
Visually Supported Anomaly Detection in Cyber Security.
Numerous cyber attacks and the increasing complexity of networks and their protection necessitate the application of automated data analysis in cyber security. Due to uncertainty in automated anomaly detection, the results need to be communicated to analysts to ensure appropriate reactions. I introduce a visualization system combining device readings and anomaly detection results: the Security in Process System. To further support analysts I developed an application agnostic framework that supports the integration of knowledge assistance and applied it to the Security in Process System. I present this Knowledge Rocks Framework, its application and the results of evaluations for both, the original and the knowledge assisted Security in Process System. For all presented systems, I provide implementation details, illustrations and applications.
Robotic systems are entering the stage. Enabled by advances in both hardware components and software techniques, robots are increasingly able to operate outside of factories, assist humans, and work alongside them. The limiting factor of robots’ expansion remains the programming of robotic systems. Due to the many diverse skills necessary to build a multi-robot system, only the biggest organizations are able to innovate in the space of services provided by robots.
To make developing new robotic services easier, in this dissertation I propose a program- ming model in which users (programmers) give a declarative specification of what needs to be accomplished, and then a backend system makes sure that the specification is safely and reliably executed. I present Antlab, one such backend system. Antlab accepts Linear Temporal Logic (LTL) specifications from multiple users and executes them using a set of robots of different capabilities.
Building on the experience acquired implementing Antlab, I identify problems arising from the proposed programming model. These problems fall into two broad categories, specification and planning.
In the category of specification problems, I solve the problem of inferring an LTL formula from sets of positive and negative example traces, as well as from a set of positive examples only. Building on top of these solutions, I develop a method to help users transfer their intent into a formal specification. The approach taken in this dissertation is combining the intent signals from a single demonstration and a natural language description given by a user. A set of candidate specifications is inferred by encoding the problem as a satisfiability problem for propositional logic. This set is narrowed down to a single specification through interaction with the user; the user approves or declines generated simulations of the robot’s behavior in different situations.
In the category of planning problems, I first solve the problem of planning for robots that are currently executing their tasks. In such a situation, it is unclear what to take as the initial state for planning. I solve the problem by considering multiple, speculative initial states. The paths from those states are explored based on a quality function that repeatedly estimates the planning time. The second problem is a problem of reinforcement learning when the reward function is non-Markovian. The proposed solution consists of iteratively learning an automaton representing the reward function and using it to guide the exploration.
Building on knowledge and innovation: the role of Green Economy in revitalising Shrinking Cities
(2022)
This research introduces the topic of the Green Economy in the context of shrinking cities. The analysis is supported by two case studies, one located in Mexico and the other in France, to identify adaptable strategies of sustainable development in different contexts of urban decline that consider significant differences in the availability of resources.
Shrinking cities suffer from problems such as depopulation, economic decline and underuse of urban infrastructure, mainly due to a regional process of economic peripheralisation. Shrinking cities can adopt two logics to address these issues: de-peripheralisation and endogenous development.
It is argued that shrinking cities can exploit emerging green markets to stimulate economic growth and enhance liveability and sustainability; however, the solutions vary depending on the available resources, local comparative advantages and national political and financial support systems. The Green Economy driven solutions in shrinking cities can follow two main strategies: one is aimed at regrowth, betting on the creation of regional innovation systems by investing in research and development and the local capture of the produced spill-overs; the other, inspired by the concept of greening, aims to improve the quality of urban life of the inhabitants by enhancing the quality of consumption sectors through ecological practices and respect for the environment. The analysis of the two case studies serves as a method to observe different strategies for the sustainable development of shrinking cities by introducing activities in the sectors of the Green Economy.
This study supports the global comparative perspective approach in urban studies focusing on urban shrinkage. The context of shrinking cities is explored in Latin America by identifying the eighteen shrinking cities in Mexico.
In the pre-seed phase before entering a market, new ventures face the complex, multi-faceted, and uncertain task of designing a business model. Founders accomplish this task within the framework of an innovation process, the so-called business model innovation process. However, because a set of feasible opportunities to design a viable business model is often not predictable in this early phase (Alvarez & Barney, 2007), business model ideas have to be revised multiple times, which corresponds to experimenting with alternative business models (Chesbrough, 2010). This also brings scholars to the relevant, but seldom noticed field of research on experimentation as a cognitive schema (Felin et al., 2015; Gavetti & Levinthal, 2000). The few scholars that discussed the importance of such thought experimentation did not elaborate on the manifestations of this phenomenon. Thus, building on qualitative interviews with entrepreneurs, the current state of the research has a gap that offers this dissertation the ability to clearly conceptualise the manifestation of experimentation as a cognitive schema in business model innovation. The results extend previous conceptualisations of experimentation by illustrating the interplay of three different forms of thought experimentation, namely purposeful interactions, incidental interactions, and theorising. In addition, the role of individuals in business model innovation has recently been recognised by scholars (Amit & Zott, 2015; Snihur & Zott, 2020). It is noticed that not only the founders themselves but also many other actors play a central role in this process to support a new venture on its way to designing a viable business model, such as accelerators or public institutions. It thus stands to reason that in addition to understanding how new ventures design their business model, it is also important to study how different actors are involved in this process. Building on qualitative interviews with entrepreneurs, this gap offers this dissertation the ability to study how different actors are involved in business model innovation and conceptualise actor engagement behaviours in this context. The results reveal six different actor engagement behaviours, including teaching, supporting, mobilising, co-developing, sharing, and signalling behaviour. Furthermore, it stands to reason, that entrepreneurs and external actors each play a certain role in business model innovation. Certain behavioural patterns and types of resource contributions may be characteristic for a group of actors, leading to the emergence of distinct actor roles. Thus, in this dissertation a role concept is established to illustrate how actors are involved in designing a new business model, including 13 actor roles. These actor roles are divided into task-oriented and network-oriented roles. Building on this, a variety of role dynamics are unveiled. Moreover, special attention is given to role temporality. Building on two case studies and a quantitative survey, the results reveal how actor roles are played at a certain point in time, thereby concretising them in relation to certain stages of the pre-seed phase.
Additive Fertigungsverfahren zeichnen sich durch eine hohe erreichbare Komplexität der zu erzeugenden Geometrien, bei gleichzeitig kaum steigendem Fertigungsaufwand, aus. Dies wird durch den schichtweisen Aufbau additiver Fertigungsverfahren erreicht, bei dem die zu fertigende Geometrie zunächst in einzelne Bauteilquerschnitte aufgeteilt und anschließend durch Fügen dieser Querschnitte aufgebaut wird. Ein etabliertes additives Fertigungsverfahren ist das selektive Laserschmelzen, bei dem die zu erzeugende Geometrie durch Aufschmelzen von Metallpulver mittels eines Lasers in einem Pulverbett erzeugt wird. Die durch selektives Laserschmelzen generierten Oberflächen müssen zur Erzeugung von Funktionsflächen spanend endbearbeitet werden, wobei die charakteristische Anisotropie additiv erzeugter Werkstoffe berücksichtigt werden muss. Diese Arbeit beschäftigt sich mit den Wirkmechanismen additiv-subtraktiver Prozessketten bei der spanenden Bearbeitung von Edelstahl 1.4404, wobei zunächst beide Prozesskettenteile getrennt voneinander analysiert werden. Es werden unterschiedliche Wirkzusammenhänge der Prozessparameter der additiven Fertigung und Pulvereigenschaften auf den erzeugten Werkstoff identifizert. Weiter werden durch den Einsatz des Mikrofräsens als Bearbeitungsverfahren (Werkzeugdurchmesser < 50 µm) Wechselwirkungen zwischen anisotropem Werkstoff sowie Prozess- und Prozessergebnisgrößen der spanenden Bearbeitung besonders deutlich. Die Untersuchungen ergaben, dass prozesskettenübergreifende Wirkmechanismen zwischen additiven und subtraktiven Prozesskettenteilen beim selektiven Laserschmelzen und Mikrofräsen von Edelstahl 1.4404 bestehen.
Diese Dissertation widmet sich der fertigungsintegrierten spektroskopischen Prozessanalytik
zur technischen Qualitätssicherung struktureller Glasklebungen. Glas als Werkstoff mit
seiner einzigartigen Eigenschaft der Transparenz ist in vielen Bereichen unverzichtbar. Wichtig
zur Verbesserung der Festigkeit und Langzeitbeständigkeit von Glasklebungen ist eine
Vorbehandlung der Oberfläche. Aufgrund des chemischen Aufbaus und der Reaktivität der
Glasoberfläche muss diese in einen für die Klebung geeigneten Zustand versetzt werden.
Die Applikation von Haftvermittlern und die Einhaltung der Prozessparameter sind für die
Qualität der Klebung entscheidend. Bislang fehlen Methoden zur zerstörungsfreien Qualitätssicherung
von Klebungen. Das Konzept zur prozessintegrierten Qualitätssicherung von
Glasklebungen soll Analyseverfahren zur Beurteilung der Reinigungswirkung (Kontaminationsfreiheit)
und zur Wirksamkeit der klebtechnischen Funktionalisierung bereitstellen. Die
Hypothese unterstellt, dass sich die Qualität der Oberflächenvorbehandlung und somit die
Qualität der Glasklebung hinsichtlich Zuverlässigkeit und Beständigkeit mit spektroskopischer
Analysetechnik überwachen lässt. Als spektroskopische zerstörungsfreie Analysemethoden
werden die UV-Fluoreszenzanalyse, die Infrarotspektroskopie und die Röntgenfluoreszenzanalyse
eingesetzt. Die Forschungsergebnisse bieten die Möglichkeit Klebprozesse mit
Glaswerkstoffen robust und qualitätssicher auszulegen.
Die induktive Erwärmung stellt insbesondere aufgrund der schnellen intrinsischen Erwärmung eine Schlüsseltechnologie für die zunehmende industrielle Anwendung von textilverstärkten CFK-Organoblechen dar. Allerdings kann deren großes Potenti-al nicht vollständig ausgeschöpft werden, da sich bei konventionellen CFK-Organoblechen über der Laminatdicke physikalisch bedingt eine mit zunehmendem Abstand zum Induktor abfallende Temperaturkurve ergibt. Speziell für CFK-Organobleche bestehend aus textilen Verstärkungshalbzeugen wurde im Rahmen dieser Arbeit zunächst der Einfluss der Textil- und Laminatparameter grundlegend untersucht. Zusätzlich wurde ein analytisches Modell in Form eines elektrischen Er-satzschaubilds einer im CFK-Organoblech vorliegenden Leiterschleife entwickelt, an-hand dessen der dominierende Heizmechanismus identifiziert werden kann. Ab-schließend wurde basierend auf den zuvor gewonnenen Erkenntnissen ein speziell für das kontinuierliche Induktionsschweißen angepasster Laminataufbau entwickelt und validiert.
Im Rahmen dieser Arbeit wurden entlang mehrstufiger Syntheserouten verschiedene neuartige 1,3-Bis(pyrazol-3-yl)benzolliganden aus günstigen Startmaterialien synthetisiert und charakterisiert. Zur Variation der sterischen und elektronischen Eigenschaften wurden die Liganden in 5-Position und 1-Position (N-Position) der Pyrazolylgruppen mit unterschiedlichen Alkylsubstituenten funktionalisiert. Es wurden dreizähnige NC(X)N-Liganden und mehrzähnige bifunktionelle NC(X)N-P2-Liganden dargestellt (X = H, Br). Die NC(X)N-Liganden (X = H, Br) wurden mit ausgewählten Metallvorstufen zu cyclometallierten Komplexen des Typs [(NCN)MYLn] umgesetzt (M = Ru(II), Ni(II), Pd(II), Pt(II), Y = Cl, Br, L = PPh3 mit n = 0, 2). Die Darstellung der Komplexe erfolgte unter der Verwendung der Synthesekonzepte der direkten Cyclometallierung (C-H Bindungsaktivierung) oder der oxidativen Addition. Der Ruthenium(II)-Komplex wurde auf seine katalytische Aktivität in der Transferhydrierung von Acetophenon in basischem Isopropanol getestet. Zusätzlich wurden DFT-Berechnungen zur Postulierung eines Reaktionsmechanismus der Cyclometallierung durchgeführt. Die cyclometallierten Komplexe der Nickelgruppe wurden intensiv auf ihre photophysikalischen Eigenschaften hin untersucht. Die Zuordnungen der einzelnen elektronischen Übergänge erfolgten mit Hilfe quantenchemischer Berechnungen (DFT/TDDFT). Durch Umsetzung der mehrzähnigen bifunktionellen NC(H)N-P2-Liganden mit ausgewählten dinuklearen Metallvorstufen der Gruppen 8 und 9 wurden neutrale κ1P,κ1P‘-koordinierte und neutrale und kationische κ2PN,κ2P‘N‘-koordinierte homobimetallische Komplexe erhalten. Als Metallvorstufen wurden die dinuklearen Komplexe [(η6-Aren)M(μ-Cl)Cl]2 (η6-Aren = C10H14, C6H5CO2Et, M = Ru(II), Os(II)), [(η5-C5Me5)M(μ-Cl)Cl]2 (M = Rh(III), Ir(III)), [Rh(η4-COD)(μ-Cl)]2 und [Rh(CO)2(μ-Cl)]2 eingesetzt. Des Weiteren wurden die synthetisierten Halbsandwichkomplexe auf ihre katalytische Aktivität in der Transferhydrierung von Acetophenon in basischem Isopropanol getestet. Die Halbsandwichruthenium(II)-Komplexe erwiesen sich als exzellente Präkatalysatoren und reduzierten Acetophenon in nahezu quantitativen Ausbeuten innerhalb weniger Minuten. Darüber hinaus wurden alle synthetisierten Komplexe mittels multinuklearer NMR-Spektroskopie, IR-Spektroskopie, Elementaranalyse und ESI-Massenspektrometrie charakterisiert. Die Strukturen einiger dargestellter Komplexe konnten zudem mit Hilfe der Röntgenstrukturanalyse eindeutig belegt werden.
Die Synopsis setzt sich auseinander mit dem Einsatz von Künstlicher Intelligenz (Maschinelles Lernen) im Kontext biomechanischer Daten. Potentiale der Methoden werden herausgearbeitet und ausgewählte praxisrelevante Limitationen anhand von fünf Publikationen adressiert. Unter anderem können durch Verwendung von Ensemble Feature Selection, Explainable Artificial Intelligence und Metric Learning sowie die Entwicklung eines pathologieunabhängigen Klassifikators vielversprechende Perspektiven aufgezeigt werden.
Data-driven and Sparse-to-Dense Concepts in Scene Flow Estimation for Automotive Applications
(2022)
Highly assisted driving and autonomous vehicles require a detailed and accurate perception of the environment. This includes the perception of the 3D geometry of the scene and the 3D motion of other road users. The estimation of both based on images is known as the scene flow problem in computer vision. This thesis deals with a solution to the scene flow problem that is suitable for application in autonomous vehicles. This application imposes strict requirements on accuracy, robustness, and speed. Previous work was lagging behind in at least one of these metrics. To work towards the fulfillment of those requirements, the sparse-to-dense concept for scene flow estimation is introduced in this thesis. The idea can be summarized as follows: First, scene flow is estimated for some points of the scene for which this can be done comparatively easily and reliably. Then, an interpolation is performed to obtain a dense estimate for the entire scene. Because of the separation into two steps, each part can be optimized individually. In a series of experiments, it is shown that the proposed methods achieve competitive results and are preferable to previous techniques in some aspects. As a second contribution, individual components in the sparse-to-dense pipeline are replaced by deep learning modules. These are a highly localized and highly accurate feature descriptor to represent pixels for dense matching, and a network for robust and generic sparse-to-dense interpolation. Compared to end-to-end architectures, the advantage of deep modules is that they can be trained more effciently with data from different domains. The recombination approach applies a similar concept as the sparse-to-dense approach by solving and combining less diffcult, auxiliary sub-problems. 3D geometry and 2D motion are estimated separately, the individual results are combined, and then also interpolated into a dense scene flow. As a final contribution, the thesis proposes a set of monolithic end-to-end networks for scene flow estimation.
Every organism contains a characteristic number of chromosomes that have to be segregated equally into
two daughter cells during mitosis. Any error during chromosome segregation results in daughter cells that
lost or gained a chromosome, a condition known as aneuploidy. Several studies from our laboratory and
across the world have previously shown that aneuploidy per se strongly affects cellular physiology.
However, these studies were limited mainly to the chromosomal gains due to the availability of several
model systems. Strikingly, no systemic study to evaluate the impact of chromosome loss in the human
cells has been performed so far. This is mainly due to the lack of model systems, as chromosome loss is
incompatible with survival and drastically reduces cellular fitness. During my PhD thesis, for the first time,
I used diverse omics and biochemical approaches to investigate the consequences of chromosome losses
in human somatic cells.
Using isogenic monosomic cells derived from the human cell line RPE1 lacking functional p53, we showed
that, similar to the cells with chromosome gains, monosomic cells proliferate slower than the parental
cells and exhibit genomic instability. Transcriptome and proteome analysis revealed that the expression
of genes encoded on the monosomic chromosomes was reduced, as expected, but the abundance was
partially compensated towards diploid levels by both transcriptional and post transcriptional mechanisms.
Furthermore, we showed that monosomy induces global gene expression changes that are distinct to
changes in response to chromosome gains. The most consistently deregulated pathways among the
monosomies were ribosomes and translation, which we validated using polysome profiling and analysis
of translation with puromycin incorporation experiments. We showed that these defects could be
attributed to the haploinsufficiency of ribosomal protein genes (RPGs) encoded on monosomic
chromosomes. Reintroduction of p53 into the monosomic cells uncovered that monosomy is incompatible
with p53 expression and that the monosomic cells expressing p53 are either eliminated or outgrown by
the p53 negative population. Given the RPG haploinsufficiency and ribosome biogenesis defects caused
by monosomy, we show an evidence that the p53 activation in monosomies could be caused by the
defects in ribosomes. These findings were further supported by computational analysis of cancer genomes
revealing those cancers with monosomic karyotype accumulated frequently p53 pathway mutations and
show reduced ribosomal functions.
Together, our findings provide a rationale as to why monosomy is embryonically lethal, but frequently
occurs in p53 deficient cancers.
An increasing number of nowadays tasks, such as speech recognition, image generation,
translation, classification or prediction are performed with the help of machine learning.
Especially artificial neural networks (ANNs) provide convincing results for these tasks.
The reasons for this success story are the drastic increase of available data sources in
our more and more digitalized world as well as the development of remarkable ANN
architectures. This development has led to an increasing number of model parameters
together with more and more complex models. Unfortunately, this yields a loss in the
interpretability of deployed models. However, there exists a natural desire to explain the
deployed models, not just by empirical observations but also by analytical calculations.
In this thesis, we focus on variational autoencoders (VAEs) and foster the understanding
of these models. As the name suggests, VAEs are based on standard autoencoders (AEs)
and therefore used to perform dimensionality reduction of data. This is achieved by a
bottleneck structure within the hidden layers of the ANN. From a data input the encoder,
that is the part up to the bottleneck, produces a low dimensional representation. The
decoder, the part from the bottleneck to the output, uses this representation to reconstruct
the input. The model is learned by minimizing the error from the reconstruction.
In our point of view, the most remarkable property and, hence, also a central topic
in this thesis is the auto-pruning property of VAEs. Simply speaking, the auto-pruning
is preventing the VAE with thousands of parameters from overfitting. However, such a
desirable property comes with the risk for the model of learning nothing at all. In this
thesis, we look at VAEs and the auto-pruning from two different angles and our main
contributions to research are the following:
(i) We find an analytic explanation of the auto-pruning. We do so, by leveraging the
framework of generalized linear models (GLMs). As a result, we are able to explain
training results of VAEs before conducting the actual training.
(ii) We construct a time dependent VAE and show the effects of the auto-pruning in
this model. As a result, we are able to model financial data sequences and estimate
the value-at-risk (VaR) of associated portfolios. Our results show that we surpass
the standard benchmarks for VaR estimation.
Today’s digital world would be unthinkable without complex data sets. Whether in private, business or industrial environments, complex data provide the basis for important and critical decisions and determine many processes, some of which are automated. This is often associated with Big Data. However, often only one aspect of the usual Big Data definitions is sufficient and a human observer can no longer capture the data completely and correctly. In this thesis, different approaches are presented in order to master selected challenges in a more effective, efficient and userfriendly way. The approaches range from easier pre-processing of data sets for later analysis and the identification of design guidelines of such assistants, new visualization techniques for presenting uncertainty, extensions of existing visualizations for categorical data, concepts for time-saving selection methods for subsets of data points and faster navigation and zoom interaction–especially in the web-based area with enormous amounts of data–to new and innovative orientation-based interaction metaphors for mobile devices as well as stationary working environments. Evaluations and appropriate use case of the individual approaches show the usability also in comparison with state-of-the-art techniques.
Pyrrolizidine alkaloids are naturally occurring secondary plant metabolites mainly found in plant families of Asteraceae, Boraginaceae, and Fabaceae. Chemically, PAs consist of a pyrrolizidine core bearing hydroxyl groups, the so-called necine base, and mono- or dicarboxylic necine acids bound to the pyrrolizidine core via ester linkages. 1,2-unsaturated PAs are hepatotoxic, genotoxic, and carcinogenic due to the highly reactive pyrrolic metabolites formed by cytochrome P450 monooxygenases (CYPs) primarily in the liver. The presence of PAs as frequent contaminants in the wide variety of food and feed products would be a concern for public health.
Due to the inadequate data, the risk assessment of PAs was mainly approached using the two most toxic potent congeners, i.e., lasiocarpine and riddelliine. However, the toxic potencies of individual PA congeners differentiated widely between the congeners probably related to their structural features. The risk of PA-containing products is indeed overestimated, and a comprehensive risk assessment should take these differences into account.
After analyzing the data of many PAs, Merz and Schrenk derived interim Relative Potency (iREP) factors to present the differences in their toxicity between the sub-groups concerning their structural features. But since this concept was derived from an inadequate database, it was found that the relative toxicity of individual congeners cannot be entirely reliably evaluated. My work aimed to achieve more comprehensive congener-specific in vitro toxicological data and estimate the structure-related characteristics for refining this concept. For this purpose, ten congeners, lasiocarpine, monocrotaline, retrorsine, senecionine, seneciphylline, echimidine, europine, heliotrine, indicine, and lycopsamine, were determined in a series of in vitro test systems with different endpoints to quantify their cytotoxicity, genotoxicity, and mutagenicity.
Cytotoxicity was assessed using the Alamar blue assay. A clear structure dependence could be demonstrated in primary rat hepatocytes and HepG2 (CYP3A4) cells. On the contrary, in HepG2 cells, none of the selected PAs exhibited cytotoxic effects, probably due to the lack of CYPs. The role of CYP450 enzymes in metabolic activation was further confirmed using an inhibition assay and the activity of CYP450 enzymes was measured by a kinetic assay analyzing 7-benzyloxyresorufin-O-dealkylation (BROD). Furthermore, utilizing a glutathione-reductase-DTNB recycling assay indicated that glutathione might not play a critical role in PA-induced cytotoxicity. A micronucleus test was used for determining the PA-induced clastogenic genotoxicity. All selected PA congeners exhibited a concentration-dependent manner in the HepG2 (CYP3A4) cells. The relative potencies of PA congeners estimated from Alamar blue assay and micronucleus assay are generally consistent with the following ranking: lasiocarpine > senecionine > seneciphylline ≥ retrorsine > heliotrine (?) echimidine ≥ europine ≈ indicine ≈ lycopsamine ≈ monocrotaline. Compared to the iREP reported by Merz and Schrenk, monocrotaline exhibited considerably lower toxic potency. However, echimidine was more toxic than expected. On the other hand, mutagenicity was measured in Ames fluctuation assay with Salmonella typhimurium strains TA98 and TA100. None of the selected PA congeners up to 300 µM showed mutagenic effects despite metabolic activation with S9-mix.
Die Enzyme α-Amylase und α-Glucosidase katalysieren die Hydrolyse von Polysacchariden in resorbierbare Monosaccharide und damit die Glucosefreisetzung ins Blut. Durch Glykogenphosphorylase α wird ebenfalls Glucose ins Blut freigesetzt, hier jedoch durch die Hydrolyse von Leber- oder Muskelglykogen. Dipeptidylpeptidase IV spielt eine zentrale Rolle bei der Freisetzung von Insulin, indem sie das Inkretinhormon Glucagon-like-peptide-1 (GLP-1) abbaut. Hemmstoffe dieser Enzyme finden in der therapeutischen Behandlung und Prävention von Diabetes mellitus Anwendung. Neben synthetischen Inhibitoren sind bereits einige natürliche Stoffe mit hemmender Wirkung bekannt, die in unterschiedlichen Lebensmitteln vorkommen. So erwiesen sich vor allem Flavonoide als potente Hemmer. Diese Arbeit beschäftigt sich mit dem Einfluss verschiedener Extrakte aus neun roten Früchten auf die Aktivität der Enzyme α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro und in vivo sowie der Identifizierung der verantwortlichen Inhaltsstoffe und entstand in Kooperation mit der TU Braunschweig. Alle Saftextrakte enthielten potente Inhibitoren der untersuchten Enzyme. Zu den aktivsten Extrakten zählten die aus Aronia (Aronia melanocarpa), Granatapfel (Punica granatum) und roter Traube (Vitis vinifera). Zur Identifizierung der aktiven Inhaltsstoffe wurden diese drei Extrakte in ihre Anthocyan-, Copigment- und Polymerfraktion getrennt und die ersten beiden Fraktionen in Braunschweig weiter subfraktioniert. Auch hier zeigten sich alle (Sub-)Fraktionen als potente Inhibitoren der getesteten Enzyme. Eine Studie mit einzelnen Anthocyanen und Copigmenten belegte diese Ergebnisse und gab Hinweise auf die Strukturabhängigkeit des Inhibitionspotentials. So beeinflussen die Anwesenheit und Anzahl der Hydroxyl- sowie Methylgruppen, die Molekülgröße und synergistische Effekte die inhibitorische Aktivität. Um eine irreversible Inaktivierung der Enzyme auszuschließen, wurde der Hemmmechanismus der Extrakte und Fraktionen ermittelt. Hierbei zeigte sich, dass alle untersuchten Proben die Aktivität der α-Amylase und α-Glucosidase reversibel hemmten.
Im Rahmen einer humanen Interventionsstudie wurde der Einfluss eines Extraktes aus Aroniadirektsaft sowie eines roten Traubensaftkonzentrats auf den Blut- und Gewebsglucosespiegel als auch auf die Blutinsulinkonzentration untersucht. Für den ersten Extrakt zeigte sich eine signifikante Reduktion der Glucosespiegel, während der zweite die Insulinkonzentration signifikant erhöhte. Für alle Parameter konnten interindividuelle Unterschiede festgestellt werden, die eine Einteilung der Probanden in „Responder“ und „Nicht-Responder“ ermöglichte. In der vorliegenden Arbeit konnte das inhibitorische Potential verschiedener Extrakte aus roten Früchten sowie unterschiedlicher Polyphenole auf α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro nachgewiesen sowie relevante Struktureigenschaften von Inhibitoren ermittelt werden. Im Rahmen einer humanen Interventionsstudie konnten die beobachteten Effekte auch in vivo bestätigt werden. Die Ergebnisse dieser Pilotstudie sollten zukünftig mit einer höheren Anzahl an Probanden und einer höheren Dosierung der Extrakte abgesichert werden.
Globale Entwicklungen haben zu einer neuen Ausrichtung in der produzierenden Industrie geführt. Ressourceneffizienz hinsichtlich Werkstoff und Energie sowie die Ausnutzung von Multifunktionalitäten eines Werkstoffs und/oder Produkts sind mögliche Schlagwörter in diesem Zusammenhang. Bezogen auf Werkstoffe führt dies zu neuen Entwicklungen, die oft auf der Kombination eines oder mehrerer Einzelkomponenten zu einem Verbundwerkstoff basieren. Im Fokus stehen hierbei nicht nur die finale Anwendung des Produkts, sondern auch Aspekte wie Produktionskosten, -zeiten oder Wiederverwertbarkeit.
Induktive Heizverfahren erlauben hohe Heizraten, somit kurze Prozesszeiten und eine vergleichsweise hohe Energieeffizienz. Ihre Anwendung bei der Verarbeitung von insbesondere ungerichtet verstärkten Verbundwerkstoffen setzt voraus, dass Suszeptoren zur Umwandlung der elektromagnetischen in Wärmeenergie vorhanden sind. Die Auswahl entsprechender Suszeptoren ist eine wichtige Fragestellung, die in dieser Arbeit vor dem Hintergrund der Multifunktionalität untersucht wird. Oft beinhalten industriell verfügbare thermoplastische Compounds bereits Verstärkungsstoffe, die für die induktive Heizbarkeit geeignet sein können. In der vorliegenden Arbeit wurde deshalb basierend auf entsprechend kommerziell verfügbaren Compoundsystemen eine Bewertungsmethode entwickelt, die anhand von industriell relevanten und standardisiert messbaren Materialkennwerten – beispielsweise dem spezifischen Durchgangswiderstand – eine Aussage zur induktiven Heizbarkeit ermöglicht. Zum Einsatz kamen Kurzkohlenstoff- und Stahlfasern sowie Eisen- und Graphitpartikel in unterschiedlichen Konzentrationen und Kombinationen. Mit dem Durchgangswiderstand, der Dichte und der Wärmekapazität des Verbundwerkstoffs wurde ein Faktor ermittelt, der eine Korrelation mit der Heizrate aufweist, die mit einem industrierelevanten Induktionssystem experimentell gemessen wurde. Als eine wichtige Voraussetzung hat sich hierbei die Ausbildung eines perkolierenden Netzwerks, das sich aus den Verstärkungsstoffen zusammensetzt, gezeigt. Da dieses Netzwerk für eine Reihe von Anwendungsfällen relevant ist, leistet diese Arbeit einen Beitrag zur multifunktionellen Verwendung thermoplastischer
Verbundwerkstoffe.
Flächenhafte Kalibriernormale dienen zur Kalibrierung und Justierung von flächenhaft messenden Topographiemessgeräten und ermöglichen die Abschätzung der Messunsicherheit und die Rückführung der gemessenen Länge zur Basiseinheit. Es existieren hohe Anforderungen an die Maßhaltigkeit und Oberflächenqualität von Kalibriernormalen. Da in der Norm DIN EN ISO 25178-70 kein Fertigungsverfahren zur Herstellung von flächenhaften Kalibriernormalen vorgeschrieben ist, wurden bisher unterschiedliche Verfahren angewandt. Mikrofräsen ist ein sehr flexibles Herstellungsverfahren, welches hohe Maßhaltigkeiten und Oberflächengüten auf der Mikroskala ermöglicht. Im Rahmen dieser Arbeit wurde der Mikrofräsprozess zur Herstellung der Kalibriernormale mittels Kugelfräsern ausgelegt. Dazu wurden experimentelle als auch simulative Versuche durchgeführt und wichtige Einflussgrößen auf das Prozessergebnis zunächst identifiziert und anschließend entsprechend definiert. Nachdem zuerst flächenhafte Kalibriernormale, welche bereits genormte Kalibrierstrukturen aufweisen, gefertigt wurden, wurde der Mikrofräsprozess anschließend auch auf neuartige Kalibrierstrukturen basierend auf realen Bauteiloberflächen angewandt. Für alle gefertigten Kalibrierstrukturen lagen die Abweichungen von den Soll-Kennwerten nach der entsprechenden Prozessanpassung im einstelligen bis niedrig zweistelligen Nanometerbereich. Die Wiederholbarkeit bei der Fertigung der Kalibrierstrukturen lag in der gleichen Größenordnung. Mit dem ausgelegten Fräsprozess können die hohen Anforderungen an die Maßhaltigkeit und Oberflächenqualität der Kalibriernormale erfüllt werden.
In 2002, Korn and Wilmott introduced the worst-case scenario optimal portfolio approach.
They extend a Black-Scholes type security market, to include the possibility of a
crash. For the modeling of the possible stock price crash they use a Knightian uncertainty
approach and thus make no probabilistic assumption on the crash size or the crash time distribution.
Based on an indifference argument they determine the optimal portfolio process
for an investor who wants to maximize the expected utility from final wealth. In this thesis,
the worst-case scenario approach is extended in various directions to enable the consideration
of stress scenarios, to include the possibility of asset defaults and to allow for parameter
uncertainty.
Insurance companies and banks regularly have to face stress tests performed by regulatory
instances. In the first part we model their investment decision problem that includes stress
scenarios. This leads to optimal portfolios that are already stress test prone by construction.
The solution to this portfolio problem uses the newly introduced concept of minimum constant
portfolio processes.
In the second part we formulate an extended worst-case portfolio approach, where asset
defaults can occur in addition to asset crashes. In our model, the strictly risk-averse investor
does not know which asset is affected by the worst-case scenario. We solve this problem by
introducing the so-called worst-case crash/default loss.
In the third part we set up a continuous time portfolio optimization problem that includes
the possibility of a crash scenario as well as parameter uncertainty. To do this, we combine
the worst-case scenario approach with a model ambiguity approach that is also based on
Knightian uncertainty. We solve this portfolio problem and consider two concrete examples
with box uncertainty and ellipsoidal drift ambiguity.
Das Kompetenzzentrum Weiterbildung Hessen (KW Hessen) bietet ein begleitendes und
prüfungsvorbereitendes Seminar- und Mentoringprogramm für Ärzte in Weiterbildung
und Train-the-Trainer Basis- und Aufbauseminare für Weiterbildner an. Im Rahmen
dieser Tätigkeit ist es aufgefallen, dass seitens der Teilnehmer wiederholt von - scheinbar
unvermittelt - gescheiterten Praxisübergaben berichtet wurde. Aus diesen Berichten ist
der Gedanke und damit der Wunsch entstanden, ein die Praxisübergabephase
begleitendes Coaching für abgebende und übernehmende Ärzte zu entwickeln und
anzubieten.
Ziel des zu entwickelnden Coachings ist es, die Übergabephase und die mit ihr
einhergehenden, oft tiefgreifenden, Veränderungsprozesse in den Hausarztpraxen auf
struktureller und emotionaler Ebene individuell und aufgabenzentriert zu unterstützen.
Dieser Ansatz wurde dem Hessischen Ministerium für Soziales und Integration (HMSI)
in Form eines Projektantrags zur Realisierung eines Praxisübergabe-/übernahme-
Coachings (Pü²C) vorgestellt, dort positiv beschieden und in der Folge im Rahmen des
Hessischen Gesundheitspaktes 3.0 als Beitrag zur Stärkung der ambulanten
Gesundheitsversorgung in Durchführungsverantwortung des Kompetenzzentrums
Weiterbildung Hessens beschlossen.
Die hier vorgelegte Studie dokumentiert die Bedarfserhebung für dieses Vorhaben und
untersucht den Wunsch der Ärzteschaft nach einem Praxisübergaben/-nahmen
begleitenden Coaching empirisch. Hierzu wurde eine multimethodische empirische
Studie durchgeführt, deren Gesamtkonzeption auf Seite 50 der vorgelegten
Forschungsarbeit grafisch dargestellt ist.
Die Ergebnisse zeigen sehr deutlich, dass sowohl die für diese Studie befragten Experten
der Einführung eines solchen Coachings außerordentlich positiv gegenüberstehen, als
auch, dass, insbesondere seitens der (Fach-)Ärzte mit Niederlassungsabsicht, respektive
der erfolgreichen Absolventen der Facharztprüfung Allgemeinmedizin in Hessen des
Jahres 2020, ein klarer und unmissverständlicher Wunsch nach einem solchen Angebot
besteht.
Darüber hinaus wurde mittels binär logistischer Regressionsanalyse der Einfluss von
soziostrukturellen Merkmalen, den Persönlichkeitsdimensionen, sowie von Vorerfahrungen und Zukunftsvorstellungen der Fachärzte für Allgemeinmedizin auf die
Coaching-Inanspruchnahmeabsicht untersucht.
Es konnte gezeigt werden, dass Vorerfahrungen im Mentoring und eine langfristige
Niederlassungsabsicht geeignete Prädiktoren für den Wunsch nach einem
Praxisübergabe-/übernahme-Coaching sind, wohingegen dies - auf Basis der
vorliegenden Daten - weder für die soziostrukturellen Merkmale, noch für die
Persönlichkeitsdimensionen der Befragten gilt, da diese keinen signifikanten Beitrag zur
Varianzaufklärung in Bezug auf den Wunsch nach Inanspruchnahme eines
Praxisübergabe-/übernahme-Coachings leisten.
Durch ein geeignetes Praxisübergabe-/übernahme-Coaching könnte es gelingen, dass
anberaumten Praxisübergaben aufgrund höherer Zufriedenheit beim Übergabe-
/Übernahmeprozess der involvierten Akteure ein höherer Erfolg beschieden sein dürfte
als ohne eine solche Begleitung. Vollständig aus- und weitergebildete Fachärzte für
Allgemeinmedizin könnten auf diese Weise umfassender in die Patientenversorgung
eingebunden werden. Evtl. kann ein solches Coaching in Einzelfällen sogar dazu führen,
dass Niederlassungen vorgezogen, evtl. sogar Niederlassungsabsichten bzw.
Praxisübergabewünsche geweckt werden. Die Chancen hierfür werden als umso besser
eingeschätzt, je schneller die Coachings starten können – einfach, solange und damit es
die zu übernehmenden Praxen überhaupt noch gibt. Keineswegs zuletzt
gesundheitspolitisch betrachtet, scheint es sich bei den Coachings um eine innovative,
vielversprechende und letztlich auch kostengünstige Maßnahme zur Sicherung der
ambulanten Gesundheitsversorgung im und durchaus auch gerade auf dem Lande zu
handeln.
In Gesamtwürdigung aller vorliegenden Ergebnisse empfiehlt der Verfasser der
vorgelegten Studie, die Konzeptspezifizierung für das Praxisübergabe-/übernahme-
Coaching (wieder) aufzunehmen und insbesondere die Durchführung einer qualitativ
hochwertigen, standardisierten Befragung in Form einer Vollerhebung der in Hessen
niedergelassenen Hausärzte ab einem Alter von 60 Jahren (bzw. zumindest in Form einer
Zufallsstichprobe aus dieser Grundgesamtheit) zu forcieren.
Parallel hierzu sollte zur Vorbereitung der Einführung eines generellen
Coachingangebots, auch mit Blick auf die Notwendigkeit der Entwicklung eines für
dieses Format geeigneten Evaluationsinstrumentariums, zunächst die intensive Begleitung einiger weniger Praxisübergaben/-übernahmen im Sinne eines Pilotprojektes
erfolgen.
Die Bedeutung und Nachfrage an der Holz-Beton-Verbundbauweise nimmt
aufgrund einer Vielzahl an Vorteilen gegenüber dem reinen Holzund
Stahlbetonbau immer weiter zu. Die Bemessung von Holz-Beton-
Verbundkonstruktionen ist aktuell nicht normativ geregelt, sondern wird auf
der Grundlage von bauaufsichtlichen Zulassungen und Bauartgenehmigungen
durchgeführt. Dabei kommen die unterschiedlichsten Typen an Verbindungsmitteln
zum Einsatz, wie beispielsweise stiftförmige Verbindungsmittel
und Kerven. Kontinuierliche Verbindungsmittel wie die Verbunddübelleiste
im Stahl-Beton-Verbundbau wurden bisher nicht im Holz-Beton-
Verbundbau verwendet. Verbunddübelleisten haben sich als sehr leistungsfähige
Verbundmittel mit einer hohen Tragfähigkeit und einfacher Herstellung
herausgestellt, deren Bemessung in der AbZ Z-26.4-56 2018 geregelt
ist. Zur Entwicklung eines Bemessungskonzeptes für ein den Verbunddübelleisten
ähnliches Verbundmittel für den Holz-Beton-Verbundbau sind klassischer
Weise experimentelle Untersuchungen zur Ermittlung der Tragfähigkeit
durchzuführen. Neben den oftmals zeitaufwendigen und kostenintensiven
Versuchen haben viele Untersuchungen an verschiedensten Verbundmitteln
gezeigt, dass sich numerische Untersuchungen in Form von Finite-
Elemente-Modellen dafür eignen das Tragverhalten abzubilden und die erforderliche
Anzahl an Versuchen zur Abdeckung der verschiedenen Parameter
zu reduzieren.
Im Rahmen dieser Arbeit wurde ein kontinuierliches Verbundmittel für die
Holz-Beton-Verbundbauweise entwickelt und es wurde mittels experimenteller
und numerischer Untersuchungen ein Bemessungskonzept erarbeitet.
Zur Beschreibung des Trag- und Verformungsverhaltens wurden Versuche
unter Längsschub- und Zugbeanspruchung durchgeführt. Anhand dieser
Versuche konnten Finite-Elemente-Modelle kalibriert werden und darauf aufbauend
numerische Untersuchungen zum Tragverhalten unter kombinierter
Zug- und Schubbeanspruchung durchgeführt werden. Da viele numerische
Untersuchungen an Verbundmitteln in der Vergangenheit eine hohe Sensibilität
bei der Variation der Materialparameter der Betonmodelle gezeigt
haben, wurde eine separate Untersuchung zu den Besonderheiten von Verbundmitteln
im Beton bei der numerischen Simulation herausgearbeitet und
entsprechende Lösungsansätze gegeben. Auf Grundlage der experimentellen
und numerischen Untersuchungen konnten die für das neue Verbundmittel
spezifischen Tragmechanismen identifiziert, in einem abschließenden
Trägerversuch bestätigt und in ein Bemessungsmodell überführt werden.
Durch den kombinierten Einsatz von experimentellen und numerischen
Untersuchungen konnte das Tragverhalten des neuen Holz-Beton-
Verbundsystems umfassend beschrieben und ein für die Praxis anwendbares
Bemessungskonzept entwickelt werden. Diese Arbeit soll damit neben dem
Bemessungskonzept einen Beitrag für die Anwendung numerischer Verfahren
bei der Untersuchung des Tragverhaltens von Verbundmitteln im Beton
leisten.
Mit der Blickrichtung auf die Synthese und Darstellung neuer Verbindungen zur Verbesserung der Lebensqualität, Grundbedürfnisse und Gesundheit einer modernen Gesellschaft sind neue Strategien, welche die Konzepte der Nachhaltigkeit, Effizienz und Umweltschutz verinnerlichen, von immenser Bedeutung. Multikomponentenreaktionen (MCRs) offerieren hierfür einen attraktiven Lösungsansatz. Als Eintopfreaktionen zeichnen sich MCRs durch hohe Stufen- sowie Atomökonomien aus und können ferner dazu beitragen Kosten, Zeit, Energie und Abfälle einzusparen. Durch den modularen Charakter von MCRs lassen sich darüber hinaus schnell und effizient eine Vielzahl unterschiedlicher Molekülstrukturen generieren. Vor diesem Hintergrund konnten im Rahmen dieser Forschungsarbeit einige neue, kombinatorische Konzepte zur Synthese α-substituierter Glycinderivate entwickelt werden. Ausgehend von einer weiterentwickelten, Pd-katalysierten, enantioselektiven 3-Komponentenreaktion auf Basis von Sulfonsäureamiden, Glyoxylsäure Monohydrat und Boronsäuren konnte eine unerwartete Hintergrundreaktion festgestellt werden, die sich schlussendlich als erste katalysatorunabhängige Petasis-Reaktion auf Basis von Sulfonsäureamiden als Amin-Komponente darstellte.
In Anbetracht der Aufgabe eine ressourcensparende und nachhaltigere Aufbaumöglichkeit von unnatürlichen Aminosäurederivaten zu entwickeln, gelang es im Zuge dieser Doktorarbeit weiterhin eine Pd-katalysierte, decarboxylative 3-Komponentenreaktion aufzubauen und zu etablieren. Dabei bieten Arylcarbonsäuren als Schlüsselkomponenten in einem decarboxylativen Konzept mit Palladium eine kostengünstigere und umweltfreundlichere Alternative zu den bisher bestehenden Methoden mit Organoboronsäuren oder anderer Organometall-Spezies. Überraschenderweise konnte im Zuge der Untersuchungen zur Substratbreite der Aldehyd-Komponente eine direkte, decarboxylative Addition zwischen den eingesetzten Arylcarbonsäuren und den verschiedenen Glyoxylsäureestern beobachtet werden. Dabei eröffnete diese Methode in ersten Untersuchungen eine interessante Möglichkeit zur Darstellung entsprechender Mandelsäurederivate.
Ziel dieser Arbeit ist die Entwicklung einer optimierungsbasierten Betriebsstrategie von
Plug-In-Hybridfahrzeugen (PHEV), welche basierend auf Vorausschauinformationen die
Freiheitsgrade Lastpunktverschiebung und Motor-An/Aus-Entscheidung kraftstoffoptimal
einstellt. Der Hauptfokus der Arbeit liegt dabei auf der Entwicklung einer echtzeitfähigen
Strategie für Serienfahrzeuge. Hierfür wird ein neuartiger Ansatz auf Basis des Minimumprinzips
nach Pontryagin (PMP) vorgestellt, durch welchen die Freiheitsgrade des
PHEV kraftstoffoptimal eingestellt werden können. Dabei werden Informationen über die
vorausliegende Strecke effizient berücksichtigt. Die Qualität der in der Realität verfügbaren
Vorausschaudaten stellt jedoch eine besondere Herausforderung dar, da dadurch zwei in
der Praxis besonders relevante Aspekte auftreten: 1) Bei der Verwendung von PMP können
durch das besonders starke Auftreten sogenannter Singularitäten die Randbedingungen
des Optimalsteuerungsproblems nicht exakt eingehalten werden. Um dieses Problem zu
lösen, wurde in dieser Arbeit eine neuartige, PMP basierte Methodik entwickelt. 2) Die
für die Optimierung zur Verfügung stehenden Informationen sind zwangsweise unsicher,
und das reale Fahrzeugverhalten weicht von dem der Navi-Vorausschau ab. Um mit
dieser Unsicherheit umgehen zu können, wurde in dieser Arbeit eine Feedback-Struktur
entwickelt, welche eine Anpassung der Strategie auf ein abweichendes Fahrzeugverhalten
ermöglicht. Des Weiteren wurde eine Verallgemeinerung der vorgestellten PMP-Methodik
entwickelt, wodurch eine Integration von Motorstartkosten und externen Anforderungen
an die Motor-An/Aus-Entscheidung ermöglicht werden kann. Zu diesem Zweck wurde eine
Kombination von Dynamischer Programmierung und PMP betrachtet. Die entwickelten
Strategien wurden sowohl in der Simulation wie auch auf einem Prüfstand analysiert und
validiert. Abschließend wurde hierfür ein Vergleich mit regelbasierten Betriebsstrategien
vorgestellt. Dabei konnte ein deutlicher Verbrauchsvorteil durch die Verwendung der
entwickelten, optimierungsbasierten Betriebsstrategie ausgewiesen werden.
Risk management is an indispensable component of the financial system. In this context, capital requirements are built by financial institutions to avoid future bankruptcy. Their calculation is based on a specific kind of maps, so-called risk measures. There exist several forms and definitions of them. Multi-asset risk measures are the starting point of this dissertation. They determine the capital requirements as the minimal amount of money invested into multiple eligible assets to secure future payoffs. The dissertation consists of three main contributions: First, multi-asset risk measures are used to calculate pricing bounds for European type options. Second, multi-asset risk measures are combined with recently proposed intrinsic risk measures to obtain a new kind of a risk measure which we call a multi-asset intrinsic (MAI) risk measure. Third, the preferences of an agent are included in the calculation of the capital requirements. This leads to another new risk measure which we call a scalarized utility-based multi-asset (SUBMA) risk measure.
In the introductory chapter, we recall the definition and properties of multi-asset risk
measures. Then, each of the aforementioned contributions covers a separate chapter. In
the following, the content of these three chapters is explained in more detail:
Risk measures can be used to calculate pricing bounds for financial derivatives. In
Chapter 2, we deal with the pricing of European options in an incomplete financial market
model. We use the common risk measures Value-at-Risk and Expected Shortfall to define
good deals on a financial market with log-normally distributed rates of return. We show that the pricing bounds obtained from Value-at-Risk may have a non-smooth behavior under parameter changes. Additionally, we find situations in which the seller's bound for a call option is smaller than the buyer's bound. We identify the missing convexity of the Value-at-Risk as main reason for this behavior. Due to the strong connection between the obtained pricing bounds and the theory of risk measures, we further obtain new insights in the finiteness and the continuity of multi-asset risk measures.
In Chapter 3, we construct the MAI risk measure. Therefore, recall that a multi-asset risk measure describes the minimal external capital that has to be raised into multiple eligible assets to make a future financial position acceptable, i.e., that it passes a capital adequacy test. Recently, the alternative methodology of intrinsic risk measures
was introduced in the literature. These ask for the minimal proportion of the financial position that has to be reallocated to pass the capital adequacy test, i.e., only internal capital is used. We combine these two concepts and call this new type of risk measure an MAI risk measure. It allows to secure the financial position by external capital as well as reallocating parts of the portfolio as an internal rebooking. We investigate several properties to demonstrate similarities and differences to the two
aforementioned classical types of risk measures. We find out that diversification reduces
the capital requirement only in special situations depending on the financial positions. With the help of Sion's minimax theorem we also prove a dual representation for MAI risk measures. Finally, we determine capital requirements in a model motivated by the Solvency II methodology.
In the final Chapter 4, we construct the SUBMA risk measure. In doing so, we consider the situation in which a financial institution has to satisfy a capital adequacy test, e.g., by the Basel Accords for banks or by Solvency II for insurers. If the financial situation of this institution is tight, then it can happen that no reallocation of the initial
endowment would pass the capital adequacy test. The classical portfolio optimization approach breaks down and a capital increase is needed. We introduce the SUBMA risk measure which optimizes the hedging costs and the expected utility of the institution simultaneously subject to the capital adequacy test. We find out that the SUBMA risk measure is coherent if the utility function has constant relative risk aversion and the capital adequacy test leads to a coherent acceptance set. In a one-period financial market model we present a sufficient condition for the SUBMA risk measure to be finite-valued and continuous. Finally, we calculate the SUBMA risk measure in a continuous-time financial market model for two benchmark capital adequacy tests.
This thesis reports about the investigation of di- and trinuclear coinage metal (Cu, Ag, Au) phosphine complexes with different anion adducts. Several mass spectrometric methods were utilized to investigate the complexes in gas phase without disturbing influences e.g. by the solvent. Electrospray Ionization (ESI) enabled the transfer of ions into the gas phase. In order to determine the fragmentation pathways and relative gas phase stabilities of these ions, Collision Induced Dissociation (CID) was used. The binding motifs and structures of the complexes were assigned by the help of Infrared (Multiple) Photon Dissociation (IR-(M)PD) at cryo (40 K, N2-tagged) and room temperature (300 K). Electron Transfer Dissociation/Reduction (ETD/R) was used to reduce the dicationic complexes to monocationic complexes. A tunable OPO/OPA laser system and the FELIX free-electron laser were used as IR laser sources. All experimental findings were supported by Density Functional Theory (DFT) calculation. In the first part of this thesis, the binding motifs and fragmentation behavior of the dinuclear coinage metal phosphine complexes with formate adduct were determined. Two different binding motifs were found and a stronger Cu-formate binding than in the case of Ag-formate. The dynamic bonding of hydrogen oxalate to phosphine ligand stabilized complexes were investigated in the second part. Several different binding motifs were determined. IR induced isomeric interconversions were found for the Ag complex whereas in case of the Cu complex a stiff hydrogen oxalate coordination seems to suppress such conversions. In the last part of this thesis, the ETD/R method was utilized to unravel the influence of oxidation states on the hydride and deuteride vibration modes of the trinuclear coinage metal complexes as well as the O2 adduct complexes and fragments with less complexity via IR-MPD and the FELIX free-electron laser. Unfortunately, an unambiguous assignment for the hydride and deuteride vibration modes is only possible for the fragments with less complexity.
The main objects of study in this thesis are abelian varieties and their endomorphism rings. Abelian varieties are not just interesting in their own right, they also have numerous applications in various areas such as in algebraic geometry, number theory and information security. In fact, they make up one of the best choices in public key cryptography and more recently in post-quantum cryptography. Endomorphism rings are objects attached to abelian varieties. Their computation plays an important role in explicit class field theory and in the security of some post-quantum cryptosystems.
There are subexponential algorithms to compute the endomorphism rings of abelian varieties of dimension one and two. Prior to this work, all these subexponential algorithms came with a probability of failure and additional steps were required to unconditionally prove the output. In addition, these methods do not cover all abelian varieties of dimension two. The objective of this thesis is to analyse the subexponential methods and develop ways to deal with the exceptional cases.
We improve the existing methods by developing algorithms that always output the correct endomorphism ring. In addition to that, we develop a novel approach to compute endomorphism rings of some abelian varieties that could not be handled before. We also prove that the subexponential approaches are simply not good enough to cover all the cases. We use some of our results to construct a family of abelian surfaces with which we build post-quantum cryptosystems that are believed to resist subexponential quantum attacks - a desirable property for cryptosystems. This has the potential of providing an efficient non interactive isogeny based key exchange protocol, which is also capable of resisting subexponential quantum attacks and will be the first of its kind.
Moderne Mikrostrukturierungsverfahren können dazu genutzt werden, die Eigenschaften von Bauteiloberflächen zu verändern und für bestimmte Anwendungsfälle gezielt zu optimieren. Gleichzeitig ist die Beschaffenheit einer Oberfläche von entscheidender Bedeutung für die Initiierung von Ermüdungsrissen. Im Rahmen dieser Arbeit wurden miniaturisierte Proben aus alpha-Titan mit drei verschiedenen Korngrößen, deren Oberflächen mithilfe von vier Mikrostrukturierungsverfahren modifiziert wurden, untersucht und die Einflussfaktoren auf die Schädigungsentwicklung unter zyklischer Beanspruchung eruiert.
Dafür wurden Methoden zur Charakterisierung der Oberflächenmorphologie (Topographie, Korngröße und kristallographische Orientierung) der Proben entwickelt. Die daraus abgeleiteten Informationen wurden für die Detektion kritischer Bereiche genutzt, in denen die Ermüdungsrissinitiierung vorzugsweise auftritt.
Die Untersuchungen zeigen, dass sich der Rissinitiierungsort anhand der entwickelten Methoden basierend auf Topographiedaten für Probenzustände bestimmen lässt, bei denen die Topographie den Rissinitiierungsort determiniert und bei denen folglich auch die Wechselfestigkeit aufgrund der Oberflächenstrukturierung reduziert ist. Für Probenzustände, bei denen die Rissinitiierung nicht an topographischen Merkmalen erfolgt, wird der Rissinitiierungsort durch lokale mikrostrukturelle Charakteristika bestimmt und konnte im Rahmen der vorliegenden Arbeit mit der Korngröße und der kristallographischen Orientierung korreliert werden.
Membrane proteins are of high pharmacological interest as they are involved in a variety of vital functions. However, to make them accessible to in vitro studies, they often need to be extracted from their natural lipid environment and stabilized with the aid of membrane-mimetic systems. Such membrane mimics can consist of diverse amphiphilic molecules. Small-molecule amphiphiles that can solubilize lipid bilayers, so-called detergents, have been invaluable tools for membrane-protein research in recent decades. Herein, novel small-molecule glyco-amphiphiles embodying three distinct design principles are introduced, and their biophysical and physicochemical properties are investigated. In doing so, the major aims consist in establishing new promising amphiphiles and in determining structure–efficacy relationships for their synthesis and application.
First, the software package D/STAIN was introduced to facilitate the analysis of demicellization curves obtained by isothermal titration calorimetry. The robustness of the underlying algorithm was demonstrated by analyzing demicellization curves representing large variations in amphiphile concentrations and thermodynamic parameters.
Second, the interactions of diastereomeric cyclopentane maltoside amphiphiles (CPMs) with lipid bilayers and membrane proteins were investigated. To this end, lipid model membranes, cellular membranes, and model membrane proteins were treated with different stereoisomer CPMs. These investigations pointed out the importance of stereochemical configuration in the solubilization of lipid bilayers, in the extraction of membrane proteins, and, ultimately, in the stabilization of the latter. Ultimately, CPM C12 could be identified as a particularly stabilizing agent.
Third, the influence of a polymerizable group attached to detergent-like amphiphiles was characterized regarding their micellization, micellar properties, and ability to solubilize lipid membranes. This revealed that such chemical modifications can have different degrees of impact regarding the investigated properties. In particular, micellization was influenced substantially, whereas the sizes of the resulting micelles varied slightly. The polymerizable amphiphiles were shown to solubilize artificial and natural lipid membranes and, consequently, to extract membrane proteins.
Last, the self-assembly of diglucoside amphiphiles bearing either a hydrocarbon or a lipophobic fluorocarbon chain to form native nanodiscs was investigated. It was shown that the presence of a fluorocarbon hydrophobic chain conveys superior stabilization properties onto the amphiphile and the resulting nanodiscs. Moreover, the kinetics of lipid exchange were fundamentally altered by the presence of the fluorocarbon amphiphiles in the nanodisc rim.
In the field of measurement technology, the use of unmanned aerial vehicles is becoming more and more popular. For many measurement tasks, the use of such devices offers many advantages in terms of cost and measurement effort. However, the occurring vibrations and disturbances are a significant disadvantage for the application of these devices for several measurement tasks. Within the scope of this work, a platform for measurement devices is developed. The platform is designed specifically for use on drones. The task of the platform is to isolate measurement equipments mounted on it from the drone disturbances. For this purpose we go through the product development process according to VDI 2221 to design a mechanical model of the platform. Then, control strategies are applied to isolate the platform. Since the disturbances acting on a drone are not always stationary, two control strategies known for their ability to handle uncertain systems are used. One of them comes from the field of acoustic.
Die Anbieter von Produkt-Service Systemen (PSS) im Investitionsgüterbereich unterliegen zunehmend dem Einfluss einer VUKA-Welt. Neue Technologien und Geschäftsmodelle, sich schnell ändernde Kundenbedürfnisse und der Einbezug vieler interner und externer Akteure resultieren in Komplexität, Unsicherheiten und kurzfristigen Änderungen, auf welche die PSS-Anbieter reagieren müssen, um frühzeitig entsprechende Lösungen anbieten zu können. Die PSS-Planung befasst sich mit der Identifikation und Spezifikation neuer PSS-Ideen. Die meisten Vorgehen zur PSS-Planung fokussieren auf die Planung von Sachprodukten, Serviceprodukten, unterstützender Infrastruktur und Netzwerke von Akteuren und binden den Kunden in die Planung ein. Durch die genannten Einflüsse der VUKA-Welt auf die Planung von PSS, muss diese an sich schnell ändernde Gegebenheiten angepasst werden. Agile Methoden der Softwareentwicklung bieten hierfür Potenziale. Insbesondere die Agile Methode Design Thinking, die den Kunden innerhalb eines kurzzyklischen Vorgehens in den Mittelpunkt der Entwicklungstätigkeiten stellt und auf die Entwicklung von Prototypen zur schnellen Realisierung von Lösungen setzt, bietet sich für den Einsatz in der PSS-Planung an. Die Arbeit befasst sich mit der Frage, wie Design Thinking in die PSS-Planung integriert werden kann, um zukünftig auf Änderungen adäquat reagieren zu können und gleichzeitig die Vorteile bestehender Ansätze, wie z. B. Kundenorientierung, nicht zu vernachlässigen. Dabei wird mit Hilfe eines Modellierungsansatzes eine Methode entwickelt, welches mit Rollen, Aktivitäten, Techniken und Ergebnissen den Einsatz von Design Thinking für die agile Planung von PSS ermöglicht, den Kunden an unterschiedlichen Stellen mit einbindet und Rücksprünge bei Änderungen erlaubt. Hervorzuheben ist, dass die Methode sowohl technologiegetrieben als auch marktgetrieben initiiert werden kann. Validiert wurde die Methode innerhalb eines Verbundprojekts bei der GRIMME Landmaschinenfabrik GmbH & Co. KG.
In dieser Arbeit wurden photoaktive Übergangsmetallkomplexe mit häufig vorkommenden Metallen wie Chrom, Vanadium und Kupfer untersucht. Hierbei wurden ausgewählte Exemplare mit besonders interessanten photophysikalischen und photochemischen Eigenschaften in Bezug auf praktische Anwendungen spektroskopisch charakterisiert. Über statische und insbesondere zeitaufgelöste FTIR- und Lumineszenzspektroskopie wurde ein tieferes Verständnis der Dynamik nach Lichtanregung erzielt. Das Hauptziel dieser Forschung besteht darin seltene und teure Elemente wie Ruthenium und Iridium gegen häufigere Metalle zu ersetzen.
In diesem Zusammenhang wurden mononukleare, oktaedrische Chrom(III)- und Vanadium(III)-Komplexe mit Polypyridylliganden, die im Arbeitskreis von Prof. Dr. Katja Heinze synthetisiert wurden, spektroskopisch charakterisiert. Diese Systeme zeigen vielversprechende Lumineszenzeigenschaften mit einer roten bzw. nahinfraroten Phosphoreszenz, wobei bei tiefen Temperaturen besonders hohe Quantenausbeuten und längere Lebensdauern beobachtet werden konnten.
Außerdem wurden einkernige Chrom(0)-, Molybdän(0)- und Wolfram(0)-Komplexe spektroskopisch charakterisiert, die allesamt im Arbeitskreis von Prof. Dr. Biprajit Sarkar synthetisiert wurden. Es sind mononukleare Komplexe mit Pyridyl-Carben-Liganden und Carbonyl-Coliganden mit einer dualen Phosphoreszenz (Emissionsbande im roten und nahinfraroten Bereich), wobei sich die niederenergetische Bande interessanterweise bis 1300 nm erstreckt. Außerdem zeigen die drei Komplexe bei intensiver Bestrahlung mit sichtbarem oder UV-Licht in organischer Lösung eine photochemische Reaktivität.
Als weitere vielversprechende Luminophore (sichtbare Emission) wurden Kupfer(I)-Komplexe analysiert, die für organische Leuchtdioden relevant sind. Einerseits wurden zweikernige Systeme mit einer zentralen Cu2I2-Einheit untersucht, die sich durch eine Fluorierung an den Phosphin-Hilfsliganden von den Derivaten aus Vorarbeiten unterscheiden. Die Systeme wurden im Arbeitskreis von Prof. Dr. Stefan Bräse zur Verbesserung der Löslichkeit im Vergleich zu unfluorierten Derivaten entwickelt. Die spektroskopischen Befunde dieser Arbeit zeigen, dass insbesondere die Einführung von Trifluormethylgruppen nicht nur die Löslichkeit, sondern auch die Stabilität verbessert. Andererseits wurden vierkernige Komplexe mit näherungsweise oktaedrischen Cu4X4-Clustern (X = I, Br, Cl) charakterisiert, wobei sich teilweise eine stark thermochrome Lumineszenz mit zwei klar separierten roten bzw. blauen Phosphoreszenzbanden ergab. Der Ursprung dieser Thermochromie konnte erstmalig auf experimentellem Weg den starken strukturellen Veränderung innerhalb des Cu4X4-Clusters zugeordnet werden.
Außerdem sind Kupfer(I)-Komplexe vielversprechende Kandidaten zur Verwendung als Photosensibilisatoren. Bei einem vom Arbeitskreis von Dr. Michael Karnahl zu Verfügung gestellten Kupfer(I)-Einkerner mit einem Liganden mit ausgedehntem 𝜋-System ergab sich ein langlebiger, nicht-strahlender Triplett-Zustand. In einem verwandten Projekt wurden ein- und zweikernige Kupfer(I)-Komplexe untersucht, die im Arbeitskreis von Dr. Claudia Bizzarri synthetisiert wurden. Der Fokus lag hierbei auf dem Einfluss einer Dimerisierung (kovalente Verbindung zweier mononuklearer Komplexe) oder einer Protonierung eines Liganden auf die photophysikalischen Eigenschaften.
Untersucht wurde das mechanische Verformungsverhalten des massiven metallischen Glases Zr52,5Cu17,9Ni14,6Al10Ti5 (Vitreloy 105) an Luft und im wässrigen Umgebungsmedium 0,01 M Na2SO4 (+ 0,01 M NaCl). Die Belastung erfolgte im Dreipunktbiegeversuch unter quasistatischer sowie zyklischer Beanspruchung und mit Hilfe der instrumentierten Schlagprüfung. Neben dem Umgebungseinfluss wurde der Effekt von zyklisch-kryogenen Vorbehandlungen und Oberflächenbearbeitungen mittels Mikrostrahlen, -fräsen, -erodieren und -laserablation auf die Schädigungsentwicklung und die ertragbaren Spannungen analysiert. Während eine Modifikation der Oberfläche stets in einer Erhöhung der Plastizität infolge einer verstärkten Scherbandbildung resultierte, wiesen diese Proben i.d.R. deutlich niedrigere Dauerfestigkeiten unter zyklischer Wechselbeanspruchung auf. Die tiefkühlbehandelten Zustände zeigten in allen mechanischen Tests ein optimiertes Verformungsverhalten. Mit Hilfe der anodischen Polarisation wurde außerdem im chloridhaltigen Medium ein signifikanter Effekt auf die Lebensdauer der unbehandelten Ermüdungsproben verzeichnet. Die Detektion der scherbandgetriebenen Deformationsprozesse sowie der Rissinitiierung und -ausbreitung erfolgte sowohl mittels Licht- und Rasterelektronenmikroskopie als auch unter Ausnutzung elektrochemischer Messsignale im wässrigen Medium bzw. resistometrischer Methoden an Luft. Auf Basis der Untersuchungsergebnisse wurden abschließend Schädigungsmodelle für die jeweiligen Versuchsbedingungen aufgestellt und diskutiert.