Doctoral Thesis
Refine
Year of publication
Document Type
- Doctoral Thesis (1878) (remove)
Language
- English (941)
- German (931)
- Multiple languages (6)
Keywords
- Visualisierung (21)
- Simulation (19)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (389)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (370)
- Kaiserslautern - Fachbereich Mathematik (292)
- Kaiserslautern - Fachbereich Informatik (235)
- Kaiserslautern - Fachbereich Biologie (134)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (64)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (37)
Die vorliegende Dissertation befasst sich mit der Herstellung und Charakterisierung
von Titan-, Zirconium- und Hafniumkomplexen, die mit sperrigen
Alkylcyclopentadienylliganden koordinieren. Hierbei wurden vorrangig
tert-butylsubstituierte Cp-Derivate verwendet aber auch die in der vierten
Nebengruppe weniger etablierten Isopropylcyclopentadienylliganden eingesetzt.
UV-Vis-spektroskopische Untersuchungen verdeutlichten Korrelationen der
Absorptionsmaxima und Intensitäten mit dem Substitutionsmuster am Cp-Liganden,
der Übergangsmetallart sowie der sonstigen koordinierenden Liganden.
Unter Durchführen von Substitutionsreaktionen konnten 2,6-Diisopropylphenolato-,
2,6-Di-tert-butylphenolato- und 3,5-Dimethylpyrazolidokomplexe hergestellt werden.
Verbindungen mit bidentaten Liganden konnten durch Verwenden von Natriumacetat,
Kaliumpivalat und Lithiumbenzoat synthetisiert werden. Säure-Base-Reaktionen
ausgehend von Cp''TiBr2N(TMS)2 ermöglichten das Einführen monodentater Liganden
wie Pyrrolidin, Piperidin und tert-Butylamin. Die Etablierung bidentater Liganden wie
N,N'-Diisopropyl-o-phenylendiamin und N,N'-Dimethylethylendiamin war über den
"constrained geometry complex" ansa-Cp'(Me2SitBuN-κN)TiCl2 realisierbar.
Im Zuge der Reduktion von Cp''TiBr3 mit Mangan entstand neben dem dominierend
ausgebildeten [Cp''TiBr(µ-Br)]2 in geringen Mengen [(Cp''TiBr2)2(µ-O)] durch nahezu
unvermeidliche Hydroxidkontaminationen des Reduktionsmittels. Die Umsetzung von
[RCpTiBr(µ-Br)]2 mit dem TEMPO-Radikal ermöglichte bei eng definierten
Reaktionsbedingungen die Herstellung von Cp''TiBr2(TEMPO), Cp''TiBr(TEMPO)2
sowie Cp'''TiBr2(TEMPO), deren homolytische Ti–O-Bindungsdissoziationstendenz
durch quantitative ESR-Experimente bei Raumtemperatur bestimmt wurde. Unter
Einsatz des TEMPO-Liganden konnten bei Raumtemperatur Cp''ZrCl2(TEMPO),
Cp''ZrCl(TEMPO)2 und Cp''HfCl(TEMPO)2 hergestellt und röntgenkristallographisch
untersucht werden. Folgereaktionen zu neuen Titan(III)-Komplexen ermöglichte die
Verbindungsklasse der Carbonsäureamide in Form von N,N-Dimethylisobutyramid,
N,N-Dimethylacetamid, 1,3-Dimethylimidazolidinon, Tetramethylharnstoff und
Acetamid, die unter Koordination zwitterionische Strukturen ausbilden. Alle
synthetisierten Komplexe wurden nach Möglichkeit mittels CHNS-Elementaranalyse,
Röntgenstrukturanalyse, Schmelzpunktbestimmung, NMR-, IR-, UV-Vis- und
ESR-Spektroskopie sowie SQUID-Magnetometrie charakterisiert.
An Efficient Automated Machine Learning Framework for Genomics and Proteomics Sequence Analysis
(2023)
Genomics and Proteomics sequence analyses are the scientific studies of understanding the language of Deoxyribonucleic Acid (DNA), Ribonucleic Acid (RNA) and protein biomolecules with an objective of controlling the production of proteins and understanding their core functionalities. It helps to detect chronic diseases in early stages, root causes of clinical changes, key genetic targets for pharmaceutical development and optimization of therapeutics for various age groups. Most Genomics and Proteomics sequence analysis work is performed using typical wet lab experimental approaches that make use of different genetic diagnostic technologies. However, these approaches are costly, time consuming, skill and labor intensive. Hence, these approaches slow down the process of developing an efficient and economical sequence analysis landscape essential to demystify a variety of cellular processes and functioning of biomolecules in living organisms. To empower manual wet lab experiment driven research, many machine learning based approaches have been developed in recent years. However, these approaches cannot be used in practical environment due to their limited performance. Considering the sensitive and inherently demanding nature of Genomics and Proteomics sequence
analysis which can have very far-reaching as well as serious repercussions on account of misdiagnosis, the main
objective of this research is to develop an efficient automated computational framework for Genomics and Proteomics sequence analysis using the predictive and prescriptive analytical powers of Artificial Intelligence (AI) to significantly improve healthcare operations.
The proposed framework is comprised of 3 main components namely sequence encoding, feature engineering and
discrete or continuous value predictor. The sequence encoding module is equipped with a variety of existing and newly developed sequence encoding algorithms that are capable of generating a rich statistical representation of DNA, RNA and protein raw sequences. The feature engineering module has diverse types of feature selection and dimensionality reduction approaches which can be used to generate the most effective feature space. Furthermore, the discrete and/or continuous value predictor module of the proposed framework contains a wide range of existing machine learning and newly developed deep learning regressors and classifiers. To evaluate the integrity and generalizability of the proposed framework, we have performed a large-scale experimentation over diverse types of Genomics and Proteomics sequence analysis tasks (i.e., DNA, RNA and proteins).
In Genomics analysis, Epigenetic modification detection is one of the key component. It helps clinical researchers and practitioners to distinguish normal cellular activities from malfunctioned ones, which can lead to diverse genetic disorders such as metabolic disorders, cancers, etc. To support this analysis, the proposed framework is used to solve the problem of DNA and Histone modification prediction where it has achieved state-of-the-art performance on 27 publicly available benchmark datasets of 17 different species with best accuracy of 97%. RNA sequence analysis is another vital component of Genomics sequence analysis where the identification of different coding and non-coding RNAs as well as their subcellular localization patterns help to demystify the functions of diverse RNAs, root causes of clinical changes, develop precision medicine and optimize therapeutics. To support this analysis, the proposed framework is utilized for non-coding RNA classification and multi-compartment RNA subcellular localization prediction. Where it achieved state-of-the-art performance on 10 publicly available benchmark datasets of Homo sapiens and Mus Musculus species with best accuracy of 98%.
Proteomics sequence analysis is essential to demystify the virus pathogenesis, host immunity responses, the way
proteins affect or are affected by the cell processes, their structure and core functionalities. To support this analysis, the proposed framework is used for host protein-protein and virus-host protein-protein interaction prediction. It has achieved state-of-the-art performance on 2 publicly available protein protein interaction datasets of Homo Sapiens and Mus Musculus species with best accuracy of 96% and 7 viral host protein protein interaction datasets of multiple hosts and viruses with best accuracy of 94%. Considering the performance and practical significance of proposed framework, we believe proposed framework will help researchers in developing cutting-edge practical applications for diverse Genomic and Proteomic sequence analyses tasks (i.e., DNA, RNA and proteins).
Emission trading systems (ETS) represent a widely used instrument to control greenhouse
gas emissions, while minimizing reduction costs. In an ETS, the desired amount of emissions in
a predefined time period is fixed in advance; corresponding to this amount, tradeable allowances
are handed out or auctioned to companies which underlie the system. Emissions which are not
covered by an allowance are subject to a penalty at the end of the time period.
Emissions depend on non-deterministic parameters such as weather and the state of the
economy. Therefore, it is natural to view emissions as a stochastic quantity. This introduces a
challenge for the companies involved: In planning their abatement actions, they need to avoid
penalty payments without knowing their total amount of emissions. We consider a stochastic control approach to address this problem: In a continuous-time model, we use the rate of
emission abatement as a control in minimizing the costs that arise from penalty payments and
abatement costs. In a simplified variant of this model, the resulting Hamilton-Jacobi-Bellman
(HJB) equation can be solved analytically.
Taking the viewpoint of a regulator of an ETS, our main interest is to determine the resulting
emissions and to evaluate their compliance with the given emission target. Additionally, as an
incentive for investments in low-emission technologies, a high allowance price with low variability
is desirable. Both the resulting emissions and the allowance price are not directly given by the
solution to the stochastic control problem. Instead we need to solve a stochastic differential
equation (SDE), where the abatement rate enters as the drift term. Due to the nature of the
penalty function, the abatement rate is not continuous. This means that classical results on
existence and uniqueness of a solution as well as convergence of numerical methods, such as the
Euler-Maruyama scheme, do not apply. Therefore, we prove similar results under assumptions
suitable for our case. By applying a standard verification theorem, we show that the stochastic
control approach delivers an optimal abatement rate.
We extend the model by considering several consecutive time periods. This enables us to
model the transfer of unused allowances to the subsequent time period. In formulating the
multi-period model, we pursue two different approaches: In the first, we assume the value that
the company anticipates for an unused allowance to be constant throughout one time period.
We proceed similarly to the one-period model and again obtain an analytical solution. In the
second approach, we introduce an additional stochastic process to simulate the evolution of the
anticipated price for an unused allowance.
The model so far assumes that allowances are allocated for free. Therefore, we construct
another model extension to incorporate the auctioning of allowances. Then, additionally the
problem of choosing the optimal demand at the auction needs to be solved. We find that
the auction price equals the allowance price at the beginning of the respective time period.
Furthermore, we show that the resulting emissions as well as the allowance price are unaffected
by the introduction of auctioning in the setting of our model.
To perform numerical simulations, we first solve the characteristic partial differential equation
derived from the HJB equation by applying the method of lines. Then we apply the Euler-
Maruyama scheme to solve the SDE, delivering realizations of the resulting emissions and the
allowance price paths.
Simulation results indicate that, under realistic settings, the probability of non-compliance
with the emission target is quite large. It can be reduced for instance by an increase of the
penalty. In the multi-period model, we observe that by allowing the transfer of allowances to the
subsequent time period, the probability of non-compliance decreases considerably.
Estimation of Motion Vector Fields of Complex Microstructures by Time Series of Volume Images
(2023)
Mechanical tests form one of the pillars in development and assessment of modern materials. In a world that will be forced to handle its resources more carefully in the near future, development of materials that are favorable regarding for example weight or material consumption is inevitable. To guarantee that such materials can also be used in critical infrastructure, such as foamed materials in automotive industry or new types of concrete in civil engineering, mechanical properties like tensile or compressive strength have to be thoroughly described. One method to do so is by so called in situ tests, where the mechanical test is combined with an image acquisition technique such as Computed Tomography.
The resulting time series of volume images comprise the delicate and individual nature of each material. The objective of this thesis is to present and develop methods to unveil this behavior and make the motion accessible by algorithms. The estimation of motion has been tackled by many communities, and two of them have already made big effort to solve the problems we are facing. Digital Volume Correlation (DVC) on the one hand has been developed by material scientists and was applied in many different context in mechanical testing, but almost never produces displacement fields that allocate one vector per voxel. Medical Image Registration (MIR) on the other hand does produce voxel precise estimates, but is limited to very smooth motion estimates.
The unification of both families, DVC and MIR, under one roof, will therefore be illustrated in the first half of this thesis. Using the theory of inverse problems, we lay the mathematical foundations to explain why in our impression none of the families is sufficient to deal with all of the problems that come with motion estimation in in situ tests. We then proceed by presenting a third community in motion estimation, namely Optical flow, which is normally only applied in two dimensions. Nevertheless, within this community algorithms have been developed that meet many of our requirements. Strategies for large displacement exist as well as methods that resolve jumps, and on top the displacement is always calculated on pixel level. This thesis therefore proceeds by extending some of the most successful methods to 3D.
To ensure the competitiveness of our approach, the last part of this thesis deals with a detailed evaluation of proposed extensions. We focus on three types of materials, foam, fibre systems and concrete, and use simulated and real in situ tests to compare the Optical flow based methods to their competitors from DVC and MIR. By using synthetically generated and simulated displacement fields, we also assess the quality of the calculated displacement fields - a novelty in this area. We conclude this thesis by two specialized applications of our algorithm, which show how the voxel-precise displacement fields serve as useful information to engineers in investigating their materials.
In tribology laboratories, the management of material samples and test specimens, the planning and execution of experiments, the evaluation of test data and the longterm storage of results are critical processes. However, despite their criticality, they are carried out manually and typically at a low level of computerization and standardization. Therefore, formats for primary data and aggregated results are wildly different between laboratories, and the interoperability of research data is low. Even within laboratories, low levels of standardization, in combination with ambiguous or non-unique identifiers for data files, test specimens and analysis results greatly reduce data integrity and quality. As a consequence, productivity is low, error rates are high, and the lack or low quality of metadata causes the value of produced data to deteriorate very quickly, which makes the re-use of data, e.g. for data mining and meta studies, practically impossible.
In other fields of science, these are mitigated by the use of Laboratory Information Management Systems (LIMS). However, at the moment, such systems do not exist
in tribological research. The main challenge for the implementation of such a system is that it requires extensive interdisciplinary knowledge from otherwise very
disparate fields: tribology, data and process modelling, quality management, databases and programming. So far, existing solutions are either proprietary, very limited
in their scope or focused on merely storing aggregated results without any support for laboratory operations.
Therefore, this thesis describes fundamentals of information technology, data modelling and programming that are required to build a LIMS for tribology laboratories.
Based on an analysis of a typical workflow of a tribology laboratory, a data model for all relevant entities and processes is designed using object-relational data modelling and object-oriented programming and a relational database is used to provide a reference implementation of such a LIMS. It provides critical functionalities
like a materials database, test specimen management, the planning, execution and evaluation of friction and wear tests, automated procedures for tribometer
parameterization and data transmission, storage and evaluation and for aggregating individual tests into test sets and projects. It improves the quality and long-term usability of data by replacing error-prone human processes by automated variants, e.g. automated collection of metadata and data file transmission, homogenization and storage. The usefulness of the developed LIMS is demonstrated by applying it to Transfer Film Luminance Analysis (TLA), which is a newly developed advanced method for the analysis of the formation and stability of transfer films and their impact on friction and wear, but which produces so much data and requires such a large amount of metadata during evaluation that it can only be performed safely, quickly and reliably by integration into the presented LIMS.
Regulation of sucrose transport between source and sink tissues is critical for plant development and properties. In cells, the dynamic vacuolar sugar homeostasis is maintained by the controlled regulation of the activities of sugar importers and exporters residing in the tonoplast. We show here that the EARLY RESPONSE TO DEHYDRATION6-LIKE4 protein, being the closest homolog to the proton/glucose symporter ERDL6, resides in the vacuolar membrane. We raised both, molecular expression and data deriving from non-aqueous fractionation studies indicating that ERDL4 was involved in glucose and fructose allocation across the tonoplast. Surprisingly, overexpression of ERDL4 increased total sugar levels in leaves, which is due to a concomitantly induced stimulation of TST2 expression, coding for the major vacuolar sugar loader. This conclusion is supported by the notion that tst1-2 knockout lines overexpressing ERDL4 lack increased cellular sugar levels. That ERDL4 activity contributes to the coordination of cellular sugar homeostasis is further indicated by two observations. Firstly, ERDL4 and TST genes exhibit an opposite regulation during a diurnal rhythm, secondly, the ERDL4 gene is markedly expressed during cold acclimation representing a situation in which TST activity needs to be upregulated. Moreover, ERDL4-overexpressing plants show larger size of rosettes and roots, a delayed flowering and increased total seed yield. In summary, we identified a novel factor influencing source to sink transfer of sucrose and by this governing plant organ development.
In this thesis, a new concept to prove Mosco convergence of gradient-type Dirichlet forms within the \(L^2\)-framework of K.~Kuwae and T.~Shioya for varying reference measures is developed.
The goal is, to impose as little additional conditions as possible on the sequence of reference measure \({(\mu_N)}_{N\in \mathbb N}\), apart from weak convergence of measures.
Our approach combines the method of Finite Elements from numerical analysis with the topic of Mosco convergence.
We tackle the problem first on a finite-dimensional substructure of the \(L^2\)-framework, which is induced by finitely many basis functions on the state space \(\mathbb R^d\).
These are shifted and rescaled versions of the archetype tent function \(\chi^{(d)}\).
For \(d=1\) the archetype tent function is given by
\[\chi^{(1)}(x):=\big((-x+1)\land(x+1)\big)\lor 0,\quad x\in\mathbb R.\]
For \(d\geq 2\) we define a natural generalization of \(\chi^{(1)}\) as
\[\chi^{(d)}(x):=\Big(\min_{i,j\in\{1,\dots,d\}}\big(\big\{1+x_i-x_j,1+x_i,1-x_i\big\}\big)\Big)_+,\quad x\in\mathbb R^d.\]
Our strategy to obtain Mosco convergence of
\(\mathcal E^N(u,v)=\int_{\mathbb R^d}\langle\nabla u,\nabla v\rangle_\text{euc}d\mu_N\) towards \(\mathcal E(u,v)=\int_{\mathbb R^d}\langle\nabla u,\nabla v\rangle_\text{euc}d\mu\) for \(N\to\infty\)
involves as a preliminary step to restrict those bilinear forms to arguments \(u,v\) from the vector space spanned by the finite family \(\{\chi^{(d)}(\frac{\,\cdot\,}{r}-\alpha)\) \(|\alpha\in Z\}\) for
a finite index set \(Z\subset\mathbb Z^d\) and a scaling parameter \(r\in(0,\infty)\).
In a diagonal procedure, we consider a zero-sequence of scaling parameters and a sequence of index sets exhausting \(\mathbb Z^d\).
The original problem of Mosco convergence, \(\mathcal E^N\) towards \(\mathcal E\) w.r.t.~arguments \(u,v\) form the respective minimal closed form domains extending the pre-domain \(C_b^1(\mathbb R^d)\), can be solved
by such a diagonal procedure if we ask for some additional conditions on the Radon-Nikodym derivatives \(\rho_N(x)=\frac{d\mu_N(x)}{d x}\), \(N\in\mathbb N\). The essential requirement reads
\[\frac{1}{(2r)^d}\int_{[-r,r]^d}|\rho_N(x)- \rho_N(x+y)|d y \quad \overset{r\to 0}{\longrightarrow} \quad 0 \quad \text{in } L^1(d x),\,
\text{uniformly in } N\in\mathbb N.\]
As an intermediate step towards a setting with an infinite-dimensional state space, we let $E$ be a Suslin space and analyse the Mosco convergence of
\(\mathcal E^N(u,v)=\int_E\int_{\mathbb R^d}\langle\nabla_x u(z,x),\nabla_x v(z,x)\rangle_\text{euc}d\mu_N(z,x)\) with reference measure \(\mu_N\) on \(E\times\mathbb R^d\) for \(N\in\mathbb N\).
The form \(\mathcal E^N\) can be seen as a superposition of gradient-type forms on \(\mathbb R^d\).
Subsequently, we derive an abstract result on Mosco convergence for classical gradient-type Dirichlet forms
\(\mathcal E^N(u,v)=\int_E\langle \nabla u,\nabla v\rangle_Hd\mu_N\) with reference measure \(\mu_N\) on a Suslin space $E$ and a tangential Hilbert space \(H\subseteq E\).
The preceding analysis of superposed gradient-type forms can be used on the component forms \(\mathcal E^{N}_k\), which provide the decomposition
\(\mathcal E^{N}=\sum_k\mathcal E^{N}_k\). The index of the component \(k\) runs over a suitable orthonormal basis of admissible elements in \(H\).
For the asymptotic form \(\mathcal E\) and its component forms \(\mathcal E^k\), we have to assume \(D(\mathcal E)=\bigcap_kD(\mathcal E^k)\) regarding their domains, which is equivalent to the Markov uniqueness of \(\mathcal E\).
The abstract results are tested on an example from statistical mechanics.
Under a scaling limit, tightness of the family of laws for a microscopic dynamical stochastic interface model over \((0,1)^d\) is shown and its asymptotic Dirichlet form identified.
The considered model is based on a sequence of weakly converging Gaussian measures \({(\mu_N)}_{N\in\mathbb N}\) on \(L^2((0,1)^d)\), which are
perturbed by a class of physically relevant non-log-concave densities.
Mit Durchführung des Instandsetzungsverfahrens 8.3 nach der Technischen Regel Instandhaltung, kurz TR-IH; wird zunächst keine direkte Repassivierung des Bewehrungsstahls angestrebt. Der Instandsetzungserfolg ist vielmehr an die zeitliche Änderung der korrosionsrelevanten Kenngrößen gekoppelt. Hierzu zählen die Erhöhung des spezifischen Elektrolytwiderstands des Betons infolge von Austrocknung sowie die Abnahme der Korrosionsströme und Treibspannungen am Bewehrungsstahl.
Im Rahmen dieser Arbeit wurden grundlegende Untersuchungen zur Wirkungsweise und zu den Anwendungsgrenzen des Instandsetzungsverfahrens 8.3 durchgeführt. Zur Beschreibung der Feuchteaufnahme und Feuchtespeicherung von chloridbelastetem Beton im Vergleich zu chloridfreiem Beton erfolgte die Untersuchung der Sorptionsisotherme an Betonen mit unterschiedlichen Chloridgehalten. Im Weiteren erfolgte die Untersuchung des Austrocknungsverhaltens von chloridbelasteten Betonproben unter eher diffusionsoffenen und stark diffusionsbremsenden Beschichtungen. Zusammen mit dem Austrocknungsverhalten wurde auch die Korrosionsaktivität der Bewehrung mittels elektrochemischer Messmethoden untersucht.
Die korrosionsbremsende Wirkungsweise des Verfahrens 8.3 wird bei niedrigen Wassergehalten primär durch eine anodische Steuerung der Korrosion als maßgeblicher Faktor beeinflusst. Der spezifische Elektrolytwiderstand hat als Systembestandteil im untersuchten Aufbau einen wichtigen, aber für den Nachweis des Instandsetzungserfolgs nicht hinreichenden Anteil, wenngleich er eine gute Korrelation mit der Austrocknung des Betons besitzt. Zur Bewertung der Korrosionskinetik ist die alleinige Betrachtung des spezifischen Elektrolytwiderstands daher ungeeignet.
Im Hinblick auf die Anwendungsgrenze des Verfahrens 8.3 zeigt sich der auf Höhe des Betonstahls im Beton vorhandene Chloridgehalt als ein maßgebliches Kriterium. Während die Korrosionsaktivität selbst bei moderat austrocknenden Proben unter stark diffusionsbremsenden Beschichtungen bei Chloridgehalten von 1 M.-% Cl-/z im Bereich der Passivstromdichte liegt, ist eine vergleichbare Reduktion der Stromdichten bei Chloridgehalten von 2 M.-% Cl-/z von weiteren Randparametern abhängig. Die Art der Beschichtung beeinflusst die Austrocknung des Betons entscheidend. So kann ein weniger dichter Beton unter einer diffusionsoffenen Beschichtung (OS 4) so weit austrocknen, dass die Passivstromdichte erreicht wird. Bei eher diffusionsdichten Beschichtungen und Vorhandensein hoher Chloridgehalte von 2 M.-% Cl-/z führte das Instandsetzungsverfahren 8.3 bei dem gewählten Versuchsaufbau innerhalb üblicher Zeiträume (hier 1,5 Jahre) nachweislich nicht zum Erfolg (unschädliche Korrosionsraten).
This thesis deals with the simulation of large insurance portfolios. On the one hand, we need to model the contracts' development and the insured collective's structure and dynamics. On the other hand, an important task is the forward projection of the given balance sheet. Questions that are interesting in this context, such as the question of the default probability up to a certain time or the question of whether interest rate promises can be kept in the long term, cannot be answered analytically without strong simplifications. Reasons for this are high dependencies between the insurer's assets and liabilities, interactions between existing and new contracts due to claims on a collective reserve, potential policy features such as a guaranteed interest rate, and individual surrender options of the insured. As a consequence, we need numerical calculations, and especially the volatile financial markets require stochastic simulations. Despite the fact that advances in technology with increasing computing capacities allow for faster computations, a contract-specific simulation of all policies is often an impossible task. This is due to the size and heterogeneity of insurance portfolios, long time horizons, and the number of necessary Monte Carlo simulations. Instead, suitable approximation techniques are required.
In this thesis, we therefore develop compression methods, where the insured collective is grouped into cohorts based on selected contract-related criteria and then only an enormously reduced number of representative contracts needs to be simulated. We also show how to efficiently integrate new contracts into the existing insurance portfolio. Our grouping schemes are flexible, can be applied to any insurance portfolio, and maintain the existing structure of the insured collective. Furthermore, we investigate the efficiency of the compression methods and their quality in approximating the real life insurance portfolio.
For the simulation of the insurance business, we introduce a stochastic asset-liability management (ALM) model. Starting with an initial insurance portfolio, our aim is the forward projection of a given balance sheet structure. We investigate conditions for a long-term stability or stationarity corresponding to the idea of a solid and healthy insurance company. Furthermore, a main result is the proof that our model satisfies the fundamental balance sheet equation at the end of every period, which is in line with the principle of double-entry bookkeeping. We analyze several strategies for investing in the capital market and for financing the due obligations. Motivated by observed weaknesses, we develop new, more sophisticated strategies. In extensive simulation studies, we illustrate the short- and long-term behavior of our ALM model and show impacts of different business forms, the predicted new business, and possible capital market crashes on the profitability and stability of a life insurer.
The fifth-generation (5G) of wireless networks promises to bring new advances, such as a huge increase in mobile data rates, a plunge in communications latency, and an increase in the quality of experience perceived by users that can cope with the ever-increasing demand in Internet traffic. However, the high cost of capital and operational expenditure (CAPEX/OPEX) of the new 5G network and the lack of a killer application hinder its rapid adoption. In this context, Mobile Network Operators (MNOs) have turned their attention to the following idea: opening up their infrastructure so that vertical businesses can leverage the new 5G network to improve their primary businesses and develop new ones. However, deploying multiple isolated vertical applications on top of the same infrastructure poses unique challenges that must be addressed. In this thesis, we provide critical contributions to developing 5G networks to accommodate different vertical applications in an isolated, flexible, and automated manner. This thesis contributions spawn on three main areas: (i) the development of an integrated fronthaul and backhaul network, (ii) the development of a network slicing overbooking algorithm, and (iii) the development of a method to mitigate the noisy neighbors' problem in a vRAN deployment.
Scientific research plays a crucial role in the development of a society. With ever-increasing volumes of scientific publications are now making it extremely challenging to analyze and maintain insights into the scientific communities like collaboration or citation trends and evolution of interests etc. This thesis is an effort towards using scientific publications to provide detailed insights into a scientific community from a range of aspects. The contribution of this thesis is five-fold.
Firstly, this thesis proposes approaches for automatic information extraction from scientific publications. The proposed layout-based approach for this purpose is inspired by how human beings perceive individual references relying only on visual queues. The proposed approach significantly outperforms the existing text-based techniques and is independent of any domain or language.
Secondly, this thesis tackles the problem of identifying meaningful topics from a given publication as the keywords provided in the publication are not always accurate representatives of the publication topic. To rectify this problem, this thesis proposes a state-of-the-art keywords extraction approach that employs a domain ontology along with the detected keywords to perform topic modeling for a given set of publications.
Thirdly, this thesis analyses the disposition of each citation to understand its true essence. For this purpose, we proposes a transformer-based approach for analyzing the impact of each citation appearing in a scientific publication. The impact of a citation can be determined by the inherent sentiment and intent of a citation, which refers to the assessment and motive of an author towards citing a scientific publication.
Furthermore, this thesis quantifies the influence of a research contributor in a scientific community by introducing a new semantic index for researchers that takes both quantitative and qualitative aspects of a citation into account to better represent the prestige of a researcher in a scientific community. Semantic Index is also evaluated for conformity to the guidelines and recommendations of various research funding organizations to assess the impact of a researcher.
In this thesis, all of the aforementioned aspects are packaged together in a single framework called Academic Community Explorer (ACE) 2.0, which automatically extracts and analyzes information from scientific publications and visualizes the insights using several interactive visualizations. These visualizations provide an instant glimpse into the scientific communities from a wide range of aspects with different granularity levels.
Human interferences within the Earth System are accelerating, leading to major impacts and feedback that we are just beginning to understand. Summarized under the term 'global change' these impacts put human and natural systems under ever-increasing stress and impose a threat to human well-being, particularly in the Global South. Global governance bodies have acknowledged that decisive measures have to be taken to mitigate the causes and to adapt to these new conditions. Nevertheless, neither current international nor national pledges and measures reach the effectiveness needed to sustain global human well-being under accelerating global change. On the contrary, competing interests are not only paralyzing the international debate but also playing an increasingly important role in debates over social fragmentation and societal polarization on national and local scales. This interconnectedness of the natural and the social system and its impact on social phenomena such as cooperation and conflicts need to be understood better, to strengthen social resilience to future disturbances, drive societal transformation towards socially desirable futures while at the same time avoiding path dependencies along continuing colonial continuities. As a case example, this thesis provides insights into southwestern Amazonia, where the intertwined challenges of human contribution to global change in all its dimensions, as well as human adaptation and mitigation attempts to the imposed changes become exaggeratedly visible. As such, southwestern Amazonia with its high social, economic, and biological diversity is a good example to study the deep interrelations of humans with nature and the consequences these relations have on social cohesion amid an ecological crisis.
Therefore, this thesis takes a social-ecological perspective on conflicts and social cohesion. Social cohesion is in a wider sense understood as the way "how members of a society, group, or organization relate to each other and work together" (Dany and Dijkzeul 2022, p. 12). In particular in contexts of violence, conflicts, and fragility, little has been investigated on the role of social cohesion to govern public goods and build resilience for (future) environmental crises. At the same time, governments and international decision-makers more and more acknowledge the role of social cohesion _ comprising both relations between social groups and between groups and the state _ to build upon resilience against crises. Facing uncertainty in how natural and social systems react to certain disturbances and shocks, the governance of potential tipping points, is an additional challenge for the governance of social-ecological systems (SES). Therefore, this thesis asks: "How does governance shape pathways towards cooperative or conflictive social-ecological tipping points?" The results of this thesis can be distinguished into theoretical/conceptual results and empirical results. Initial systematic literature research on the nexus of climate change, land use, and conflict revealed, an extensive body of literature on direct effects, for example, drought-related land use conflicts, with diverging opinions on whether global warming increases the risk for conflicts or not. Adding the perspective of indirect implications, we further identified research gaps, and also a lack of policy recognition, concerning the negative externalities on land use and conflict through climate mitigation and adaptation measures. On a conceptual note, taking a social cohesion perspective into the analysis is beneficial to shift the focus from the problem-oriented perspective of vulnerabilities and conflicts to global change and potential resulting conflicts to a solution-oriented perspective of enhancing agency and resilience to strengthen collaboration. The developed Social Cohesion Conceptual Model and the related analytical framework facilitate the incorporation of societal dynamics into the analysis of SES dynamics. In addition, the elaborated Tipping Multiverse Framework took up this idea and enhanced it with a more detailed perspective on the soil ecosystem and the household livelihood system to identify entry points to potential social-ecological tipping cascades. As such, the Tipping Multiverse Framework offered two matrices that can advance the understanding of regional SES by identifying core processes, functioning, and links in each TE and thus provide entry points to identify potential tipping cascades across SES sub-systems. The exemplified application of these two frameworks on southwestern Amazonia shows the analytical potential of both proposed frameworks in advancing the understanding of social-ecological tipping points and potential tipping cascades in a regional SES.
On an empirical note, zooming in on questions of governance by applying a political ecology lens to human security, we find that 'glocal' resource governance often reproduces, amplifies, or creates power imbalances and divisions on and between different scales. Our results show that the winners of resource extraction are mostly found at the national and international scale while local communities receive little benefit and are left vulnerable to externalities. Hence, our study contributes to the existing research by stressing the importance of one underlying question: "governance by whom and for whom?" This question raised the demand to understand the underlying dynamics of resource governance and resulting conflicts. Therefore, we aimed at analyzing how (environmental) institutions influence the major drivers of social-ecological conflicts over land in and around three protected areas, Tambopata (Peru), the Extractive Reserve Chico Mendes (Brazil), and Manuripi (Bolivia). We found that state institutions, in particular, have the following effects on key conflict drivers: Overlapping responsibilities of governance institutions and limited enforcement of regulations protecting and empowering rural and disadvantaged populations, enabling external actors to (illegally) access and control resources in the protected areas. Consequently, the already fragile social contract between the residents of the protected area and its surrounding areas and the central state is further weakened by the expanding influence of criminal organizations that oppose the state's authority. For state institutions to avoid aggravating these conflict drivers but instead better manage them or even contribute to conflict prevention and mitigation, a transformation from reactive to reflexive institutions and the development of new reflexive governance competencies is needed.
This need for reflexive governance becomes particularly visible when sudden disturbances or shocks impact the SES. Our analysis of the impacts of the COVID-19 pandemic on the interconnections of land use change, ecosystem services, human agency, conflict, and cooperation that the pandemic has had a severe influence on the human security of marginalized social groups in southwestern Amazonia. Civil society actions have been an essential strategy in the fight against COVID-19, not just in the health sector but also in the economic, political, social, and cultural realms. However, our research also showed that the pandemic has consolidated and partly renewed criminal structures, while the already weak state has fallen further behind due to additional tasks managing the pandemic and other disasters such as floods.
In conclusion, it can be said that the reflexivity of governance is crucial to foster cooperation and preventing conflicts in the realm of social-ecological systems. By not only reacting to already occurring changes but also reflecting upon potential future changes, governance can shape transformation pathways away from the detrimental and towards life-sustaining pathways. It can do so, by exercising agency across scales to avoid the crossing of detrimental social-ecological tipping points but rather to trigger life-sustaining tipping points that contribute to global social-ecological well-being.
Der Klimawandel stellt eine der größten Herausforderungen der aktuellen Zeit dar. Um die globale Erwärmung zu begrenzen, ist eine deutliche Reduzierung der CO2-Emissionen erforderlich. Dies muss auch im Gebäudesektor erfolgen. In Deutschland lassen sich auf diesen 34 % des gesamten Endenergieverbrauchs und 28 % der CO2-Emissionen zurückführen.
Um den Heiz- und Kühlenergiebedarf von Gebäuden möglichst umweltschonend sicherzustellen, ist es erforderlich, dass Gebäude mit ihrer Umgebung als eine Einheit betrachtet werden. Neben einem hohen Dämmniveau und einer möglichst luftdichten Ausführung der Gebäudehülle bedarf es dazu einer effizienten Anlagentechnik. Ziel dieser ist es, einen möglichst großen Anteil der erforderlichen Energie aus der Umwelt zu gewinnen und einzuspeichern, wenn diese in ausreichender Menge und auf dem erforderlichen Temperaturniveau zur Verfügung steht und abzugeben, wenn diese zur Beheizung oder Kühlung des Gebäudes benötigt wird.
Bei der Entwicklung solcher Gebäudegesamtsysteme ist es sinnvoll, die einzelnen Komponenten und deren Zusammenspiel über Simulationsprogramme zu modellieren. Auf diese Weise lässt sich die Funktion und Effizienz der Systeme untersuchen und bewerten. Aus diesem Grund wurde ein auf Latentwärmespeichern und Peltier-Wärmetauschern basierender Ansatz für ein neuartiges Gebäudegesamtsystem experimentell und simulativ untersucht.
Die vorliegende Arbeit beschreibt die an einzelnen Komponenten durchgeführten Versuche im Labor sowie in einem Versuchsgebäude. Anhand der gewonnenen Messwerte erfolgt anschließend aufgeteilt in ein Teilsystem zur Kühlung und ein Teilsystem zur Beheizung die Modellierung des Systems über das Gebäudesimulationsprogramm TRNSYS. Um die Funktions-weise der untersuchten Latentwärmespeicher und die Steuerung des Gesamtsystems abzubilden, wurde in TRNSYS der Type62 verwendet.
Es stellte sich heraus, dass sich dieser sehr gut eignet, um Messdaten in die Simulation zu implementieren, physikalische Prozesse abzubilden sowie um Algorithmen zur Steuerung des Systems zu programmieren. Auf diese Weise ließen sich für das neuartige Gebäudegesamtsystem das Zusammenspiel der einzelnen Technologien, der Deckungsanteil am Jahresenergiebedarf sowie die Energieeffizienz analysieren. Beim Teilsystem zur Kühlung wurden darüber hinaus die thermische Behaglichkeit sowie die Auswirkungen, die sich bei einer Holzrahmenbauweise und einem extrem warmen Testreferenzjahr ergeben, untersucht.
Die entwickelten Simulationsmodelle ermöglichen es, Randbedingungen sowie die Dimensionierung einzelner Komponenten zu variieren oder die Steuerungstechnik zu erweitern. Auch besteht die Möglichkeit weitere Technologien mit einzubinden, um deren Effekt auf die Leistungsfähigkeit und Effizienz des Gesamtsystems zu untersuchen. Optimierungspotential besteht beim Teilsystem zur Kühlung darin, weitere prädiktive Steuerungsalgorithmen zu hinterlegen, um die Betriebszeiten der Anlage und somit auch den Stromverbrauch zu reduzieren.
This work is concerned with two often separated disciplines. First, experimental studies in which the effect of cooling rate on martensite transformation and the resulting microstructure in a low-alloy steel is investigated. From this, a possible transformation mechanism is derived. Second, the development of a simulation model which describes the martensitic morphology and its evolution. In this context, a phase field model is presented introducing order parameters to simulate the material state, namely austenite and martensite. The evolution of the order parameters is assumed to follow the time-dependent Ginzburg-Landau equation. A major extension to previous models is the consideration of twelve crystallographic martensite variants corresponding to the Nishiyama-Wassermann orientation relationship. To describe the ordered displacement of atoms during transformation and to account for the martensitic substructure, the well-known phenomenological theory of martensite crystallography is employed. The presented experiments as well as thermodynamic calculations are used as a basis in the identification of model parameters. With the presented model, basic features of the martensitic transformation can be reproduced. These include the martensite start temperature and the hierarchical microstructure consisting of blocks and packets. The sizes of the blocks are in good agreement with the real sizes of the experimental database.
Stadtzentren stehen vor vielfältigen Herausforderungen und Veränderungsprozessen. Beispielhaft lassen sich der Strukturwandel im Einzelhandel, fehlende Stadtteilidentität, vernachlässigte öffentliche Räume oder auch der Klimawandel nennen. Vor dem Hintergrund der gesamtstädtischen Bedeutung der Zentren gilt es, diesen Herausforderungen umfassend zu begegnen.
Bei der Weiterentwicklung von Zentren kommt dem Engagement der lokalen Akteur*innen eine besondere Bedeutung zu. Diese umfasst nicht ausschließlich die Teilnahme an formellen Planungsprozessen, sondern z.B. auch die Mitwirkung an Leitbildprozessen, Gestaltungsvorhaben und die Umsetzung eigener Projekte. Ein Mehrwert wird dabei nicht allein durch übereinstimmende Entscheidungen der verschiedenen Akteur*innen erzielt, viel wichtiger ist es, dass die Menschen miteinander ins Gespräch kommen.
Im Rahmen der Städtebauförderung werden u.a. Finanzhilfen für Kommunen bereitgestellt, um baulichen, funktionalen sowie sozialen Missständen in den Zentren zu begegnen. Die Wichtigkeit des privaten Engagements in der Städtebauförderung wurde bereits erkannt, dies spiegelt sich z.B. in bestehenden Beteiligungsmöglichkeiten sowie den Instrumenten der Städtebauförderung (integriertes städtebauliches Entwicklungskonzept, Quartier- bzw. Zentrenmanagement und Verfügungsfonds) wider. Dennoch konnte im Rahmen der Städtebauförderung in der Vergangenheit oftmals nicht im gewünschten Umfang Engagement aktiviert werden. Insbesondere in schrumpfenden Kommunen häufen sich oftmals Engagement hemmende Faktoren.
Daher wird in der folgenden Arbeit untersucht, wie lokales Engagement in schrumpfenden Mittelstädten im Rahmen der Städtebauförderung weiter gestärkt bzw. eingefordert werden kann. Im Fokus liegen schrumpfende Mittelstädte in NRW, deren Zentren im Rahmen der Städtebauförderung weiterentwickelt wurden bzw. sich aktuell noch in der Förderung befinden.
Die These dieser Arbeit ist, dass die Herausforderungen in Stadtzentren schrumpfender Mittelstädte in NRW nur gelöst werden können, wenn dies gemeinsam mit den Menschen vor Ort geschieht und deren Engagement im Rahmen der Städtebauförderung weiter gestärkt und gefordert wird.
Stress- und Sicherheitsempfinden – Chancen und Potenziale zur Förderung der Radverkehrssicherheit
(2023)
Radfahren trägt zu einer Verbesserung der Lärm- und Luftqualität bei, wenn stattdessen weniger motorisierte Fahrzeuge genutzt werden. Für viele Interessierte ist es jedoch wichtige Voraussetzung, dass Radverkehrsanlagen stressfrei und sicher befahren werden können. Während sich die objektive Sicherheit im Unfallgeschehen widerspiegelt, existiert zur subjektiven Sicherheitswahrnehmung von Radfahrenden jedoch nur wenig gesichertes Wissen.
Aus diesem Grund wurden mehrere Befragungen zur Erfassung des subjektiven Sicherheits- und Stressempfindens durchgeführt. Die Befragungsergebnisse zeigen, dass diese beiden Empfindungen in engem Zusammenhang stehen. Das Stressempfinden wurde zusätzlich in einer Feldstudie gemessen. Durch die Befragungen und die Feldstudie konnten subjektiv empfundene Sicherheitsdefizite in innerstädtischen Radverkehrsnetzen identifiziert werden. Dabei zeigen die Auswertungen, dass hauptsächlich geringe Abstände zu fahrenden und parkenden Kfz sowie das besondere Dooring-Risiko bei seitlich parkenden Kfz einen hohen Einfluss auf das Stressempfinden von Fahrradfahrenden haben. Die Ergebnisse decken sich mit allgemein bekannten Unfallstellen und -ursachen im Radverkehr und den Befunden anderer Studien. Weiterhin konnten auch bisher nicht bekannte Stresspunkte und -auslöser identifiziert werden, wie signalisierte Knotenpunkte, Bordsteinkanten an Querungsstellen und dunkle Unterführungen. Das Fahren auf geschützten Radfahrstreifen sowie Radwegen, Wald- und Wirtschaftswegen, Fahrradstraßen und verkehrsberuhigten Bereichen hingegen wird als stressarm bewertet. Neben den Ursachen von subjektivem Stress im Radverkehr wurden ebenso Licht- und Assistenzsysteme hinsichtlich ihrer Wirkung auf das Stressempfinden untersucht. Dabei zeichnet sich einerseits ein noch bestehender Forschungs- und Entwicklungsbedarf hinsichtlich Helligkeit und Verbreitung, andererseits auch eine sehr hohe Nutzungsbereitschaft ab. Durch die Nutzung der Systeme wird ein großer Sicherheitsgewinn erwartet, da sie Sichtverdeckungen (z. B. in Kreuzungsbereichen, an Grundstücksein- und -ausfahrten) ausgleichen und der Witterung und schlechten Lichtverhältnissen gegenüber unempfindlich sind.
Aus den ermittelten Stresswerten der Befragungen und der Feldstudie wurde ein Bewertungsverfahren für Radverkehrsanlagen entwickelt, das eine Ergänzung der etablierten Verfahren darstellt. Die Bewertung erfolgt durch die Berechnung von Potenzialen zur Stressreduktion anhand eines Formblatts. Aus den Bewertungen lassen sich folgende Handlungsempfehlung zur Stressreduktion für Radfahrende ableiten: In Wohnquartieren empfiehlt sich die Führung über verkehrsberuhigte Bereiche oder Fahrradstraßen. An Hauptstraßen eröffnet eine Reduzierung der zulässigen Geschwindigkeit auf 30 km/h sowie die Führung über geschützte Radfahrstreifen und Radwege die größten Potenziale. Bei der Gestaltung von Knotenpunkten werden Einmündungen und geschützte Kreuzungen angeraten. Weitere Stressreduktionen sind durch die Nutzung von Licht- und Assistenzsystemen zu erwarten. Die Potenziale der Stressreduktion können jedoch nur ausgeschöpft werden, wenn die Streckenabschnitte Teil eines durchgängigen Radverkehrsnetzes sind. Der Fokus von Maßnahmen für den Radverkehr sollte daher auf der Einrichtung bzw. Vervollständigung eines Radverkehrsnetzes über stressarme Routen liegen, um den Radverkehr weiter zu fördern.
In recent years, deep learning has made substantial improvements in various fields like image understanding, Natural Language Processing (NLP), etc. These huge advancements have led to the release of many commercial applications which aim to help users carry out their daily tasks. Personal digital assistants are one such successful application of NLP, having a diverse userbase from all age groups. NLP tasks like Natural Language Understanding (NLU) and Natural Language Generation (NLG) are core components for building these assistants. However, like any other deep learning model, the growth of NLU & NLG models is directly coupled with tremendous amounts of training examples, which are expensive to collect due to annotator costs. Therefore, this work investigates the methodologies to build NLU and NLG systems in a data-constrained setting.
We evaluate the problem of limited training data in multiple scenarios like limited or no data available when building a new system, availability of a few labeled examples when adding a new feature to an existing system, and changes in the distribution of test data during the lifetime of a deployed system.
Motivated by the standard methods to handle data-constrained settings, we propose novel approaches to generate data and exploit latent representations to overcome performance drops emerging from limited training data.We propose a framework to generate high-quality synthetic data when few training examples are available for a newly added feature for dialogue agents. Our interpretation-to-text model uses existing training data for bootstrapping new features and improves the accuracy of downstream tasks of intent classification and slot labeling. Following, we study a few-shot setting and observe that generation systems face a low semantic coverage problem. Hence, we present an unsupervised NLG algorithm that ensures that all relevant semantic information is present in the generated text.
We also study to see if we really need all training examples for learning a generalized model. We propose a data selection method that selects the most informative training examples to train Visual Question Answering (VQA) models without erosion of accuracy. We leverage the already available inter-annotator agreement and design a diagnostic tool, called (EaSe), that leverages the entropy and semantic similarity of answer patterns.
Finally, we discuss two empirical studies to understand the feature space of VQA models and show how language model pre-training and exploiting multimodal embedding space allows for building data constrained models ensuring minimal or no accuracy losses.
This thesis concerns itself with the long-term behavior of generalized Langevin dynamics with multiplicative noise,
i.e. the solutions to a class of two-component stochastic differential equations in \( \mathbb{R}^{d_1}\times\mathbb{R}^{d_2} \)
subject to outer influence induced by potentials \( \Phi \) and \( \Psi \),
where the stochastic term is only present in the second component, on which it is dependent.
In particular, convergence to an equilibrium defined by an invariant initial distribution \( \mu \) is shown
for weak solutions to the generalized Langevin equation obtained via generalized Dirichlet forms,
and the convergence rate is estimated by applying hypocoercivity methods relying on weak or classical Poincaré inequalities.
As a prerequisite, the space of compactly supported smooth functions is proven to be a domain of essential m-dissipativity
for the associated Kolmogorov backward operator on \(L^2(\mu)\).
In the second part of the thesis, similar Langevin dynamics are considered, however defined on a product of infinite-dimensional separable Hilbert spaces.
The set of finitely based smooth bounded functions is shown to be a domain of essential m-dissipativity for the corresponding Kolmogorov operator \( L \) on \( L^2(\mu) \)
for a Gaussian measure \( \mu \), by applying the previous finite-dimensional result to appropriate restrictions of \( L \).
Under further bounding conditions on the diffusion coefficient relative to the covariance operators of \( \mu \),
hypocoercivity of the generated semigroup is proved, as well as the existence of an associated weakly continuous Markov process
which analytically weakly provides a weak solution to the considered Langevin equation.
The generally unsupervised nature of autoencoder models implies that the main training metric is formulated as the error between input images and their corresponding reconstructions. Different reconstruction loss variations and latent space regularization have been shown to improve model performances depending on the tasks to solve and to induce new desirable properties like disentanglement. Nevertheless, measuring the success in, or enforcing properties by, the input pixel space is a challenging endeavor. In this work, we want to make more efficient use of the available data and provide design choices to be considered in the recording or generation of future datasets to implicitly induce desirable properties during training. To this end, we propose a new sampling technique which matches semantically important parts of the image while randomizing the other parts, leading to salient feature extraction and a neglection of unimportant details. Further, we propose to recursively apply a previously trained autoencoder model, which can then be interpreted as a dynamical system with desirable properties for generalization and uncertainty estimation.
The proposed methods can be combined with any existing reconstruction loss. We give a detailed analysis of the resulting properties on various datasets and show improvements on several computer vision tasks: image and illumination normalization, invariances, synthetic to real generalization, uncertainty estimation and improved classification accuracy by means of simple classifiers in the latent space.
These investigations are adopted in the automotive application of vehicle interior rear seat occupant classification. For the latter, we release a synthetic dataset with several fine-grained extensions such that all the aforementioned topics can be investigated in isolation, or together, in a single application environment. We provide quantitative evidence that machine learning, and in particular deep learning methods cannot readily be used in industrial applications when only a limited amount of variation is available for training. The latter can, however, often be the case because of constraints enforced by the application to be considered and financial limitations.
Automatisierte und individualisierte Mobilitätsdienstleistungen - Anforderungen und Umweltwirkungen
(2023)
Durch die Digitalisierung und Prozessautomatisierung sowie die Sharing Economy, positionieren sich zunehmend neue Mobilitätsdienstleistungen im Verkehrssektor. Mit der zusätzlichen Automatisierung der Fahrzeuge, werden sich diese Dienstleistungen zu Robotaxen und Roboshuttles weiterentwickeln. Die Angebote ordnen sich zwischen dem heutigen öffentlichen Verkehr und dem Individualverkehr ein und nutzen die technischen Möglichkeiten, um ein auf die Bedürfnisse der Fahrgäste zugeschnittenes, flexibel nutzbares Angebot zu erstellen. Welche verkehrlichen und ökologischen Auswirkungen eine Einführung solcher Angebote hat, ist bis dato noch nicht bekannt oder kann allenfalls auf Grundlage von bestehenden Simulationsstudien abgeleitet werden. Das Ziel der Dissertation ist es, die Nutzungsintention und die Anforderungen an die Angebotsparameter in der Bevölkerung zu erheben und die potenzielle Nutzung sowie deren Wirkungen auf das Verkehrssystem und die Umwelt abzuschätzen.
In einem ersten Arbeitsschritt wurde zunächst der Entwicklungsrahmen der Fahrzeugautomatisierung und der Mobilitätsangebote definiert. Eine wichtige Grundlage sind dafür die Systemgrenzen für den heutigen und künftigen Einsatz automatisierter Fahrzeuge. Diese wurden durch eine Analyse der auf dem Markt verfügbaren Fahrzeuge und mit Hilfe gemachter Erfahrungen aus dem Testbetrieb ermittelt. Eine Marktstudie und eine Leitbildanalyse dienten zudem zur Definition möglicher Pfade und Szenarien zur Weiterentwicklung des automatisierten Fahrens und der Mobilitätsangebote.
Um die Akzeptanz des automatisierten Fahrens erheben zu können, wurde eine Faktorenanalyse mit einer nachgelagerten Clusteranalyse auf Grundlage quantitativer, empirischer Daten durchgeführt. Es wurden die beiden psychologischen Konstrukte der Befürchtungen und wahrgenommenen Wirkungen identifiziert, welche die Nutzungsintention direkt beeinflussen. Auf Grundlage dieser latenten Variablen wurden die befragten Personen in fünf Personengruppen eingeteilt. Diese sind besorgte Pessimisten, unbesorgte Pessimisten, Unentschlossene, besorgte Optimisten und unbesorgte Optimisten. Eine Analyse zeigt, dass die Nutzungsintention selbstfahrender Elektroshuttles in verschiedenen Szenarien von der Gruppe der besorgten Pessimisten bis zur Gruppe der unbesorgten Optimisten ansteigt.
Da die Mobilitätsangebote per Definition auf die Bedürfnisse der Nutzer und Nutzerinnen zugeschnitten sind, wurden zusätzlich die Anforderungen an die Angebotsparameter erhoben. Grundlegend waren neben der quantitativen Empirie auch qualitative Daten zu möglichen Angebotskonzepten, welche von Teilnehmenden in gruppenspezifischen Workshops definiert wurden.
Die Ergebnisse einer abschließend durchgeführten Beispieluntersuchung verdeutlichen, dass positive, ökologische Wirkungen durch die Angebote erzielt werden können. Voraussetzung dafür ist jedoch, dass die Angebote mehrere Fahrtenwünsche bündeln und gezielt in den Erschließungslücken des öffentlichen Verkehrs eingesetzt werden.
The rising demand for machine learning (ML) models has become a growing concern for stakeholders who depend on automatic decisions. In today's world, black-box solutions (in particular deep neural networks) are being continuously implemented for more and more high-stake scenarios like medical diagnosis or autonomous vehicles. Unfortunately, when these opaque models make predictions that do not align with our expectations, finding a valid justification is simply not possible.
Explainable Artificial Intelligence (XAI) has emerged in response to our need for finding reasons that justify what a machine sees, but we don't. However, contributions in this field are mostly centered around local structures such as individual neurons or single input samples. Global characteristics that govern the behavior of a model are still poorly understood or have not been explored yet. An aggravating factor is the lack of a standard terminology to contextualize and compare contributions in this field. Such lack of consensus is depriving the ML community from ultimately moving away from black-boxes, and start creating systematic methods to design models that are interpretable by design.
So, what are the global patterns that govern the behavior of modern neural networks, and what can we do to make these models more interpretable from the start?
This thesis delves into both issues, unveiling patterns about existing models, and establishing strategies that lead to more interpretable architectures. These include biases coming from imbalanced datasets, quantification of model capacity, and robustness against adversarial attacks. When looking for new models that are interpretable by design, this work proposes a strategy to add more structure to neural networks, based on auxiliary tasks that are semantically related to the main objective. This strategy is the result of applying a novel theoretical framework proposed as part of this work. The XAI framework is meant to contextualize and compare contributions in XAI by providing actionable definitions for terms like "explanation" and "interpretation."
Altogether, these contributions address dire demands for understanding more about the global behavior of modern deep neural networks. More importantly, they can be used as a blueprint for designing novel, and more interpretable architectures. By tackling issues from the present and the future of XAI, results from this work are a firm step towards more interpretable models for computer vision.
KTL-beschichtete verzinkte Stahlbleche sind weitverbreitete Teile in der Automobilindustrie. Bei Defekten im Lack ist eine Unterwanderung der organischen Beschichtung durch Korrosion möglich. Diese Arbeit präsentiert ein effektives Finite-Elemente-Modell zur Simulation der anodischen Lackunterwanderung an standardisierten Schäden unter verschiedenen Klimaten und räumlichen Orientierungen des Bleches. Das semi-empirische Simulationsmodell beruht auf der Mischpotential-Theorie und berücksichtigt das Ausfallen von Korrosionsprodukten, die Zeit der Elektrolytbedeckung, die Temperatur, die Solekonzentration, die Sauerstoffkonzentration und den pH-Wert des Elektrolyten. Es werden elektrochemische Polarisationsdaten und Time-of-Wetness-Daten experimentell ermittelt, welche als Eingangswerte für das Simulationsmodell dienen. Zur Modellierung der Korrosionsprodukte wird ein impliziter Ansatz verfolgt, wobei der Kathodenstrom in Abhängigkeit der Delaminationsweite reduziert wird. Die Validierung der Simulationsergebnisse erfolgt anhand von Korrosionstests. Die Übereinstimmung der Simulations- und Korrosionstestergebnisse zeigt, dass mit dem entwickelten Simulationsmodell der Korrosionsfortschritt über die untersuchte Testdauer von 8 Wochen mit mehreren Millimetern Unterwanderung präzise simuliert werden kann. Des Weiteren bleibt die Rechenzeit bei der Ausführung des Simulationsmodells praktikabel für eine industrielle Modellanwendung.
Ziel der vorliegenden Studie ist es, Evidenzen zur PPIK-Theorie und zum selbstregulierten Lernen aufzuzeigen. Mit diesen Theorien kann sich zu den folgenden zwei Fragen
geäußert werden: Mit welchen lernpsychologischen Kontextfaktoren kann das Lesen und
Interpretieren von Technischen Zeichnungen nach DIN EN ISO im Erwachsenenalter
erklärt werden? Wie lassen sich das Lesen und Interpretieren von Technischen Zeichnungen nach DIN EN ISO angemessen fördern? Dazu werden in einem experimentellen
Feldstudiendesign mit einer Stichprobe von (n=381) Studierenden der Fachschule Technik (Maschinenbau) fünf Analysen zu zwei Messzeitpunkten durchgeführt. In diesen fünf
Analysen werden via Strukturgleichungsmodellierung mit Mplus7 die zuvor theoretisch
operationalisierten Konstrukte evaluiert. In Analyse 1 manifestieren sich sowohl das deklarative Sachwissen als auch die analytische Problemlösekompetenz der berufsfachlichen
Kompetenz als mehrdimensionale Konstrukte. Mit Analyse 2 lässt sich für Quer- und
Längsschnitt eine Invarianz zum einen für den Treatment-Gruppenvergleich und zum anderen für den Zusammenschluss von Prä- und Posttest verzeichnen. In Analyse 3 wird
eine bedeutende Lernprogression infolge der vier Lernarrangements attestiert. Auf dieser
Grundlage werden in der Studie gelingende Lernprozesse basierend auf dem pädagogischen Konzept des selbstregulierten Lernens initiiert. Mithilfe von Analyse 4 kann darüber hinaus eine Quasi-Circumplexstruktur der beruflichen Interessen nach Holland aufgezeichnet werden. In der abschließenden Analyse fünf werden u. a. empirische Evidenzen zum belastbaren Einfluss von intelligence-as-knowledge auf die verschiedenen Dimensionen analytischer Problemlösekompetenz herausgearbeitet, die eine große Rolle in der integrativen und intellektuellen Kompetenzentwicklung der PPIK-Theorie spielt. Diese
neuen Erkenntnisse aus der Studie stehen demgemäß künftig Lernbegleitern zur Verfügung, die sie zur Förderung des Lesens und Interpretierens Technischer Zeichnungen
angemessen in ihre theoretisch begründeten Lernarrangements integrieren können.
Zeitaufgelöste FTIR- und Lumineszenzspektroskopie an Organometallkomplexen und deren Reaktionen
(2023)
In dieser Arbeit wurden mittels Lumineszenzspektroskopie und Step-scan-FTIR-Spektroskopie die Leuchteigenschaften sowie die elektronisch angeregten Zustände von Organometallkomplexen im Temperaturbereich von 5 - 290 K untersucht, welche für die Eignung als organische Leuchtdioden (OLEDs) und Photokatalysatoren bzw. -sensibilisatoren relevant sind. Für ein besseres Verständnis der Reaktivität verschiedener Organometallkomplexe wurden die Reaktionen mittels zeitaufgelöster FTIR-Spektroskopie verfolgt. Der Vergleich mit quantenchemischen Rechnungen unterstützt die Charakterisierung der elektronisch angeregten Zustände, Reaktionsprodukte oder Intermediate. Die untersuchten Komplexe erreichen die gewünschten Eigenschaften ohne Seltenerdmetalle und enthalten stattdessen häufiger vorkommende Metalle wie Kupfer. Daher wurde der Einfluss von Metall-, Halogenid- und Ligandvariationen auf die Leuchteigenschaften und die dafür verantwortlichen elektronisch angeregten Zustände zweikerniger und vierkerniger Kupfer- und Silberkomplexe, die sich potentiell für die Anwendung als OLEDs eignen, untersucht. Auch der elektronisch angeregte Zustand eines weiteren Kupferkomplexes mit interessanten Lumineszenzeigenschaften wurde charakterisiert. Ebenfalls wurden die photophysikalischen Eigenschaften eines Kupfer-Photosensibilisators sowie seine Fähigkeit zum Energieübertrag untersucht. Im Bereich der Reaktivitäten wurden die photochemische Reaktion und ihre ungewöhnliche, dunkle Rückreaktion von Carbonyl-haltigen Chrom-, Molybdän- und Wolframkomplexen verfolgt und der Reaktionsmechanismus aufgeklärt. Auch die thermische Reaktion eines Kupferkomplexes, die sich je nach Lösungsmittel unterscheidet wurde untersucht und mögliche Produkte identifiziert. Die erlangten Erkenntnisse über den Einfluss verschiedener Ligandmodifikationen, Halogenid- oder Metallzentren auf die gewünschten Eigenschaften der Organometallkomplexe und das Verständnis für die Reaktivität tragen zu der Entwicklung verbesserter Systeme bei, welche ohne Seltenerdelemente gute Eigenschaften für die Verwendung als Leuchtdioden, Katalysatoren oder Photosensibilisatoren aufweisen.
In recent years, the formal methods community has made significant progress towards the development of industrial-strength static analysis tools that can check properties of real-world production code. Such tools can help developers detect potential bugs and security vulnerabilities in critical software before deployment. While the potential benefits of static analysis tools are clear, their usability and effectiveness in mainstream software development workflows often comes into question and can prevent software developers from using these tools to their full potential. In this dissertation, we focus on two major challenges that can limit their ability to be incorporated into software development workflows.
The first challenge is unintentional unsoundness. Static program analyzers are complicated tools, implementing sophisticated algorithms and performance heuristics. This makes them highly susceptible to undetected unintentional soundness issues. These issues in program analyzers can cause false negatives and have disastrous consequences e.g., when analyzing safety critical software. In this dissertation, we present novel techniques to detect unintentional unsoundness bugs in two foundational program analysis tools namely SMT solvers and Datalog engines. These tools are used extensively by the formal methods community, for instance, in software verification, systematic testing, and program synthesis. We implemented these techniques as easy-to-use open source tools that are publicly available on Github. With the proposed techniques, we were able to detect more than 55 unique and confirmed critical soundness bugs in popular and widely used SMT solvers and Datalog engines in only a few months of testing.
The second challenge is finding the right balance between soundness, precision, and perfor- mance. In an ideal world, a static analyzer should be as precise as possible while maintaining soundness and being sufficiently fast. However, to overcome undecidability issues, these tools have to employ a variety of techniques to be practical for example, compromising on the sound- ness of the analysis or approximating code behavior. Static analyzers therefore are not trivial to integrate into any usage scenario with different program sizes, resource constraints and SLAs. Most of the times, these tools also don’t scale to large industrial code bases containing millions of lines of code. This makes it extremely challenging to get the most out of these analyzers and integrate them into everyday development activities, especially for average software develop- ment teams with little to no knowledge or understanding of advanced static analysis techniques. In this dissertation we present an approach to automatically tailor an abstract interpreter to the code under analysis and any given resource constraints. We implemented our technique as an open source framework, which is publicly available on Github. The second contribution of this dissertation in this challenge area is a technique to horizontally scale analysis tools in cloud-based static analysis platforms by splitting the input to the analyzer into partitions and analyzing the partitions independently. The technique was developed in collaboration with Amazon Web Services and is now being used in production in their CodeGuru service.
Trotz überlegenen gewichtsspezifischen mechanischen Eigenschaften von klassi-schen, endlosfaserverstärkten Faser-Kunststoff-Verbunden (FKV), sind oftmals das spröde Versagensverhalten unter Zug- und Biegebeanspruchungen sowie die daraus resultierende geringe Schadenstoleranz und Strukturintegrität ein Ausschlusskriterium für diese Werkstoffe. Weitere anwendungsbezogene Ausschlusskriterien folgen aus der, verglichen mit metallischen Leichtbauwerkstoffen, eher als gering einzustufenden elektrischen Leitfähigkeit. Eine vielversprechende Möglichkeit, um diesen Nachteilen entgegen zu wirken besteht in der Hybridisierung von duktilen metallischen Verstär-kungsfasern und klassischen Verstärkungsfasern. Damit können elektrische und ther-misch leitfähige Hybridwerkstoffe erzeugt werden, die neben sehr guten gewichtsspe-zifischen mechanischen Eigenschaften eine signifikante Verbesserung der Scha-denstoleranz und der Crashperformance ermöglichen. In Abhängigkeit der Werkstoff-zusammensetzung, der Laminatarchitektur und der angewandten Hybridisierungsstra-tegie, bieten die eingebetteten Metallfasern aufgrund ihrer hohen Bruchdehnung alter-native Lastpfade und ermöglichen so die Lastaufnahme auch nach dem Versagen der klassischen Verstärkungsfasern. Während das Potenzial dieser Hybridwerkstoffe be-reits für verschiedenste Werkstoffkombinationen bewiesen wurde, konzentriert sich die vorliegende Arbeit darauf, die verschiedenen Wirkmechanismen des Materialverhal-tens von metallisch hybridisierten FKV vor, nach und während des Versagens zu ver-stehen und verschiedene Beschreibungsansätze und -modelle dafür zu entwickeln. Am Beispiel von stahl- und kohlenstofffaserverstärktem Epoxidharz (SCFK) wird hierzu eine umfangreiche experimentelle Untersuchung vorgestellt. Dabei wird gezeigt, dass das Versagen der Kohlenstofffasern einen komplexen Lastumlagerungsprozess aus-löst und dass das Materialverhalten nach dem Versagen der Kohlenstoffasern im We-sentlichen von den dabei entstehenden lokalen Schädigungen und Beanspruchungen abhängt. Ferner kann gezeigt werden, wie diese Schädigungen und Beanspruchungen durch die Zusammensetzung des Werkstoffes, die Laminatarchitektur oder die Prüf-körpergeometrie beeinflusst werden können. Darauf aufbauend wird ein neuartiges Werkstoffmodell vorgestellt, mit dem der komplexe Lastumlagerungsprozess nach dem Versagen der Kohlenstoffasern abgebildet werden kann und mit dem eine schnelle Abschätzung der Materialeigenschaften möglich ist. Darüber hinaus wird ein Materialmodell zur Abbildung des Materialverhaltens von stahlfaserverstärkten Kunst-stoffen (SFK) für den Solver LSDyna implementiert und in Kombination mit einem Ma-terialmodell für kohlenstofffaserverstärkte Kunststoffe (CFK) für die Beschreibung von auf Laminatebene hybridisiertem SCFK mit der FEM verwendet. Abschließend wird sowohl für das Modell des Lastumlagerungsprozesses als auch für die Beschreibung von SCFK mit der FEM eine detaillierte Analyse der Vorhersageeignung vorgestellt.
Wissenschaftliche Evidenz zum Thema "(Un-)Wirksamkeit von Strafe" wird in der Öffentlichkeit kontrovers diskutiert. In der vorliegenden Arbeit wird vermutet, dass es bei der Rezeption zu motivierten Verzerrungen, genauer gesagt, zu einer Bedrohung der moralischen Wertvorstellungen kommt, infolgedessen wissenschaftliche Erkenntnisse diskreditiert und abgelehnt werden. Hierfür wurde zunächst die moralische Begründung von persönlichen Strafeinstellungen systematisch untersucht. Dabei zeigte sich, dass eine deliktspezifische (nach Kriminalitätsbereichen aufgeteilte) Betrachtung erforderlich ist. Regressionsanalysen konnten die qualitativen Unterschiede hinsichtlich der zugrundeliegenden Wertvorstellungen belegen. Die Art und Weise der Operationalisierung erwies sich hierbei als entscheidend für den "moralischen Gehalt" der individuellen Strafeinstellung.
Eine Bedrohung moralischer Wertvorstellungen durch einen wissenschaftlichen Artikel, der sich gegen die Wirksamkeit von harten Strafen (deliktspezifisch) ausspricht, konnte nicht nachgewiesen werden. Weitere Moderationsanalysen offenbarten jedoch unabhängig von den persönlichen Wertvorstellungen eine motivierte Verzerrung bei der Rezeption des Artikels: TeilnehmerInnen, die an die Wirksamkeit von Strafe glaubten, bewerteten einen Artikel, der dies widerlegte, schlechter als diejenigen, die einen Artikel lasen, der dies bestätigte. Diese Verzerrungen liegen jedoch nicht in einer moralischen Bedrohung begründet, sondern lassen sich vielmehr als Strategie zur Auflösung von Dissonanz bei Konfrontation mit einstellungsinkonsistenten Inhalten verstehen. Kern des Problems sind offenbar nicht die untersuchten persönlichen Wertvorstellungen und deren Bedrohung, sondern das hohe Ausmaß der Diskrepanz zwischen öffentlicher und wissenschaftlicher Meinung. Diese Erkenntnis ist insofern von Bedeutung, als dass sie ein Bewusstsein für die Gefahren (z.B. eines Bumerang-Effekts) bei der Kommunikation der Inhalte schafft.
Insgesamt betrachtet tragen die Ergebnisse zu einem tieferen Verständnis persönlicher Strafeinstellungen bei und liefern Ansatzpunkte für die Entwicklung von Strategien zur überzeugenden Kommunikation kriminologischer Erkenntnisse bezüglich der Sinnhaftigkeit von Strafe.
Formaldehyde is an important intermediate in the chemical industry. In technical processes, formaldehyde is used in aqueous or methanolic solutions. In these, it is bound in oligomers that are formed in reversible reactions. These reactions and also the vapor-liquid equilibria of mixtures containing formaldehyde, water, and methanol have been thoroughly studied in the literature. This is, however, not the case for solid-liquid equilibria of these mixtures, even though the precipitation of solids poses important problems in many technical processes. Therefore, in the present thesis, a fundamental study on the formation of solid phases in the system (formaldehyde + water + methanol) was carried out. Based on the experiments, a physico-chemical model of the solid-liquid equilibrium was developed. Furthermore, also kinetic effects, which are important in practice, were described. The results enable, for the first time, to understand the solid formation in these mixtures, which previously was considered to be hard to predict.
The studies on the solid formation in formaldehyde-containing systems were carried out as a part of a project dealing with the production of poly(oxymethylene) dimethyl ethers (OME). OME are formaldehyde-based synthetic fuels that show cleaner combustion than fossil diesel. Different aspects of the OME production were studied. First, a conceptual design for a OME production process based on dimethyl ether (DME) was carried out based on process simulation. This study revealed that the DME route is principally attractive. However, basic data on the formation of OME from DME were missing, and had to be estimated for the conceptual design study. Therefore, in a second step an experimental study on the formation of OME from DME was carried out. In this reaction, trioxane, a cyclic trimer of formaldehyde is used as a water-free formaldehyde source. Trioxane is currently produced from aqueous formaldehyde solution in energy-intensive processes. Therefore, a new trioxane production process was developed in which trioxane is obtained from a crystallization step. In process simulations, the new process was compared to the best previously available process and was found to be promising.
While OME are excellent synthetic fuels, it is also attractive to use them in blends with hydrogenated vegetable oil (HVO), which is available on a large scale. However, blends of OME and HVO that are initially homogenous tend to demix after a while in technical applications. This phenomenon was poorly understood previously. Therefore, in this work, liquid-liquid equilibria in mixtures of individual components of the two fuels in combination with water were systematically studied and a corresponding model was developed.
Due to its performance, the field of deep learning has gained a lot of attention, with neural networks succeeding in areas like \( \textit{Computer Vision} \) (CV), \( \textit{Neural Language Processing} \) (NLP), and \( \textit{Reinforcement Learning} \) (RL). However, high accuracy comes at a computational cost as larger networks require longer training time and no longer fit onto a single GPU. To reduce training costs, researchers are looking into the dynamics of different optimizers, in order to find ways to make training more efficient. Resource requirements can be limited by reducing model size during training or designing more efficient models that improve accuracy without increasing network size.
This thesis combines eigenvalue computation and high-dimensional loss surface visualization to study different optimizers and deep neural network models. Eigenvectors of different eigenvalues are computed, and the loss landscape and optimizer trajectory are projected onto the plane spanned by those eigenvectors. A new parallelization method for the stochastic Lanczos method is introduced, resulting in faster computation and thus enabling high-resolution videos of the trajectory and second-order information during neural network training. Additionally, the thesis presents the loss landscape between two minima along with the eigenvalue density spectrum at intermediate points for the first time.
Secondly, this thesis presents a regularization method for \( \textit{Generative Adversarial Networks} \) (GANs) that uses second-order information. The gradient during training is modified by subtracting the eigenvector direction of the biggest eigenvalue, preventing the network from falling into the steepest minima and avoiding mode collapse. The thesis also shows the full eigenvalue density spectra of GANs during training.
Thirdly, this thesis introduces ProxSGD, a proximal algorithm for neural network training that guarantees convergence to a stationary point and unifies multiple popular optimizers. Proximal gradients are used to find a closed-form solution to the problem of training neural networks with smooth and non-smooth regularizations, resulting in better sparsity and more efficient optimization. Experiments show that ProxSGD can find sparser networks while reaching the same accuracy as popular optimizers.
Lastly, this thesis unifies sparsity and \( \textit{neural architecture search} \) (NAS) through the framework of group sparsity. Group sparsity is achieved through \( \ell_{2,1} \)-regularization during training, allowing for filter and operation pruning to reduce model size with minimal sacrifice in accuracy. By grouping multiple operations together, group sparsity can be used for NAS as well. This approach is shown to be more robust while still achieving competitive accuracies compared to state-of-the-art methods.
The present thesis describes the experimental performance determination and numerical
modeling of an aerostatic porous bearing made of an orthotropically layered ceramic
composite material (CMC). The high temperature resistance, low thermal expansion and
high reusability of this material makes it eminently suitable for use in highly stressed
fluid-film bearing applications.
The work involves the development of an aerostatic journal bearing made of porous,
orthotropically layered carbon fiber-reinforced carbon composite (C/C) and the design
of a journal bearing test rig, which contained additional aerostatic support bearings and
six optical laser triangulation sensors. The sensor system enabled the measurement of
lubricant film thickness and shaft misalignment. As a result of the slight air lubrication
clearance of 30 μm, the focus was on low concentricity and the determination of shaft
misalignments.
The preliminary tests included the determination of the permeability of the porous material
and the applicability of Darcy’s law. A scan of the inner surface of the porous bushing
revealed a characteristic grooved structure, which can be attributed to the layered structure
of the material. Bearing tests were conducted up to a rotational speed of 8000 rpm and a
pressure ratio of 5 to 7. No significant effect of rotational speed on load-carrying capacity
and gas consumption was observed in this operating range. The examined operating points
did not indicate any sign of the occurrence of the pneumatic hammer. A temporary load of
below 90N on the bearing and an eccentricity ratio below 0.8 did not cause any significant
wear on the shaft.
Four numerical models, based on Reynolds’ lubricant film equation and Darcy’s law were
developed. The models were gradually extended with consideration of shaft misalignment,
the compressibility of the gas, the geometry of the pressure supply chamber and the
embedding of the groove structure. The models were validated with external publications
and the performed tests.
Numerous studies have investigated aerostatic porous bearings made of sintered metal
and graphite. Current computational approaches to determine a fast preliminary design
reached max. deviations of approximately 20 - 24% compared to experimental tests. One
of the central claims of this research was to extend this area of investigation by porous,
othotropically layered bearings made of C/C. The developed extended Full-Darcy model
achieved a maximum deviation in the load-carrying capacity of 21.6% and in the gas
consumption of 23.5%.
This study demonstrates the applicability of a resistant material from the aerospace field
(reusable thrust chambers made of CMC) for highly stressed and durable fluid-film bearings.
Furthermore, a numerical model for the computation and design of these bearings was
developed and validated.
Die Palladium-Katalyse bietet dem Chemiker eine Vielzahl an Möglichkeiten für etwaige Kupplungs- und Additionsreaktionen. Die Bandbreite an bereits etablierten Methoden zur Anwendung der Palladium-Katalyse im Feld der Decarboxylierungen ermöglicht die Nutzung von ubiquitär vorkommenden Carbonsäuren als Arylquelle für anschließende Additionsreaktionen. Selbst enantioselektive Multikomponentenreaktionen sind bereits publiziert worden. Der erste Teil dieser Arbeit legt den Fokus auf die Etablierung einer Methode zur Synthese von Mandelsäure-Derivaten auf Basis einer Palladium-katalysierten decarboxylierenden Additionsreaktion von Arylcarbonsäuren an Glyoxylsäureester, welche als Bausteine in zahlreichen biologisch aktiven Substanzen enthalten sind. Im zweiten und dritten Teil der Arbeit wurde der Schwerpunkt auf die Entwicklung einer Methode zur enantioselektiven Synthese von α-Arylglycinen gelegt, deren Vorkommen als Strukturmotiv oder direkter Baustein in pharmakologischen Wirkstoffen von großer Bedeutung sind. Dabei wurden für diese Multikomponentenreaktion zunächst die Arylboronsäuren und im Anschluss Aryltrifluoroborate als Arylquellen untersucht.
Neue nachhaltige und dezentrale Energiesysteme können einen großen Beitrag bei der Einsparung von Energie sowie für die Verringerung der CO2-Emissionen des Gebäudesektors leisten. Bei der Entwicklung dieser Systeme ist eine ganzheitliche Betrachtung ihrer wesentlichen Auswirkungen und Einflussfaktoren essenziell. Ziel dieser Arbeit ist es, ein neuartiges, auf Peltier-Elementen basierendes Heiz- und Kühlsystem ganzheitlich zu bewerten. Peltier-Elemente sind kleine thermoelektrische Wandler und sollten, installiert in der Außenwand eines Gebäudes, als dezentrale Wärmepumpen fungieren. Die Bewertung des Gesamtsystems ist durch eine Kombination aus experimentellen Untersuchungen und thermischen Simulationen möglich. Die experimentellen Untersuchungen konzentrierten sich zunächst auf die Leistungsfähigkeit der Peltier-Elemente und wurden später zu Versuchen an einem Prototyp erweitert, der sowohl im Labor als auch im Freilandversuch analysiert wurde. Aufbauend auf den Erkenntnissen dieser Untersuchungen wurden thermische Bauteilsimulationen in TRISCO und VOLTRA sowie thermische Gebäudesimulationen in TRNSYS durchgeführt. Anhand der Freilandversuche und der Gebäudesimulationen konnte das entwickelte thermoelektrische Heiz- und Kühlsystem abschließend energetisch bewertet werden. Mit einem durchschnittlichen jährlichen System-COP von 0,96 bis 1,02 erwies sich das erforschte System als nicht ausreichend effizient. Vor allem im direkten Vergleich mit einem auf einer Wärmepumpe basierenden Referenzsystem zeigte sich, dass das untersuchte Peltier-System beim derzeitigen Stand der Technik keine zukunftsfähige Technologie ist.
Im Rahmen der vorliegenden Forschungsarbeit konnte erfolgreich eine Reihe an radikal- (n = 3) und bptz0-verbrückten (n = 4) homodinuklearen Metallkomplexen (20 Verbindungen) der Form [{M(L-N4R2)}2(bptz)](X)n mit dem verbrückenden redoxaktiven bptz-Liganden (bptz = 3,6-Di(2-pyridyl)-1,2,4,5-tetrazin), dem terminalen L-N4R2-Liganden (L-N4R2 = 2,11-Diaza[3.3](2,6)pyridinophan, R = Me oder tBu), unterschiedlichen Gegenionen (X = PF6-, ClO4-, AsF6-, OTf-) und den 3d-Metallionen Fe2+, Co2+, Co3+, Ni2+, Cu2+ und Zn2+ sowie Ru2+ als einzigem Vertreter der 4d-Metalle realisiert werden. Die generierten Komplexe wurden dabei röntgenkristallographisch, elementaranalytisch, ESI-massenspektrometrisch, elektrochemisch, mit Hilfe eines SQUID-Magnetometers, UV/Vis-, IR-, NMR- und ESR-spektroskopisch charakterisiert. Die Fe-haltigen Spezies wurden zudem mittels der Mößbauer-Spektroskopie untersucht. Im Zuge dieser Analysen konnte der Einfluss des Oxida-tionszustandes des Brückenliganden und der Metallionen auf die Komplexeigenschaften ergründet werden.
Das wichtigste Resultat dieser Dissertation war die Synthese schaltbarer Fe2+-SCO-Verbindungen. Im Zuge der Untersuchung der Reihe an radikalverbrückten homodinuklearen Übergangsmetallkomplexen stellte sich heraus, dass dessen Vertreter mit dem Komplexkation [{Fe(L-N4tBu2)}2(bptz)]3+ und den Gegenionen PF6-, ClO4-, AsF6-, OTf- SCO-Charakteristika aufwiesen. Diese konnten durch die reversible Elektronenaufnahme des Brückenliganden ein- und ausgeschaltet werden. Der jeweils sukzessiv erfolgende, graduelle, zweifache SCO-Prozess konnte erfolgreich mittels röntgenkristallographischer, NMR-, UV/Vis- und Mößbauer-spektroskopischer Analyse sowie durch ein SQUID-Magnetometer verfolgt werden. Dabei wurde eine antiferromagnetische Kopplung zwischen dem HS-Fe2+-Zentrum und dem organischen Radikal detektiert. Die Verwendung verschiedener Gegenionen und Lösungsmittel ermöglichte die Adressierung unterschiedlicher magnetischer Grundzustände und Spinübergangstemperaturen.
Kulturpolitik erlebt einen Aufschwung in Deutschland – steigende Etats, eine zugebilligte Funktion als Allheilmittel eine wachsende Relevanz in der Wissenschaft sowie eine Charakterisierung als wirtschafts- und arbeitsmarktpolitischer Faktor sind Ausdruck einer zunehmenden Bedeutsamkeit.
Gleichzeitig steht die Kulturpolitik vor wachsenden Herausforderungen in der Ausfinanzierung eines Kulturbetriebs, der Bewältigung eines digitalen und demografischen Wandels, einer sich verstetigenden Teilhabe-Ungerechtigkeit sowie einer sich in einem Rechtfertigungskonsens ausdrückenden Legitimationskrise.
Diese Kontroverse begünstigt den Einsatz konzeptbasierter Kulturpolitik als Qualitätsmerkmal der Kulturpolitik zu deren renommiertesten Komponenten ein Kulturentwicklungsplan (KEP) zählt.
Die Messung und Deutung der kommunalen Unterschiede in der Intensität konzeptbasierter Kulturpolitik, die empirische Erforschung der für die Intensitätsunterschiede verantwortlichen Ursachen sowie die Untersuchung der Wirkung konzeptbasierter Kulturpolitik sind Gegenstand der Dissertation.
This thesis focuses on the development and analysis of Stochastic Model Predictive Control (SMPC) strategies for both distributed stochastic systems and centralized stochastic systems with partially known distributional information. The first part deals with the development of distributed SMPC schemes that can be synthesized and operated in a fully distributed manner, establishing rigorous theoretical guarantees such as recursive feasibility, stability and closed-loop chance constraint satisfaction. We study several control problems of practical interest, such as the output-feedback regulation problem or the state-feedback tracking problem under additive stochastic noise, and the regulation problem under multiplicative noise. In the second part of this thesis, a novel research topic known as distributionally robust MPC (DR-MPC) is explored, which enhances the applicability of SMPC to real-world problems. DR-MPC is advantageous as it solely necessitates partial knowledge in the form of samples of the uncertainty, which is usually available in practical scenarios, while SMPC mandates exact knowledge of the (unknown) distributional information. We investigate different so-called ambiguity sets to immunize the DR-MPC optimization problem against sampling inaccuracies, leading to tractable optimization problems with strong theoretical guarantees. Altogether, both parts provide rigorous theoretical guarantees with practical design procedures demonstrated by numerical examples, which are the main contributions of this thesis.
This thesis is primarily motivated by a project with Deutsche Bahn about offer preparation in rail freight transport. At its core, a customer should be offered three train paths to choose from in response to a freight train request. As part of this cooperation with DB Netz AG, we investigated how to compute these train paths efficiently. They should be all "good" but also "as different as possible". We solved this practical problem using combinatorial optimization techniques.
At the beginning of this thesis, we describe the practical aspects of our research collaboration. The more theoretical problems, which we consider afterwards, are divided into two parts.
In Part I, we deal with a dual pair of problems on directed graphs with two designated end-vertices. The Almost Disjoint Paths (ADP) problem asks for a maximum number of paths between the end-vertices any two of which have at most one arc in common. In comparison, for the Separating by Forbidden Pairs (SFP) problem we have to select as few arc pairs as possible such that every path between the end-vertices contains both arcs of a chosen pair. The main results of this more theoretical part are the classifications of ADP as an NP-complete and SFP as a Sigma-2-P-complete problem.
In Part II, we address a simplified version of the practical project: the Fastest Path with Time Profiles and Waiting (FPTPW) problem. In a directed acyclic graph with durations on the arcs and time windows at the vertices, we search for a fastest path from a source to a target vertex. We are only allowed to be at a vertex within its time windows, and we are only allowed to wait at specified vertices. After introducing departure-duration functions we develop solution algorithms based on these. We consider special cases that significantly reduce the complexity or are of practical relevance. Furthermore, we show that already this simplified problem is in general NP-hard and investigate the complexity status more closely.
Processing data streams is a classical and ubiquitous problem.
A query is registered against a potentially endless data stream and continuously delivers results as tuples stream in.
Modern stream processing systems allow users to express queries in different ways.
However, when a query involves joins between multiple input streams, the order of these joins is not transparently optimized.
In this thesis, we explore ways to optimize multi-way theta joins, where the join predicates are not limited to equality and multiple inputs are referenced.
We put forward a novel operator, MultiStream, which joins multiple input streams using iterative probing and bringing minimal materialization effort in.
The order in which tuples are sent inside a MultiStream operator is optimized using a cost-based model.
Further, a query can be answered using an multi-way tree comprising multiple MultiStream operators where each inner operator represents a materialized intermediate result.
We integrate equi-joins in MultiStream to reduce communication, such that mixed queries of theta and equality predicates are supported.
Streaming queries are long-standing and thus multiple queries might be registered at the system at the same time.
Hence, we research joint answering of multiple multi-way join queries and optimize the global ordering using integer linear programming.
All these approaches are implemented in CLASH, a system for generating Apache Storm topologies including runtime components that enables users to pose queries in a declarative way and let the system craft the suitable topology.
Die Regulation des Glucosestoffwechsels und damit einhergehend die Aufrechterhaltung der
Glucosehomöostase sind essenzielle Prozesse des menschlichen Körpers zur
Energiegewinnung. Ein dauerhaft erhöhter Blutglucosespiegel ist pathologisch und gilt als
Symptom der Krankheit Diabetes mellitus. Seine steigende Inzidenz sowie Prävalenz weltweit
[Magliano und Boyko, 2021], zeigen die Notwendigkeit der Suche nach Medikamenten auf,
wobei Pflanzenextrakten eine tragende Rolle zukommen kann [Alam et al., 2022]. Die Nutzung
von Nebenprodukten greift zusätzlich den Nachhaltigkeitsaspekt auf, was Biertreber (BSG) als
Ausgangsmaterial entsprechender Untersuchungen interessant macht. Mit über 39 Millionen
Tonnen weltweit pro Jahr stellt er das Hauptnebenprodukt der Bierindustrie dar und wird
bislang vordergründig als Futtermittel verwendet [Mussatto, 2014]. Aktuelle Studien zeigten
seinen Nutzen zur Erhöhung des Nährwertes von Lebensmitteln auf [Sahin et al., 2021; Pratap
Singh et al., 2020]. Zudem wurden bioaktive Inhaltsstoffe wie Flavonoide oder
Hydroxyzimtsäuren (HCA) aus BSG extrahiert, wobei letztere Bestandteil der Arabinoxylane
sind [Stefanello et al., 2018]. Neben antioxidativen Wirkungen sind HCA als Inhibitoren einiger
Enzyme des Glucosestoffwechsels beschrieben. Ferula- (FA) und Kaffeesäure (CA) erwiesen
sich als potente α-Glucosidase-Inhibitoren in vitro [Adisakwattana et al., 2009], FA zeigte
zudem einen starken Einfluss auf Enzyme des Glykogenstoffwechsels [Narasimhan et al.,
2015a; Narasimhan et al., 2015b]. Mittels verschiedener Methoden wie Fest-Flüssig-
Extraktion (SLE) oder alkalischer Hydrolysen wurden verschiedene Extraktgruppen (HA, HE, A)
aus drei BSG-Chargen (BSG 1–3) hergestellt, charakterisiert und in vitro auf ihren Einfluss
gegenüber α-Glucosidase, α-Amylase, Dipeptidylpeptidase IV und Glykogenphosphorylase α
(GPα) untersucht. Die Extrakte aus alkalischer Hydrolyse (HE) wiesen einen deutlich höheren
Gesamtphenol (TPC)- und Gesamtflavonoidgehalt (TFC) auf als die A- (SLE) und HA-Extrakte
(SLE aus Rückstand der alkalischen Hydrolyse). Potente Inhibition wurde v.a. durch die
A-Extrakte gegenüber α-Glucosidase und GPα beobachtet. Eine Korrelation der Inhibition mit
dem TPC und TFC konnte nicht festgestellt werden. HPLC-ESI-MS/MS- Experimente zeigten
zudem die deutlichen Unterschiede der Extraktgruppen, wobei HCA-Derivate als
Leitsubstanzen der HE- und HA-Extrakte und Hordatine als Hauptkomponenten der A-Extrakte
nachgewiesen wurden. Die Hordatin- wie auch HCA-Gehalte wurden semiquantitativ
bestimmt, wobei letztere signifikant geringer in HA- als HE-Extrakten war. Sowohl die FA-
Dehydrodimere (DiFA) als auch Hordatine waren kommerziell nicht erhältlich, weshalb sie aus
BSG isoliert wurden. In beiden Isolierungen wurden Fraktionen erhalten (37 F-Fraktionen aus
DiFA-Isolierung, zehn H-Fraktionen aus Hordatin-Isolierung), welche charakterisiert und im
α-Glucosidase- und GPα-Inhibitionsassay untersucht wurden. Zwei H-Fraktionen hemmten
α-Glucosidase und deuteten auf Hordatin-Glykoside oder den Präkursor p-Coumaroylagmatin
als möglichen Inhibitor hin. Zahlreiche F-Fraktionen hemmten GPα, wobei trimere
Ferulasäurederivate als Inhibitoren postuliert wurden. Eindeutige Rückschlüsse auf die
inhibierenden Komponenten der Extrakte waren aufgrund der geringen Ausbeuten und damit
kleinen Stichprobenzahl sowie den semiquantitativen Bestimmungen schwierig. Zudem
rückten Oxylipine als Inhaltsstoffe fast aller Extrakte sowie der F-Fraktionen in den Fokus. Ein
GPα- und α-Glucosidase-hemmendes Potential von BSG-Extrakten bzw. isolierter
Phytochemikalien konnte im Rahmen der vorliegenden Arbeit nachgewiesen werden.
Adult emerging aquatic insects can transfer micropollutants, accumulated during their aquatic development, from aquatic to terrestrial ecosystems. This process depends on both contaminant- and organism-specific properties and processes. The transfer of contaminants can result in the dietary exposure of terrestrial insectivores at the aquatic-terrestrial ecosystem boundary. It is, however, unknown whether this route of contaminant transfer is relevant for current-use pesticides, despite their ubiquity in freshwater ecosystems globally. Furthermore, empirical investigation of pesticides in terrestrial insectivores which consume emerging aquatic insects (e.g. riparian spiders) is lacking. In the present work, two laboratory batch-scale studies and a field study were conducted to investigate the transfer of current-use pesticides by emerging aquatic insects and the dietary exposure of riparian spiders preying on emerging insects. In the two laboratory studies, larvae of the model organism, Chironomus riparius, were exposed, either chronically to seven fungicides and two herbicides, or acutely (24-hours) to three individual insecticides during their development. The pesticides were all small organic molecules, selected to cover a low to moderate lipophilicity range (logKow 1.2 – 4.7). Exposure took place at three environmentally relevant concentrations for the fungicides and herbicides (1.2 – 2.5, 17.5 – 35.0 or 50.0 – 100.0 ng/mL) and two for the insecticides (0.1 and either 4 or 16 ng/mL). Eight of the nine fungicides and herbicides, as well as one of the three insecticides were detected in the adult insects after metamorphosis. Concentrations of the pesticides decreased over metamorphosis. However, the transfer of individual pesticides was not well predicted using published models which are based on contaminant lipophilicity andwere developed using other contaminant classes. In the present work, pesticide-specific differences in bioaccumulation by the larvae, retention through metamorphosis and sex-specific bioamplification and elimination over the course of the terrestrial life stage were observed. The neonicotinoid, thiacloprid, was the only insecticide retained by the emerging insects, due to its slow elimination by the larvae. Thiacloprid also decreased insect emergence success. An approximate 30 % higher survival to emergence in the low exposure level (0.1 ng/mL), however, resulted in a relatively higher insecticide flux, from the aquatic to the terrestrial environment compared to the higher exposure (4 ng/mL). For the field study, a method for the analysis of 82 current-use pesticides by high-performance liquid chromatography tandem to triple quadrupole mass spectrometry using small volumes (30 mg) of insect material was validated and applied to samples of emerging insects and Tetragnatha spp. spiders which were collected from stream sites impacted by agricultural activities. Emerging aquatic insects from three orders (Diptera, Ephemeroptera and Trichoptera) contained 27 pesticides whereas 49 pesticides were found in the aquatic environment (water, sediment and aquatic leaf litter). This included mixtures of up to four neonicotinoid insecticides in the insects, with concentrations up to 12300 times greater than were found in the water. Furthermore, the web-building riparian spiders contained 29 pesticides, generally at low concentrations, however concentrations of three neonicotinoids and one herbicide were biomagnified compared to the emerging insects. The three studies included in this thesis thus reveal that the aquatic-terrestrial transfer of current-use pesticides occurs, even at very low environmentally relevant exposure concentrations. Furthermore, new knowledge was generated on the diverse interactions between current-use pesticides and organisms over their entire lifecycles, affecting the propensities for individual pesticides to be transferred via insect emergence. A wide range of pesticides were found to be dietarily bioavailable to riparian spiders, and likely many other riparian insectivores. The neonicotinoid insecticides stood out for their potential to negatively impact adjacent terrestrial food webs through negative impacts on aquatic insect emergence (i.e. biomass flux), while still having a high propensity to be transferred by emerging insects and bioaccumulated in riparian spiders.
Beste mechanische Eigenschaften werden bei Faser-Kunststoff-Verbunden mit Hilfe von Endlosfaserverstärkungen erreicht. Die Fertigung von komplexen Strukturbauteilen mit Endlosfaserverstärkung ist jedoch ein aufwendiger Prozess, welcher zum Teil immer noch händisch erfolgt. In den bekannten automatisierten Prozessen werden die Endlosfasern für komplexe Bauteile häufig nicht optimal entlang der Lastpfade ausgerichtet und somit nicht effizient eingesetzt.
Im Rahmen dieser Arbeit wird ein neuartiges Verfahren vorgestellt, welches unter effizienter Ausnutzung der Endlosfasern eine automatisierte Fertigung von hochbelastbaren Strukturbauteilen ermöglicht. Dafür wird das roboterbasierte 3D-Faserwickeln mit vorimprägniertem, epoxidharzbasiertem und endloskohlenstofffaserverstärktem TowPreg, mit dem thermoplastischen, kurzglasfaserverstärkten Spritzgussverfahren kombiniert. Neben den Eigenschaften des zu bewickelnden Fadenträgers und eines eigens entwickelten Wickelkopfes, wird der Einfluss unterschiedlicher Fadenspannungen im Wickelprozess, mit Hilfe der roboterbasierten Fertigung von Druckprobekörpern in einem neuartigen Werkzeug, auf die mechanischen Eigenschaften untersucht. Dieser Einfluss konnte nicht nachgewiesen werden. Es wird des Weiteren, anhand eines Demonstrators (Brakebooster), die computerbasierte Erzeugung von Wickelmustern, sowie die Berechnung der optimalen Zusammensetzung dieser, für fachwerkartige Strukturen, entwickelt. Die Hybridisierung der duroplastischen (Epoxidharz), endlosfaserverstärkten Struktur mit kurzglasfaserverstärktem, thermoplastischem (Polyamid 6) Material wird über unterschiedliche Vorbehandlungsmethoden der gewickelten Struktur untersucht. Der Fokus wird hier vor allem auf die Behandlung im Niederdruckplasmaverfahren gelegt. Es wird ein Versuch entwickelt, mit dem die gewickelten und hybridisierten Proben im Bereich der Interface-Festigkeit charakterisiert werden können. Bei diesem Versuch konnte eine Interface-Festigkeiten von bis zu 𝜏 = 15,1 ± 1,1 MPa durch eine Vorbehandlung mit 45-minütigem Luftplasma nachgewiesen werden.
Die Ergebnisse werden abschließend an topologieoptimierten Demonstratoren angewendet. Diese werden als Wickelstruktur, in einer plasmabehandelten und nicht-vorbehandelten hybriden Variante und einer spritzgegossenen Variante getestet. Die spezifische Steifigkeit der plasmabehandelten, hybriden Brakebooster lag dabei auf dem Niveau der gewickelten Brakebooster und war mehr als doppelt so hoch, wie bei spritzgegossenen Brakeboostern. Auch konnte eine 23 % höher spezifische Steifigkeit durch die Niederdruckplasmabehandlung erreicht werden, als ohne Vorbehandlung.
From industrial fault detection to medical image analysis or financial fraud prevention: Anomaly detection—the task of identifying data points that show significant deviations from the majority of data—is critical in industrial and technological applications. For efficient and effective anomaly detection, a rich set of semantic features are required to be automatically extracted from the complex data. For example, many recent advances in image anomaly detection are based on self-supervised learning, which learns rich features from a large amount of unlabeled complex image data by exploiting data augmentations. For image data, predefined transformations such as rotations are used to generate varying views of the data. Unfortunately, for data other than images, such as time series, tabular data, graphs, or text, it is unclear what are suitable transformations. This becomes an obstacle to successful self-supervised anomaly detection on other data types.
This thesis proposes Neural Transformation Learning, a self-supervised anomaly detection method that is applicable to general data types. In contrast to previous methods relying on hand-crafted transformations, neural transformation learning learns the transformations from data and uses them for detection. The key ingredient is a novel objective that encourages learning diverse transformations while preserving the relevant semantic content of the data. We prove theoretically and empirically that it is more suited than existing objectives for transformation learning.
We also introduce the extensions of neural transformation learning for anomaly detection within time series and graph-level anomaly detection. The extensions combine transformation learning and other learning paradigms to incorporate vital prior knowledge about time series and graph data. Moreover, we propose a general training strategy for deep anomaly detection with contaminated data. The idea is to infer the unlabeled anomalies and utilize them for updating parameters alternatively. In setups where expert feedback is available, we present a diverse querying strategy based on the seeding algorithm of K-means++ for active anomaly detection.
Our extensive experiments and analysis demonstrate that neural transformation learning achieves remarkable and robust anomaly detection performance on various data types. Finally, we outline specific paths for future research.
Untersucht wurden im dargestellten Dissertationsprojekt Erklärungen von Grundschüler*innen der 4. Klassenstufe, die aus Sprachvergleichssituationen stammen. Ziel war es, die analysierten metasprachlichen Erklärungen in polythetische Subtypen auszudifferenzieren. Die darauf abzielende Sprachanalyse vereinte inhalts- und korpusanalytische Verfahren, deren jeweiligen Ergebnisse für die abschließende Typenbildung genutzt wurden.
Durch die Inhaltsanalyse konnten hinsichtlich des Explanans der untersuchten metasprachlichen Erklärungen die zwei Erklärschemata Verabsolutierendes Erklärschema und Präsumtives Erklärschema rekonstruiert werden. Beide unterscheiden sich bezogen auf den kommunikativen Zweck im epistemischen Modus. Auch konnten die sprachbezogenen Explananda näher spezifiziert werden (WAS-Explanandum, WIE-Explanandum, MISCH-Explanandum). Im Rahmen der Korpusanalyse wurden die in den Erklärschemata enthaltenen rekurrenten Wörter und Wortverbindungen als sprachliche Verfestigungen erfasst und statistisch geprüft. Die inhalts- sowie korpusanalytischen Befunde, vereint im Konstrukt metasprachlicher Erklärprozeduren, stellten die Grundlage und Voraussetzung für die Bestimmung der Merkmalsräume im Rahmen der Typenbildung dar. Mithilfe der Merkmalsräume lassen sich insgesamt vier polythetische Typen metasprachlicher Erklärungen voneinander abgrenzen (Typ A: Verabsolutierende metasprachliche WAS-Erklärung; Typ B: Verabsolutierende metasprachliche WIE-Erklärung; Typ C: Präsumtive metasprachliche WAS-Erklärung; Typ D: Präsumtive metasprachliche WIE-Erklärung).
Durch die kontextspezifische Sprachanalyse bietet die Studie strukturelle und fachdidaktisch anschlussfähige Einsichten zum metasprachlichen Erklärverhalten von Grundschüler*innen in Sprachvergleichssituationen.
Bei den Flüssigimprägnierverfahren wird ein trockenes Textil mit einem Harzsystem imprägniert, wodurch Faser-Kunststoff-Verbunde hergestellt werden. Bei der Betrachtung von üblichen Faser-Kunststoff-Verbund-Bauteilen wie z. B. Motorhauben an Kraftfahrzeugen, Verkleidungsstrukturen für die Luft- und Raumfahrt oder Sportgeräte wie Ski wird deutlich, dass es sich meist um „schalenförmige“ Bauteile handelt. Hierdurch wird klar, dass bei einer Imprägnierung in transversaler Richtung, also senkrecht zur Bauteil- bzw. Textilebene, der Fließweg deutlich kürzer ist als in der Bauteilebene. Somit birgt eine transversale Imprägnierung ein großes Potenzial zur Fließweg- und somit zu einer Zykluszeitreduktion. Um das volle Potenzial bei einer Imprägnierung in transversaler Richtung nutzen zu können, müssen die Textileigenschaften für eine akkurate Prozessauslegung so genau wie möglich bekannt sein. Hierzu gehören die faservolumengehaltsabhängige Tränkbarkeit (Dickenpermeabilität), der Kapillardruck sowie die Kompaktierungseigenschaften von Textilien. Um diese Eigenschaften zu ermitteln, wurden im Zuge dieser Arbeit mehrere Bestimmungsmethoden entwickelt, realisiert und validiert. Kern dieser Bestimmungsmethoden ist ein System welches neben dem Sättigungsvorgang, die Dickenpermeabilität sowie die strömungsinduzierte Textildeformation aufzeichnen kann. Ersteres durch die Verfolgung des Fließfrontfortschritts und Letzteres durch Verfolgung der Gesamtdickenänderung des zu messenden Textilstapels als auch der Änderung der Position einer einzelnen Lage im Textilstapel. Zur Berechnung der Dickenpermeabilität werden zusätzlich noch Druck- und Volumenstrommessungen durchgeführt. Um die Validität von ungesättigten Permeabilitätsmessungen nachzuweisen, wurde ein Kapillardruckmesssystem für eine reine transversale Strömung entwickelt. Hier wird die Fließfront in Abhängigkeit der Zeit dazu genutzt um den Kapillardruck zu bestimmen. Alle Methoden und Verfahren ermöglichen ein tieferes Verständnis der Vorgänge bei einer transversalen Imprägnierung von Textilien. Die gewonnenen Daten können zusätzlich als Eingangsparameter für Prozesssimulationen genutzt werden. Die Grundlagen einer solchen Simulation wurden erfasst und erste Simulationen zur Ermittlung einer Umsetzbarkeit bei der ungesättigten Dickenpermeabilität sowie der hydrodynamischen Kompaktierung durchgeführt.
The research deals with a question about Architecture and its design strategies, combining historical information and digital tools. Design strategies are historically defined, they rely on geometry, context, building technologies and other factors. The study of Architecture´s own history, particularly in the verge of technological advancements, like the introduction of new materials or tools may shed some light on how to internalize digital tools like parametric design and digital fabrication.
3D joint angles based human pose is needed for applications like activity recognition, musculoskeletal health, sports biomechanics and ergonomics. The microelectromechanical systems (MEMS) based magnetic-inertial measurement units (MIMUs) can estimate 3D orientation. Due to small size, MIMUs can be attached to the body as wearable sensors for obtaining full 3D human pose and this system is termed as inertial motion capture (i-Mocap). But the MIMUs suffer from sensor errors and disturbances, due to which orientation estimated from individual MIMUs can be erroneous. Accurate sensor calibration is essential and subsequently alignment of these sensors to body segments must also be precisely known, which is called sensor-to-segment calibration. Sensor fusion is employed to address the disturbances and noise in MIMUs. Many state-of-art inertial motion capture approaches ignore the magnetometer and only use IMUs to reduce the error arising from inhomogeneous magnetic field. These algorithms rely on kinematic constraints and assumptions regarding joints and are based on IMUs located on the adjacent body segments. The full body coverage requires 13-17 such units and can be quite obtrusive. The setting up and calibration of so many wearable sensors also take time.
This thesis focuses on 3D human pose estimation from a reduced number of MIMUs and deals with this problem systematically. First we propose an accurate simultaneous calibration of multiple MIMUs, which also learns the uncertainty of individual sensors. We then describe a novel sensor fusion algorithm for robust orientation estimation from an MIMU and for updating sensors calibration online. The residual errors in both sensor calibration and fusion can result in drift error in the joint angles. Therefore, we present anatomical (sensor-to-segment) calibration in which an orientation offset correction term is updated and used for online correction of residual drift in individual joint angles. Subsequently we demonstrate that 3D human joint angle constraints can be learned using a data-driven approach in a high dimensional latent space. Owing to temporal and joint angle constraints, it is possible to use only a reduced set of sensors (as opposed to one sensor per segment) and still obtain 3D human pose. But the spatial and temporal prior learning from data is often limited due to finite set of movement patterns in most datasets. This introduces uncertainty while estimating 3D human pose from sparse MIMU sensors. We propose a magnetometer robust orientation parameterization and a data-driven deep learning framework to predict 3D human pose with associated uncertainty from sparse MIMUs. The model is evaluated on real MIMU data and we show that the uncertainty predicted by the trained model is well-correlated with actual error and ambiguity.
Omics-basierte Untersuchungen zum Wirkmechanismus des makrozyklischen Lactons Oxacyclododecindion
(2023)
Die Suche nach neuen therapeutischen Wirkstoffen ist, aufgrund der geringen Erfolgsquote vor allem
in späteren Phasen der Zulassung, nach wie vor eine große Herausforderung. Für einen möglichst
effizienten Entwicklung- und Zulassungsprozess zu erhöhen, ist eine möglichst genaue
Charakterisierung des Moleküls und der davon ausgehenden biologischen Aktivität sinnvoll. Eine
wertvolle Quelle an potenziellen Wirkstoffen stellen Sekundärmetaboliten aus Bakterien, Algen,
Pflanzen oder Pilzen dar. Im Rahmen dieser Arbeit wurden verschiedene, aus Pilzen isolierte Stoffe
näher untersucht, die durch eine phänotypische Wirkstoffsuche gefunden wurden. Im Gegensatz zu
einer Target-basierten Wirkstoffsuche, wird sich bei dieser Methode nicht auf ein bestimmtes
Zielprotein fokussiert, sondern in einem zellbasierten System nach Stoffen gesucht, die einen
phänotypischen Effekt hervorrufen. Das genaue Target bleibt daher zunächst unbekannt.
Hauptsächlich wurde das Makrolacton Oxacyclododecindion (Oxa) bzw. dessen Derivate untersucht.
In phänotypischen Analysen stellte sich Oxa bereits in der Vergangenheit als vielversprechender
Wirkstoff zur Behandlung inflammatorischer und fibrotischer Erkrankungen heraus. Verschiedene
Derivate des Naturstoffs wurden durch die Abteilung für Organische Chemie der Johannes
Gutenberg-Universität Mainz synthetisiert und im Rahmen dieser Arbeit auf ihre biologische Aktivität
hin untersucht. So konnte der Einfluss verschiedener Derivatisierungen auf die biologische Aktivität
analysiert und mit bereits publizierten Derivaten verglichen werden. So konnte die optimale Position
für weitere Funktionalisierungen des Moleküls gefunden werden.
Neben der Analyse globaler Effekte auf BEAS-2B und HepG2 stand vor allem die Identifikation
möglicher Targets im Vordergrund. Dazu wurden zunächst verschiedene Ansätze zur Identifikation
von Proteinen, die an das besonders aktive Derivat 14-Deoxy-14-methyloxacyclododecindion (DM-Oxa) binden, durchgeführt. So konnten bereits erste Kandidaten, insbesondere das
Hitzeschockprotein HSP90, als mögliche Interaktoren identifiziert werden. Dieses Protein hat einen
zentralen Stellenwert in zahlreichen zellulären Prozessen, wodurch es bereits als mögliches Target
für verschiedene Erkrankungen bekannt ist.
Um erstmals einen Einblick in die globalen Effekte von DM-Oxa auf die Genexpression und das
Proteom in verschiedenen Zelltypen zu erhalten, wurden sowohl mRNA-Sequenzierungs- als auch
MS-Proteomics-Ansätze durchgeführt. Somit konnten bereits bekannte Charakteristika verifiziert und
neue Einblicke in beteiligte Signalwege gewonnen werden. Im Rahmen dieser Analysen konnten
potenzielle Zielproteine von DM-Oxa identifiziert werden. Darunter beispielsweise die zentralen
Transkriptionsfaktoren FOXO3 und AP-1.
Auch die Rolle von HSP90 als möglicher Interaktionspartner von DM-Oxa wurde weiter beleuchtet.
Dazu wurde eine Co-Immunpräzipitation mit HSP90 Antikörpern durchgeführt, um Veränderungen in
der Abundanz von Proteinen, die an HSP90 binden, festzustellen. Solche Veränderungen könnten
auf die Blockade von Bindestellen durch DM-Oxa hinweisen. Tatsächlich wurde die Abundanz von
100 bekannten Interaktionspartnern durch DM-Oxa Behandlung signifikant beeinflusst, sodass die
Rolle von HSP90 als Oxa-Target weiter ins Zentrum rückt.
Neben der Analyse von Oxacyclododecindion und verschiedenen Derivaten wurden zwei weitere
bisher unveröffentlichte Naturstoffe aus einem Pilz der Gattung Alternaria näher untersucht. Diese
gehören zu Klasse der Perylenchinone und zeigten zum Teil toxische und oxidative Wirkung in
BEAS-2B-Zellen, was durch verschiedene Versuchsansätze nachgewiesen werden konnte.
This thesis describes the synthesis and extensive characterization of mononuclear
cis-(carboxylato)(hydroxo)iron(III) and cis-(carboxylato)(aqua)iron(II) complexes
among others and illuminates their capability to engage in hydrogen atom transfer
reactions via reactivity studies with suitable substrates. The employed carboxylates
include benzoate, p-nitrobenzoate, and p-methoxybenzoate. Additionally, the first
example for a solution-stable mononuclear cis-di(hydroxo)iron(III) complex is
presented, the extensive characterization of which aims to contribute to the
identification of spectroscopic markers and a better understanding of the role of the
carboxylate ligand in the above-mentioned complexes.
The cis-(carboxylato)(hydroxo/aqua)iron(III/II) complexes match the coordination
environment and the electronic properties of the active iron site in the resting state of
rabbit lipoxygenase as well as of the reaction intermediates postulated for the
enzymatic mechanism. In addition to being excellent structural and electronic models,
the cis-(carboxylato)(hydroxo)iron(III) complexes display reactivity in abstracting
hydrogen atoms from (weak) O–H and C–H bonds of suitable substrates, thus proving
themselves to be worthy functional model complexes for lipoxygenases. The findings
are supported with extensive structural, spectroscopic, spectrometric, magnetic, and
electrochemical investigations as well as with quantified thermodynamic and kinetic
parameters to allow for an adequate comparison between the derivatives with varying
carboxylate ligands and to other works. Moreover, the reactivity investigation for the
cis-(benzoato)(hydroxo)iron(III) (the first example found) was exemplary accompanied
by a thorough theoretical study (done by external cooperation partners), which
validates the experimental results and identifies an underlying concerted protoncoupled-electron-transfer (cPCET) mechanism for the
cis-(carboxylato)(hydroxo)iron(III) complexes – analogous to the one suggested for the
enzyme.
The synthesis and study of a functional structural model complex is extremely
challenging and rarely successful. Thus, this result alone represents a significant
scientific advancement for the field, as no such model for lipoxygenases had been
precedented prior to this project. The in-depth studies with derivatives of the initial cis-(benzoato)(hydroxo/aqua)iron(III/II) complexes further contribute to this
advancement by illuminating structure-function relations.
Plattformarbeit gewinnt als neue Arbeitsform zunehmend an Bedeutung und bietet Vorteile bei der Vereinbarkeit von Erwerbs- und Privatleben. Allerdings können Steuerungselemente wie Algorithmen und Bewertungssysteme auch Risiken bergen. Aktuelle Forschung zur Diskriminierung von Frauen auf Online-Arbeitsmärkten gibt Hinweise auf eine mögliche Ungleichbehandlung. Bekannte Muster des traditionellen Arbeitsmarktes bei der Beauftragung und Preissetzung zeigen sich auch auf den Plattformen. Dies legt nahe, dass sich Geschlechterstereotype auf die Plattformökonomie übertragen. Welche Bedeutung dabei die plattformspezifischen Steuerungselemente haben stand bei bisherigen Untersuchungen nur selten im Fokus.
Diese Dissertation untersucht die Rolle von Geschlechterstereotypen und Algorithmen bei Beauftragung und Preissetzung auf einer der weltweit größten Freelancing-Plattformen, freelancer.com. Durch Web-Scraping wird ein einzigartiger Datensatz erstellt und mithilfe von Methoden des maschinellen Lernens aufbereitet. Mittels ökonometrischer Modelle wird die Fragestellung unter Berücksichtigung auftragsspezifischer Effekte untersucht.
Die Ergebnisse deuten darauf hin, dass Geschlechterstereotype bei der Beauftragungsentscheidung auf der Plattform keine Rolle spielen. Allerdings kommt dem Rankingalgorithmus der Plattform eine hohe Bedeutung zu. Ferner kann festgestellt werden, dass das Ranking der Freelancer:innen in Abhängigkeit vom Geschlecht unterschiedlichen Einfluss auf die Beauftragungswahrscheinlichkeit nimmt: Für Frauen ist der Rang in einem weiblich geprägten Tätigkeitsfeld weniger relevant als für Männer.
Geschlechterstereotype scheinen demnach auf der Freelancing-Plattform keine Relevanz zu haben. Frauen wird somit eine gendergerechtere Erwerbstätigkeit geboten. Jedoch bergen plattformspezifische Steuerungselemente wie der Rankingalgorithmus neue Potenziale zur Geschlechterdiskriminierung. Die Erkenntnisse tragen dazu bei, ein besseres Verständnis der Herausforderungen und Chancen der Plattformarbeit im Kontext der Geschlechtergleichstellung zu gewinnen.
Semi-structured data is a common data format in many domains.
It is characterized by a hierarchical structure and a schema that is not fixed.
Efficient and scalable processing of this data is therefore challenging, as many existing indexing and processing techniques are not well-suited for this data format.
This dissertation presents a novel approach to processing large JSON datasets.
We describe a new data processor, JODA, that is designed to process semi-structured data by using all available computing resources and state-of-the-art techniques.
Using a custom query language and a vertically-scaling pipeline query execution engine, JODA can process large datasets with high throughput.
We optimize JODA by using a novel optimization for iterative query workloads called delta trees, which succinctly represent the changes between two documents.
This allows us to process iterative and exploratory queries efficiently.
We improve the filtering performance of JODA by implementing a holistic adaptive indexing approach that creates and improves structural and content indices on the fly, depending on the query load.
No prior knowledge about the data is required, and the indices are automatically improved over time.
JODA is also modularized and can be extended with new user-defined predicates, functions, indices, import, and export functionalities.
These modules can be written in an external programming language and integrated into the query execution pipeline at runtime.
To evaluate this system against competitors, we introduce a benchmark generator, coined BETZE, which aims to simulate data scientists exploring unknown JSON datasets.
The generator can be tweaked to generate query workload with different characteristics, or predefined presets can be used to quickly generate a benchmark.
We see that JODA outperforms competitors in most tasks over a wide range of datasets and use-cases.
Facing the demands of the energy transition, gas turbines require continuous development to improve thermal efficiency. Since this can be achieved by further increasing the turbine inlet temperature, advanced cooling techniques are required to protect the highly loaded turbine components. This includes the first nozzle guide vane, which is located just downstream of the combustion chamber. Film cooling, i.e., injecting coolant into the hot-gas path, has been a cornerstone of turbine cooling. While the coolant film is typically supplied through discrete cooling holes, design-related gaps, e.g., the purge slot between the transition duct and the vane platform, can be utilized for injecting coolant. Since the coolant is drawn from the compressor, potentially offsetting thermal efficiency gains from increased turbine inlet temperatures, efficient use of the coolant is critical. In this context, experimental data obtained under engine-like flow conditions, i.e., matching the Mach and Reynolds numbers that are present in the engine, are indispensable for assessing the film cooling performance. Existing research on upstream slot injection has a blind spot, as all high-speed studies were conducted in linear cascades. This approach neglects, by principle, the influence of the radial pressure gradient that naturally occurs in swirling flows and potentially affects coolant propagation. Therefore, a high-speed annular sector cascade has been developed: It allows testing the film cooling performance and aerodynamic effects of coolant flows from various upstream slot configurations, not only at engine-like Mach and Reynolds numbers but also considering the radial pressure gradient. The cascade is equipped with nozzle guide vanes with contoured endwalls representing state-of-the-art turbine design. The results to be expected from the test rig are, therefore, of great relevance.
The annular sector cascade is integrated into the existing high-speed turbine test facility at the Institute of Fluid Mechanics and Turbomachinery (University of Kaiserslautern-Landau), which was previously used for testing a linear cascade with the same nozzle guide vane design. It incorporates various measurement techniques such as five-hole probes, pressure-sensitive paint, and infrared thermography to investigate both the thermal and aerodynamic aspects of film cooling. This thesis provides a detailed description of the cascade development, starting from the aerodynamic design up to the structural implementation. It also includes the results of the previous measurements in the linear cascade, as they provided the basis for refining the measurement methods.