The 50 most recently published documents
Controller design for continuous dynamical systems is a core algorithmic problem in the design of cyber-physical systems (CPS). When the CPS application is safety critical, additionally we require the controller to have strong correctness guarantees. One approach for this design problem is to use simpler discrete abstraction of the original continuous system, on which known reactive synthesis methods can be used to design the controller. This approach is known as the abstraction-based controller design (ABCD) paradigm.
In this thesis, we build ABCD procedures which are faster and more modular compared to the state-of-the-art, and can handle problems which were beyond the scope of the existing techniques.
Usually, existing ABCD approaches use state space discretization for computing the abstractions, for which the procedures do not scale well for larger systems. Our first contribution is a multi-layered ABCD algorithm, where we combine coarse abstractions and lazily computed fine abstractions to improve scalability. So far, we only address reach-avoid and safety specifications, for which our prototype tool (called Mascot) showed up to an order of magnitude speedup on standard benchmark examples.
Second, we consider the problem of modular design of sound local controllers for a network of local discrete abstractions communicating via discrete/boolean variables and having local specifications. We propose a sound algorithm, where the systems negotiate a pair of local assume-guarantee contracts, in order to synchronize on a set of non-conflicting and correct behaviors. As a by-product, we also obtain a set of local controllers for the systems which ensure simultaneous satisfaction of the local specifications. We show the effectiveness of the our algorithm using a prototype tool (called Agnes) on a set of discrete benchmark examples.
Our third contribution is a novel ABCD algorithm for a more expressive model of nonlinear dynamical systems with stochastic disturbances and ω-regular specifications. This part has two subparts, which are of significant merits on their own rights. First, we present an abstraction algorithm for nonlinear stochastic systems using 2.5-player games (turn-based stochastic graph games). We show that an almost sure winning strategy in this abstract 2.5-player game gives us a sound controller for the original system for satisfying the specification with probability one. Second, we present symbolic algorithms for a seemingly different class of 2-player games with certain environmental fairness assumptions, which can also be used to efficiently compute winning strategies in the aforementioned abstract 2.5-player game. Using our prototype tool (Mascot-SDS), we show that our algorithm significantly outperforms the state-of-the-art implementation on standard benchmark examples from the literature.
Comparative Uncertainty Visualization for High-Level Analysis of Scalar- and Vector-Valued Ensembles
(2022)
With this thesis, I contribute to the research field of uncertainty visualization, considering parameter dependencies in multi valued fields and the uncertainty of automated data analysis. Like uncertainty visualization in general, both of these fields are becoming more and more important due to increasing computational power, growing importance and availability of complex models and collected data, and progress in artificial intelligence. I contribute in the following application areas:
Uncertain Topology of Scalar Field Ensembles.
The generalization of topology-based visualizations to multi valued data involves many challenges. An example is the comparative visualization of multiple contour trees, complicated by the random nature of prevalent contour tree layout algorithms. I present a novel approach for the comparative visualization of contour trees - the Fuzzy Contour Tree.
Uncertain Topological Features in Time-Dependent Scalar Fields.
Tracking features in time-dependent scalar fields is an active field of research, where most approaches rely on the comparison of consecutive time steps. I created a more holistic visualization for time-varying scalar field topology by adapting Fuzzy Contour Trees to the time-dependent setting.
Uncertain Trajectories in Vector Field Ensembles.
Visitation maps are an intuitive and well-known visualization of uncertain trajectories in vector field ensembles. For large ensembles, visitation maps are not applicable, or only with extensive time requirements. I developed Visitation Graphs, a new representation and data reduction method for vector field ensembles that can be calculated in situ and is an optimal basis for the efficient generation of visitation maps. This is accomplished by bringing forward calculation times to the pre-processing.
Visually Supported Anomaly Detection in Cyber Security.
Numerous cyber attacks and the increasing complexity of networks and their protection necessitate the application of automated data analysis in cyber security. Due to uncertainty in automated anomaly detection, the results need to be communicated to analysts to ensure appropriate reactions. I introduce a visualization system combining device readings and anomaly detection results: the Security in Process System. To further support analysts I developed an application agnostic framework that supports the integration of knowledge assistance and applied it to the Security in Process System. I present this Knowledge Rocks Framework, its application and the results of evaluations for both, the original and the knowledge assisted Security in Process System. For all presented systems, I provide implementation details, illustrations and applications.
Robotic systems are entering the stage. Enabled by advances in both hardware components and software techniques, robots are increasingly able to operate outside of factories, assist humans, and work alongside them. The limiting factor of robots’ expansion remains the programming of robotic systems. Due to the many diverse skills necessary to build a multi-robot system, only the biggest organizations are able to innovate in the space of services provided by robots.
To make developing new robotic services easier, in this dissertation I propose a program- ming model in which users (programmers) give a declarative specification of what needs to be accomplished, and then a backend system makes sure that the specification is safely and reliably executed. I present Antlab, one such backend system. Antlab accepts Linear Temporal Logic (LTL) specifications from multiple users and executes them using a set of robots of different capabilities.
Building on the experience acquired implementing Antlab, I identify problems arising from the proposed programming model. These problems fall into two broad categories, specification and planning.
In the category of specification problems, I solve the problem of inferring an LTL formula from sets of positive and negative example traces, as well as from a set of positive examples only. Building on top of these solutions, I develop a method to help users transfer their intent into a formal specification. The approach taken in this dissertation is combining the intent signals from a single demonstration and a natural language description given by a user. A set of candidate specifications is inferred by encoding the problem as a satisfiability problem for propositional logic. This set is narrowed down to a single specification through interaction with the user; the user approves or declines generated simulations of the robot’s behavior in different situations.
In the category of planning problems, I first solve the problem of planning for robots that are currently executing their tasks. In such a situation, it is unclear what to take as the initial state for planning. I solve the problem by considering multiple, speculative initial states. The paths from those states are explored based on a quality function that repeatedly estimates the planning time. The second problem is a problem of reinforcement learning when the reward function is non-Markovian. The proposed solution consists of iteratively learning an automaton representing the reward function and using it to guide the exploration.
Building on knowledge and innovation: the role of Green Economy in revitalising Shrinking Cities
(2022)
This research introduces the topic of the Green Economy in the context of shrinking cities. The analysis is supported by two case studies, one located in Mexico and the other in France, to identify adaptable strategies of sustainable development in different contexts of urban decline that consider significant differences in the availability of resources.
Shrinking cities suffer from problems such as depopulation, economic decline and underuse of urban infrastructure, mainly due to a regional process of economic peripheralisation. Shrinking cities can adopt two logics to address these issues: de-peripheralisation and endogenous development.
It is argued that shrinking cities can exploit emerging green markets to stimulate economic growth and enhance liveability and sustainability; however, the solutions vary depending on the available resources, local comparative advantages and national political and financial support systems. The Green Economy driven solutions in shrinking cities can follow two main strategies: one is aimed at regrowth, betting on the creation of regional innovation systems by investing in research and development and the local capture of the produced spill-overs; the other, inspired by the concept of greening, aims to improve the quality of urban life of the inhabitants by enhancing the quality of consumption sectors through ecological practices and respect for the environment. The analysis of the two case studies serves as a method to observe different strategies for the sustainable development of shrinking cities by introducing activities in the sectors of the Green Economy.
This study supports the global comparative perspective approach in urban studies focusing on urban shrinkage. The context of shrinking cities is explored in Latin America by identifying the eighteen shrinking cities in Mexico.
In the pre-seed phase before entering a market, new ventures face the complex, multi-faceted, and uncertain task of designing a business model. Founders accomplish this task within the framework of an innovation process, the so-called business model innovation process. However, because a set of feasible opportunities to design a viable business model is often not predictable in this early phase (Alvarez & Barney, 2007), business model ideas have to be revised multiple times, which corresponds to experimenting with alternative business models (Chesbrough, 2010). This also brings scholars to the relevant, but seldom noticed field of research on experimentation as a cognitive schema (Felin et al., 2015; Gavetti & Levinthal, 2000). The few scholars that discussed the importance of such thought experimentation did not elaborate on the manifestations of this phenomenon. Thus, building on qualitative interviews with entrepreneurs, the current state of the research has a gap that offers this dissertation the ability to clearly conceptualise the manifestation of experimentation as a cognitive schema in business model innovation. The results extend previous conceptualisations of experimentation by illustrating the interplay of three different forms of thought experimentation, namely purposeful interactions, incidental interactions, and theorising. In addition, the role of individuals in business model innovation has recently been recognised by scholars (Amit & Zott, 2015; Snihur & Zott, 2020). It is noticed that not only the founders themselves but also many other actors play a central role in this process to support a new venture on its way to designing a viable business model, such as accelerators or public institutions. It thus stands to reason that in addition to understanding how new ventures design their business model, it is also important to study how different actors are involved in this process. Building on qualitative interviews with entrepreneurs, this gap offers this dissertation the ability to study how different actors are involved in business model innovation and conceptualise actor engagement behaviours in this context. The results reveal six different actor engagement behaviours, including teaching, supporting, mobilising, co-developing, sharing, and signalling behaviour. Furthermore, it stands to reason, that entrepreneurs and external actors each play a certain role in business model innovation. Certain behavioural patterns and types of resource contributions may be characteristic for a group of actors, leading to the emergence of distinct actor roles. Thus, in this dissertation a role concept is established to illustrate how actors are involved in designing a new business model, including 13 actor roles. These actor roles are divided into task-oriented and network-oriented roles. Building on this, a variety of role dynamics are unveiled. Moreover, special attention is given to role temporality. Building on two case studies and a quantitative survey, the results reveal how actor roles are played at a certain point in time, thereby concretising them in relation to certain stages of the pre-seed phase.
Additive Fertigungsverfahren zeichnen sich durch eine hohe erreichbare Komplexität der zu erzeugenden Geometrien, bei gleichzeitig kaum steigendem Fertigungsaufwand, aus. Dies wird durch den schichtweisen Aufbau additiver Fertigungsverfahren erreicht, bei dem die zu fertigende Geometrie zunächst in einzelne Bauteilquerschnitte aufgeteilt und anschließend durch Fügen dieser Querschnitte aufgebaut wird. Ein etabliertes additives Fertigungsverfahren ist das selektive Laserschmelzen, bei dem die zu erzeugende Geometrie durch Aufschmelzen von Metallpulver mittels eines Lasers in einem Pulverbett erzeugt wird. Die durch selektives Laserschmelzen generierten Oberflächen müssen zur Erzeugung von Funktionsflächen spanend endbearbeitet werden, wobei die charakteristische Anisotropie additiv erzeugter Werkstoffe berücksichtigt werden muss. Diese Arbeit beschäftigt sich mit den Wirkmechanismen additiv-subtraktiver Prozessketten bei der spanenden Bearbeitung von Edelstahl 1.4404, wobei zunächst beide Prozesskettenteile getrennt voneinander analysiert werden. Es werden unterschiedliche Wirkzusammenhänge der Prozessparameter der additiven Fertigung und Pulvereigenschaften auf den erzeugten Werkstoff identifizert. Weiter werden durch den Einsatz des Mikrofräsens als Bearbeitungsverfahren (Werkzeugdurchmesser < 50 µm) Wechselwirkungen zwischen anisotropem Werkstoff sowie Prozess- und Prozessergebnisgrößen der spanenden Bearbeitung besonders deutlich. Die Untersuchungen ergaben, dass prozesskettenübergreifende Wirkmechanismen zwischen additiven und subtraktiven Prozesskettenteilen beim selektiven Laserschmelzen und Mikrofräsen von Edelstahl 1.4404 bestehen.
Die vorliegende Masterthesis behandelt die Organisationsentwicklung in Wohnangeboten der Eingliederungshilfe unter partizipativen Gesichtspunkten. Dabei wird der Frage nachgegangen, welche Haltungen, Strukturen und Praktiken eine partizipative Ausrichtung von Organisationsentwicklungsmaßnahmen beeinflussen. Diese Frage wird mithilfe qualitativer Interviews untersucht, welche sich auf die Perspektive von Expert*innen der Eingliederungshilfe (EGH), d. h. internen Organisationsentwickler*innen, Führungskräften und konzeptionell verantwortlichen Personen in Wohnangeboten fokussieren. Bezugspunkt der Analyse ist das Bundesteilhabegesetz, das Wohnangebote der EGH gesetzlich dazu verpflichtet, das Recht ihrer Nutzer*innen auf Inklusion und Teilhabe zu gewährleisten. Die Ergebnisse sind gleichermaßen ernüchternd wie beflügelnd. Die normativen Anforderungen des Bundesteilhabegesetzes stoßen auf traditionell-konformistische Organisationen, die in ihrer Beharrlichkeit bestrebt sind, das Bestehende zu legitimieren. Expert*innen haben die Möglichkeit, auf Grundlage der abschließenden Handlungsempfehlungen und weiterführenden Fragestellungen neue Blickwinkel und Ansätze für die eigene Praxis zu identifizieren.
Diese Dissertation widmet sich der fertigungsintegrierten spektroskopischen Prozessanalytik
zur technischen Qualitätssicherung struktureller Glasklebungen. Glas als Werkstoff mit
seiner einzigartigen Eigenschaft der Transparenz ist in vielen Bereichen unverzichtbar. Wichtig
zur Verbesserung der Festigkeit und Langzeitbeständigkeit von Glasklebungen ist eine
Vorbehandlung der Oberfläche. Aufgrund des chemischen Aufbaus und der Reaktivität der
Glasoberfläche muss diese in einen für die Klebung geeigneten Zustand versetzt werden.
Die Applikation von Haftvermittlern und die Einhaltung der Prozessparameter sind für die
Qualität der Klebung entscheidend. Bislang fehlen Methoden zur zerstörungsfreien Qualitätssicherung
von Klebungen. Das Konzept zur prozessintegrierten Qualitätssicherung von
Glasklebungen soll Analyseverfahren zur Beurteilung der Reinigungswirkung (Kontaminationsfreiheit)
und zur Wirksamkeit der klebtechnischen Funktionalisierung bereitstellen. Die
Hypothese unterstellt, dass sich die Qualität der Oberflächenvorbehandlung und somit die
Qualität der Glasklebung hinsichtlich Zuverlässigkeit und Beständigkeit mit spektroskopischer
Analysetechnik überwachen lässt. Als spektroskopische zerstörungsfreie Analysemethoden
werden die UV-Fluoreszenzanalyse, die Infrarotspektroskopie und die Röntgenfluoreszenzanalyse
eingesetzt. Die Forschungsergebnisse bieten die Möglichkeit Klebprozesse mit
Glaswerkstoffen robust und qualitätssicher auszulegen.
Die induktive Erwärmung stellt insbesondere aufgrund der schnellen intrinsischen Erwärmung eine Schlüsseltechnologie für die zunehmende industrielle Anwendung von textilverstärkten CFK-Organoblechen dar. Allerdings kann deren großes Potenti-al nicht vollständig ausgeschöpft werden, da sich bei konventionellen CFK-Organoblechen über der Laminatdicke physikalisch bedingt eine mit zunehmendem Abstand zum Induktor abfallende Temperaturkurve ergibt. Speziell für CFK-Organobleche bestehend aus textilen Verstärkungshalbzeugen wurde im Rahmen dieser Arbeit zunächst der Einfluss der Textil- und Laminatparameter grundlegend untersucht. Zusätzlich wurde ein analytisches Modell in Form eines elektrischen Er-satzschaubilds einer im CFK-Organoblech vorliegenden Leiterschleife entwickelt, an-hand dessen der dominierende Heizmechanismus identifiziert werden kann. Ab-schließend wurde basierend auf den zuvor gewonnenen Erkenntnissen ein speziell für das kontinuierliche Induktionsschweißen angepasster Laminataufbau entwickelt und validiert.
Im Rahmen dieser Arbeit wurden entlang mehrstufiger Syntheserouten verschiedene neuartige 1,3-Bis(pyrazol-3-yl)benzolliganden aus günstigen Startmaterialien synthetisiert und charakterisiert. Zur Variation der sterischen und elektronischen Eigenschaften wurden die Liganden in 5-Position und 1-Position (N-Position) der Pyrazolylgruppen mit unterschiedlichen Alkylsubstituenten funktionalisiert. Es wurden dreizähnige NC(X)N-Liganden und mehrzähnige bifunktionelle NC(X)N-P2-Liganden dargestellt (X = H, Br). Die NC(X)N-Liganden (X = H, Br) wurden mit ausgewählten Metallvorstufen zu cyclometallierten Komplexen des Typs [(NCN)MYLn] umgesetzt (M = Ru(II), Ni(II), Pd(II), Pt(II), Y = Cl, Br, L = PPh3 mit n = 0, 2). Die Darstellung der Komplexe erfolgte unter der Verwendung der Synthesekonzepte der direkten Cyclometallierung (C-H Bindungsaktivierung) oder der oxidativen Addition. Der Ruthenium(II)-Komplex wurde auf seine katalytische Aktivität in der Transferhydrierung von Acetophenon in basischem Isopropanol getestet. Zusätzlich wurden DFT-Berechnungen zur Postulierung eines Reaktionsmechanismus der Cyclometallierung durchgeführt. Die cyclometallierten Komplexe der Nickelgruppe wurden intensiv auf ihre photophysikalischen Eigenschaften hin untersucht. Die Zuordnungen der einzelnen elektronischen Übergänge erfolgten mit Hilfe quantenchemischer Berechnungen (DFT/TDDFT). Durch Umsetzung der mehrzähnigen bifunktionellen NC(H)N-P2-Liganden mit ausgewählten dinuklearen Metallvorstufen der Gruppen 8 und 9 wurden neutrale κ1P,κ1P‘-koordinierte und neutrale und kationische κ2PN,κ2P‘N‘-koordinierte homobimetallische Komplexe erhalten. Als Metallvorstufen wurden die dinuklearen Komplexe [(η6-Aren)M(μ-Cl)Cl]2 (η6-Aren = C10H14, C6H5CO2Et, M = Ru(II), Os(II)), [(η5-C5Me5)M(μ-Cl)Cl]2 (M = Rh(III), Ir(III)), [Rh(η4-COD)(μ-Cl)]2 und [Rh(CO)2(μ-Cl)]2 eingesetzt. Des Weiteren wurden die synthetisierten Halbsandwichkomplexe auf ihre katalytische Aktivität in der Transferhydrierung von Acetophenon in basischem Isopropanol getestet. Die Halbsandwichruthenium(II)-Komplexe erwiesen sich als exzellente Präkatalysatoren und reduzierten Acetophenon in nahezu quantitativen Ausbeuten innerhalb weniger Minuten. Darüber hinaus wurden alle synthetisierten Komplexe mittels multinuklearer NMR-Spektroskopie, IR-Spektroskopie, Elementaranalyse und ESI-Massenspektrometrie charakterisiert. Die Strukturen einiger dargestellter Komplexe konnten zudem mit Hilfe der Röntgenstrukturanalyse eindeutig belegt werden.
Die Synopsis setzt sich auseinander mit dem Einsatz von Künstlicher Intelligenz (Maschinelles Lernen) im Kontext biomechanischer Daten. Potentiale der Methoden werden herausgearbeitet und ausgewählte praxisrelevante Limitationen anhand von fünf Publikationen adressiert. Unter anderem können durch Verwendung von Ensemble Feature Selection, Explainable Artificial Intelligence und Metric Learning sowie die Entwicklung eines pathologieunabhängigen Klassifikators vielversprechende Perspektiven aufgezeigt werden.
Data-driven and Sparse-to-Dense Concepts in Scene Flow Estimation for Automotive Applications
(2022)
Highly assisted driving and autonomous vehicles require a detailed and accurate perception of the environment. This includes the perception of the 3D geometry of the scene and the 3D motion of other road users. The estimation of both based on images is known as the scene flow problem in computer vision. This thesis deals with a solution to the scene flow problem that is suitable for application in autonomous vehicles. This application imposes strict requirements on accuracy, robustness, and speed. Previous work was lagging behind in at least one of these metrics. To work towards the fulfillment of those requirements, the sparse-to-dense concept for scene flow estimation is introduced in this thesis. The idea can be summarized as follows: First, scene flow is estimated for some points of the scene for which this can be done comparatively easily and reliably. Then, an interpolation is performed to obtain a dense estimate for the entire scene. Because of the separation into two steps, each part can be optimized individually. In a series of experiments, it is shown that the proposed methods achieve competitive results and are preferable to previous techniques in some aspects. As a second contribution, individual components in the sparse-to-dense pipeline are replaced by deep learning modules. These are a highly localized and highly accurate feature descriptor to represent pixels for dense matching, and a network for robust and generic sparse-to-dense interpolation. Compared to end-to-end architectures, the advantage of deep modules is that they can be trained more effciently with data from different domains. The recombination approach applies a similar concept as the sparse-to-dense approach by solving and combining less diffcult, auxiliary sub-problems. 3D geometry and 2D motion are estimated separately, the individual results are combined, and then also interpolated into a dense scene flow. As a final contribution, the thesis proposes a set of monolithic end-to-end networks for scene flow estimation.
Every organism contains a characteristic number of chromosomes that have to be segregated equally into
two daughter cells during mitosis. Any error during chromosome segregation results in daughter cells that
lost or gained a chromosome, a condition known as aneuploidy. Several studies from our laboratory and
across the world have previously shown that aneuploidy per se strongly affects cellular physiology.
However, these studies were limited mainly to the chromosomal gains due to the availability of several
model systems. Strikingly, no systemic study to evaluate the impact of chromosome loss in the human
cells has been performed so far. This is mainly due to the lack of model systems, as chromosome loss is
incompatible with survival and drastically reduces cellular fitness. During my PhD thesis, for the first time,
I used diverse omics and biochemical approaches to investigate the consequences of chromosome losses
in human somatic cells.
Using isogenic monosomic cells derived from the human cell line RPE1 lacking functional p53, we showed
that, similar to the cells with chromosome gains, monosomic cells proliferate slower than the parental
cells and exhibit genomic instability. Transcriptome and proteome analysis revealed that the expression
of genes encoded on the monosomic chromosomes was reduced, as expected, but the abundance was
partially compensated towards diploid levels by both transcriptional and post transcriptional mechanisms.
Furthermore, we showed that monosomy induces global gene expression changes that are distinct to
changes in response to chromosome gains. The most consistently deregulated pathways among the
monosomies were ribosomes and translation, which we validated using polysome profiling and analysis
of translation with puromycin incorporation experiments. We showed that these defects could be
attributed to the haploinsufficiency of ribosomal protein genes (RPGs) encoded on monosomic
chromosomes. Reintroduction of p53 into the monosomic cells uncovered that monosomy is incompatible
with p53 expression and that the monosomic cells expressing p53 are either eliminated or outgrown by
the p53 negative population. Given the RPG haploinsufficiency and ribosome biogenesis defects caused
by monosomy, we show an evidence that the p53 activation in monosomies could be caused by the
defects in ribosomes. These findings were further supported by computational analysis of cancer genomes
revealing those cancers with monosomic karyotype accumulated frequently p53 pathway mutations and
show reduced ribosomal functions.
Together, our findings provide a rationale as to why monosomy is embryonically lethal, but frequently
occurs in p53 deficient cancers.
An increasing number of nowadays tasks, such as speech recognition, image generation,
translation, classification or prediction are performed with the help of machine learning.
Especially artificial neural networks (ANNs) provide convincing results for these tasks.
The reasons for this success story are the drastic increase of available data sources in
our more and more digitalized world as well as the development of remarkable ANN
architectures. This development has led to an increasing number of model parameters
together with more and more complex models. Unfortunately, this yields a loss in the
interpretability of deployed models. However, there exists a natural desire to explain the
deployed models, not just by empirical observations but also by analytical calculations.
In this thesis, we focus on variational autoencoders (VAEs) and foster the understanding
of these models. As the name suggests, VAEs are based on standard autoencoders (AEs)
and therefore used to perform dimensionality reduction of data. This is achieved by a
bottleneck structure within the hidden layers of the ANN. From a data input the encoder,
that is the part up to the bottleneck, produces a low dimensional representation. The
decoder, the part from the bottleneck to the output, uses this representation to reconstruct
the input. The model is learned by minimizing the error from the reconstruction.
In our point of view, the most remarkable property and, hence, also a central topic
in this thesis is the auto-pruning property of VAEs. Simply speaking, the auto-pruning
is preventing the VAE with thousands of parameters from overfitting. However, such a
desirable property comes with the risk for the model of learning nothing at all. In this
thesis, we look at VAEs and the auto-pruning from two different angles and our main
contributions to research are the following:
(i) We find an analytic explanation of the auto-pruning. We do so, by leveraging the
framework of generalized linear models (GLMs). As a result, we are able to explain
training results of VAEs before conducting the actual training.
(ii) We construct a time dependent VAE and show the effects of the auto-pruning in
this model. As a result, we are able to model financial data sequences and estimate
the value-at-risk (VaR) of associated portfolios. Our results show that we surpass
the standard benchmarks for VaR estimation.
Today’s digital world would be unthinkable without complex data sets. Whether in private, business or industrial environments, complex data provide the basis for important and critical decisions and determine many processes, some of which are automated. This is often associated with Big Data. However, often only one aspect of the usual Big Data definitions is sufficient and a human observer can no longer capture the data completely and correctly. In this thesis, different approaches are presented in order to master selected challenges in a more effective, efficient and userfriendly way. The approaches range from easier pre-processing of data sets for later analysis and the identification of design guidelines of such assistants, new visualization techniques for presenting uncertainty, extensions of existing visualizations for categorical data, concepts for time-saving selection methods for subsets of data points and faster navigation and zoom interaction–especially in the web-based area with enormous amounts of data–to new and innovative orientation-based interaction metaphors for mobile devices as well as stationary working environments. Evaluations and appropriate use case of the individual approaches show the usability also in comparison with state-of-the-art techniques.
The aim of current research on internal combustion engines is to further reduce exhaust gas pollutant emissions while simultaneously lowering carbon dioxide emissions in order to limit the greenhouse effect. Due to the restricted potential for reducing CO2 (carbon dioxide) emissions when using fossil fuels, an extensive defossilisation of the transport sector is necessary. Investigations of future propulsion systems should therefore not focus solely on further development of the prime mover, but also on the energy carrier which is used. In this context, fuels from renewable energy sources are of particular interest, e.g. paraffinic diesel fuels such as hydrogenated vegetable oil (HVO) or potentially entirely synthetic fuels like POMDME (polyoxymethylene dimethyl ether, short: OME) as well as blends of such fuels. If renewable energy is used for fuel production, the current disadvantage of fossil energy carriers regarding CO2 production is eliminated, while at the same time further advantages can be exploited through lower pollutant emissions compared to conventional fuels. As an example, soot emissions can be significantly reduced with both of the above-mentioned alternative fuels in comparison to diesel. When using OME without additional blend components, the soot-NOx (nitrogen oxides) trade-off is no longer relevant as combustion is almost soot free.
However, further research and development is required, particularly with regard to the identification of suitable fuels (e.g. concerning emission reduction potential, suitability as a fuel for mobile applications and availability) and with respect to the optimization of the combustion process for the corresponding fuels. Within the framework of a joint funded project, OME and blends of HVO and OME are investigated in a single-cylinder research engine. The different fuel blend combinations are systematically compared with respect to the experimental results, and the most promising combinations for an ultra-low emission concept based on such fuel blends will be determined.
New engine concepts such as Miller, HCCI or highly diluted combustion offer great potential for further optimization of ICEs in terms of fuel economy and pollutant emissions. However, the development of such concepts requires a high degree of variability in the control of gas exchange, characterized by variability in valve spread, maximum valve lift and – ideally independent of these two variables – in valve opening time. In current series variable valvetrains, valve lift and opening duration are usually directly dependent one from the other. In the ideal case, however, engine concepts such as Miller require a fully flexible variation of the closing time of the intake valve while still maintaining the same intake opening time. Here, a methodology for the geometric layout of fully variable valve trains with significantly extended functionalities is presented. In this concept, the control of the valve opening and closing events is distributed to two synchronously rotating cam disks. This geometric separation allows to vary the valve opening duration at constant maximum valve lift by varying the phase offset between the two disks. On the other hand, the geometric properties of the system can be used to vary the maximum valve lift at the constant valve opening and/or valve closing (depending on the layout), as well as for switching additional valve events on or off.
The methodology presented here includes the computer-aided and partially automated generation of the characteristic geometric features of the system and the kinematic simulation and evaluation of the concept. By kinematic simulation, various possible resulting valve lift curves can be evaluated and optimized by adapting the geometry and the motion rules. The subsequent investigations on a component test bench serve to assess the newly developed concept with respect to functionality, required drive torque, stiffness and speed capability, thus proving its technical feasibility.
Pyrrolizidine alkaloids are naturally occurring secondary plant metabolites mainly found in plant families of Asteraceae, Boraginaceae, and Fabaceae. Chemically, PAs consist of a pyrrolizidine core bearing hydroxyl groups, the so-called necine base, and mono- or dicarboxylic necine acids bound to the pyrrolizidine core via ester linkages. 1,2-unsaturated PAs are hepatotoxic, genotoxic, and carcinogenic due to the highly reactive pyrrolic metabolites formed by cytochrome P450 monooxygenases (CYPs) primarily in the liver. The presence of PAs as frequent contaminants in the wide variety of food and feed products would be a concern for public health.
Due to the inadequate data, the risk assessment of PAs was mainly approached using the two most toxic potent congeners, i.e., lasiocarpine and riddelliine. However, the toxic potencies of individual PA congeners differentiated widely between the congeners probably related to their structural features. The risk of PA-containing products is indeed overestimated, and a comprehensive risk assessment should take these differences into account.
After analyzing the data of many PAs, Merz and Schrenk derived interim Relative Potency (iREP) factors to present the differences in their toxicity between the sub-groups concerning their structural features. But since this concept was derived from an inadequate database, it was found that the relative toxicity of individual congeners cannot be entirely reliably evaluated. My work aimed to achieve more comprehensive congener-specific in vitro toxicological data and estimate the structure-related characteristics for refining this concept. For this purpose, ten congeners, lasiocarpine, monocrotaline, retrorsine, senecionine, seneciphylline, echimidine, europine, heliotrine, indicine, and lycopsamine, were determined in a series of in vitro test systems with different endpoints to quantify their cytotoxicity, genotoxicity, and mutagenicity.
Cytotoxicity was assessed using the Alamar blue assay. A clear structure dependence could be demonstrated in primary rat hepatocytes and HepG2 (CYP3A4) cells. On the contrary, in HepG2 cells, none of the selected PAs exhibited cytotoxic effects, probably due to the lack of CYPs. The role of CYP450 enzymes in metabolic activation was further confirmed using an inhibition assay and the activity of CYP450 enzymes was measured by a kinetic assay analyzing 7-benzyloxyresorufin-O-dealkylation (BROD). Furthermore, utilizing a glutathione-reductase-DTNB recycling assay indicated that glutathione might not play a critical role in PA-induced cytotoxicity. A micronucleus test was used for determining the PA-induced clastogenic genotoxicity. All selected PA congeners exhibited a concentration-dependent manner in the HepG2 (CYP3A4) cells. The relative potencies of PA congeners estimated from Alamar blue assay and micronucleus assay are generally consistent with the following ranking: lasiocarpine > senecionine > seneciphylline ≥ retrorsine > heliotrine (?) echimidine ≥ europine ≈ indicine ≈ lycopsamine ≈ monocrotaline. Compared to the iREP reported by Merz and Schrenk, monocrotaline exhibited considerably lower toxic potency. However, echimidine was more toxic than expected. On the other hand, mutagenicity was measured in Ames fluctuation assay with Salmonella typhimurium strains TA98 and TA100. None of the selected PA congeners up to 300 µM showed mutagenic effects despite metabolic activation with S9-mix.
Die Enzyme α-Amylase und α-Glucosidase katalysieren die Hydrolyse von Polysacchariden in resorbierbare Monosaccharide und damit die Glucosefreisetzung ins Blut. Durch Glykogenphosphorylase α wird ebenfalls Glucose ins Blut freigesetzt, hier jedoch durch die Hydrolyse von Leber- oder Muskelglykogen. Dipeptidylpeptidase IV spielt eine zentrale Rolle bei der Freisetzung von Insulin, indem sie das Inkretinhormon Glucagon-like-peptide-1 (GLP-1) abbaut. Hemmstoffe dieser Enzyme finden in der therapeutischen Behandlung und Prävention von Diabetes mellitus Anwendung. Neben synthetischen Inhibitoren sind bereits einige natürliche Stoffe mit hemmender Wirkung bekannt, die in unterschiedlichen Lebensmitteln vorkommen. So erwiesen sich vor allem Flavonoide als potente Hemmer. Diese Arbeit beschäftigt sich mit dem Einfluss verschiedener Extrakte aus neun roten Früchten auf die Aktivität der Enzyme α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro und in vivo sowie der Identifizierung der verantwortlichen Inhaltsstoffe und entstand in Kooperation mit der TU Braunschweig. Alle Saftextrakte enthielten potente Inhibitoren der untersuchten Enzyme. Zu den aktivsten Extrakten zählten die aus Aronia (Aronia melanocarpa), Granatapfel (Punica granatum) und roter Traube (Vitis vinifera). Zur Identifizierung der aktiven Inhaltsstoffe wurden diese drei Extrakte in ihre Anthocyan-, Copigment- und Polymerfraktion getrennt und die ersten beiden Fraktionen in Braunschweig weiter subfraktioniert. Auch hier zeigten sich alle (Sub-)Fraktionen als potente Inhibitoren der getesteten Enzyme. Eine Studie mit einzelnen Anthocyanen und Copigmenten belegte diese Ergebnisse und gab Hinweise auf die Strukturabhängigkeit des Inhibitionspotentials. So beeinflussen die Anwesenheit und Anzahl der Hydroxyl- sowie Methylgruppen, die Molekülgröße und synergistische Effekte die inhibitorische Aktivität. Um eine irreversible Inaktivierung der Enzyme auszuschließen, wurde der Hemmmechanismus der Extrakte und Fraktionen ermittelt. Hierbei zeigte sich, dass alle untersuchten Proben die Aktivität der α-Amylase und α-Glucosidase reversibel hemmten.
Im Rahmen einer humanen Interventionsstudie wurde der Einfluss eines Extraktes aus Aroniadirektsaft sowie eines roten Traubensaftkonzentrats auf den Blut- und Gewebsglucosespiegel als auch auf die Blutinsulinkonzentration untersucht. Für den ersten Extrakt zeigte sich eine signifikante Reduktion der Glucosespiegel, während der zweite die Insulinkonzentration signifikant erhöhte. Für alle Parameter konnten interindividuelle Unterschiede festgestellt werden, die eine Einteilung der Probanden in „Responder“ und „Nicht-Responder“ ermöglichte. In der vorliegenden Arbeit konnte das inhibitorische Potential verschiedener Extrakte aus roten Früchten sowie unterschiedlicher Polyphenole auf α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro nachgewiesen sowie relevante Struktureigenschaften von Inhibitoren ermittelt werden. Im Rahmen einer humanen Interventionsstudie konnten die beobachteten Effekte auch in vivo bestätigt werden. Die Ergebnisse dieser Pilotstudie sollten zukünftig mit einer höheren Anzahl an Probanden und einer höheren Dosierung der Extrakte abgesichert werden.
The use of vegetable oil as a fuel for agricultural and forestry vehicles allows a CO2 reduction of up to 60 %. On the other hand, the availability of vegetable oil is limited, and price competitiveness depends heavily on the respective oil price. In order to reduce the dependence on the availability of specific fuels, the joint research project “MuSt5-Trak” (Multi-Fuel EU Stage 5 Tractor) aims at developing a prototype tractor capable of running on arbitrary mixtures of diesel and rapeseed oil.
Depending on the fuel mixture used, the engine parameters need to be adapted to the respective operating conditions. For this purpose, it is necessary to detect the composition of the fuel mixture and the fuel quality. Regardless of the available fuel mixture, all functions for regular engine operation must be maintained. A conventional active regeneration of the diesel particulate filter (DPF) cannot be carried out because rapeseed oil has a flash point of 230°C, compared to 80°C for diesel fuel. This leads to a condensation of rapeseed oil while using post-injection at low and medium part load operating points, which causes a dilution of the engine oil.
In this work, engine-internal measures for achieving DPF regeneration with rapeseed oil and mixtures of diesel fuel and rapeseed oil are investigated. In order to provide stationary operating conditions in real engine operation, a “high-idle” operating point is chosen. The fuel mixtures are examined with regard to compatibility concerning a reduction of the air-fuel ratio, late combustion phasing and multiple injections. The highest temperatures are expected from a combination of these control options. After the completion of a regeneration cycle, the fuel input into the engine oil is controlled. These investigations will serve as a basis for the subsequent development of more complex regeneration strategies for close-to-reality engine operating cycles with varying load conditions.
Bei der Herstellung von Faser-Kunststoff-Verbunden (FKV) kommen unterschiedlichste Faser-, Kunststoff- sowie Faser/Kunststoff-Halbzeuge zum Einsatz. Diese weisen oft sehr komplexe Verarbeitungseigenschaften auf, die bei der Prozessentwicklung eine besondere Herausforderung darstellen. Ein typisches Beispiel ist die Verfahrensgruppe der Flüssigimprägnierverfahren, bei denen eine endkonturnahe Faserstruktur mit einem Harzsystem imprägniert wird. Eine den Prozessverlauf maßgeblich bestimmende Verarbeitungseigenschaft der Faserstruktur ist hierbei die Permeabilität. Sie quantifiziert die Durchlässigkeit der Faserstruktur für die fluide Strömung und resultiert aus einer Vielzahl an interdependenten Einflüssen, wie z. B. einer inhomogenen Porosität mit extrem variierenden Fließkanaldurchmessern, lokalen Strukturvariationen, einer hohen Deformierbarkeit sowie Kapillarkräften.
Wissensgenerierung durch Grundlagenforschung zu einer einzelnen prozesskritischen Verarbeitungseigenschaft (wie der Permeabilität), stellt eine ideale Grundlage für die ganzheitliche, also sowohl die Prozess- und Anlagentechnik als auch die Materialien umfassende, Prozessentwicklung der jeweils betrachteten Verfahren/Verfahrensgruppe (z. B. Flüssigimprägnierverfahren) dar. Vor diesem Hintergrund wird in der vorliegenden Arbeit eine mehrstufige, in sich geschlossene Forschungsmethodik definiert, die zur kontinuierlichen Weiterentwicklung des betrachteten Herstell-verfahrens sowie der eingesetzten Anlagen, Werkzeuge und Materialien geeignet ist. Anhand von Forschungsarbeiten zum Anwendungsbeispiel der Flüssigimprägnierverfahren bzw. der Permeabilität wird gezeigt, wie die Methodik umgesetzt werden kann: Der erste Schritt besteht in der Entwicklung von Methoden und Technologien, um Einflüsse auf die Permeabilität reproduzierbar zu erzeugen und die Auswirkungen untersuchen zu können. Anschließend folgen Parameterstudien zu Einflüssen auf die Permeabilität und die gewonnenen Erkenntnisse werden dann zu Richtlinien aggregiert. Anhand der Richtlinien können Materialien, Prozesse und Messtechnologien auf einen Anwendungsfall hin optimiert werden. Schließlich, werden über den Erkenntnisgewinn grundlegend neue Technologien entwickelt, woraus sich wiederum neue Aufgaben für die erste Stufe der Methodik ergeben.
Globale Entwicklungen haben zu einer neuen Ausrichtung in der produzierenden Industrie geführt. Ressourceneffizienz hinsichtlich Werkstoff und Energie sowie die Ausnutzung von Multifunktionalitäten eines Werkstoffs und/oder Produkts sind mögliche Schlagwörter in diesem Zusammenhang. Bezogen auf Werkstoffe führt dies zu neuen Entwicklungen, die oft auf der Kombination eines oder mehrerer Einzelkomponenten zu einem Verbundwerkstoff basieren. Im Fokus stehen hierbei nicht nur die finale Anwendung des Produkts, sondern auch Aspekte wie Produktionskosten, -zeiten oder Wiederverwertbarkeit.
Induktive Heizverfahren erlauben hohe Heizraten, somit kurze Prozesszeiten und eine vergleichsweise hohe Energieeffizienz. Ihre Anwendung bei der Verarbeitung von insbesondere ungerichtet verstärkten Verbundwerkstoffen setzt voraus, dass Suszeptoren zur Umwandlung der elektromagnetischen in Wärmeenergie vorhanden sind. Die Auswahl entsprechender Suszeptoren ist eine wichtige Fragestellung, die in dieser Arbeit vor dem Hintergrund der Multifunktionalität untersucht wird. Oft beinhalten industriell verfügbare thermoplastische Compounds bereits Verstärkungsstoffe, die für die induktive Heizbarkeit geeignet sein können. In der vorliegenden Arbeit wurde deshalb basierend auf entsprechend kommerziell verfügbaren Compoundsystemen eine Bewertungsmethode entwickelt, die anhand von industriell relevanten und standardisiert messbaren Materialkennwerten – beispielsweise dem spezifischen Durchgangswiderstand – eine Aussage zur induktiven Heizbarkeit ermöglicht. Zum Einsatz kamen Kurzkohlenstoff- und Stahlfasern sowie Eisen- und Graphitpartikel in unterschiedlichen Konzentrationen und Kombinationen. Mit dem Durchgangswiderstand, der Dichte und der Wärmekapazität des Verbundwerkstoffs wurde ein Faktor ermittelt, der eine Korrelation mit der Heizrate aufweist, die mit einem industrierelevanten Induktionssystem experimentell gemessen wurde. Als eine wichtige Voraussetzung hat sich hierbei die Ausbildung eines perkolierenden Netzwerks, das sich aus den Verstärkungsstoffen zusammensetzt, gezeigt. Da dieses Netzwerk für eine Reihe von Anwendungsfällen relevant ist, leistet diese Arbeit einen Beitrag zur multifunktionellen Verwendung thermoplastischer
Verbundwerkstoffe.
Flächenhafte Kalibriernormale dienen zur Kalibrierung und Justierung von flächenhaft messenden Topographiemessgeräten und ermöglichen die Abschätzung der Messunsicherheit und die Rückführung der gemessenen Länge zur Basiseinheit. Es existieren hohe Anforderungen an die Maßhaltigkeit und Oberflächenqualität von Kalibriernormalen. Da in der Norm DIN EN ISO 25178-70 kein Fertigungsverfahren zur Herstellung von flächenhaften Kalibriernormalen vorgeschrieben ist, wurden bisher unterschiedliche Verfahren angewandt. Mikrofräsen ist ein sehr flexibles Herstellungsverfahren, welches hohe Maßhaltigkeiten und Oberflächengüten auf der Mikroskala ermöglicht. Im Rahmen dieser Arbeit wurde der Mikrofräsprozess zur Herstellung der Kalibriernormale mittels Kugelfräsern ausgelegt. Dazu wurden experimentelle als auch simulative Versuche durchgeführt und wichtige Einflussgrößen auf das Prozessergebnis zunächst identifiziert und anschließend entsprechend definiert. Nachdem zuerst flächenhafte Kalibriernormale, welche bereits genormte Kalibrierstrukturen aufweisen, gefertigt wurden, wurde der Mikrofräsprozess anschließend auch auf neuartige Kalibrierstrukturen basierend auf realen Bauteiloberflächen angewandt. Für alle gefertigten Kalibrierstrukturen lagen die Abweichungen von den Soll-Kennwerten nach der entsprechenden Prozessanpassung im einstelligen bis niedrig zweistelligen Nanometerbereich. Die Wiederholbarkeit bei der Fertigung der Kalibrierstrukturen lag in der gleichen Größenordnung. Mit dem ausgelegten Fräsprozess können die hohen Anforderungen an die Maßhaltigkeit und Oberflächenqualität der Kalibriernormale erfüllt werden.
In 2002, Korn and Wilmott introduced the worst-case scenario optimal portfolio approach.
They extend a Black-Scholes type security market, to include the possibility of a
crash. For the modeling of the possible stock price crash they use a Knightian uncertainty
approach and thus make no probabilistic assumption on the crash size or the crash time distribution.
Based on an indifference argument they determine the optimal portfolio process
for an investor who wants to maximize the expected utility from final wealth. In this thesis,
the worst-case scenario approach is extended in various directions to enable the consideration
of stress scenarios, to include the possibility of asset defaults and to allow for parameter
uncertainty.
Insurance companies and banks regularly have to face stress tests performed by regulatory
instances. In the first part we model their investment decision problem that includes stress
scenarios. This leads to optimal portfolios that are already stress test prone by construction.
The solution to this portfolio problem uses the newly introduced concept of minimum constant
portfolio processes.
In the second part we formulate an extended worst-case portfolio approach, where asset
defaults can occur in addition to asset crashes. In our model, the strictly risk-averse investor
does not know which asset is affected by the worst-case scenario. We solve this problem by
introducing the so-called worst-case crash/default loss.
In the third part we set up a continuous time portfolio optimization problem that includes
the possibility of a crash scenario as well as parameter uncertainty. To do this, we combine
the worst-case scenario approach with a model ambiguity approach that is also based on
Knightian uncertainty. We solve this portfolio problem and consider two concrete examples
with box uncertainty and ellipsoidal drift ambiguity.
Durch den kontinuierlichen Anstieg von aussortierten, nicht mehr verwendbaren Fast Fashion Produkten wird die Textilbranche zu einem allgegenwärtigen Problem in der heutigen Gesellschaft. Ein Bericht der Ellen MacArthur Foundation zeigte auf, dass bisher weniger als 1% des für die Herstellung von Kleidung verwendeten Materials recycelt wird. Um die Wiederverwendung und -verwertung von Kleidung zu ermöglichen, müssen weitreichende Veränderungen innerhalb der Textilindustrie stattfinden, aber sich auch das Verhalten von Konsumenten verändern.
Diese Arbeit soll deshalb die zentrale Fragestellung untersuchen, welche Maßnahmen unter Berücksichtigung des aktuellen Konsumentenverhaltens notwendig sind, um die Post-Verwendung von Kleidung nachhaltiger zu gestalten. In der vorliegenden Arbeit werden neue Erkenntnisse durch einen Mixed-Methods-Ansatz gewonnen. Um das Konsumentenverhalten hinsichtlich des Kleidungskonsums sowie der Verwendung und Verwertung von Gebrauchtkleidung beleuchten zu können, wird eine quantitative Online-Umfrage erstellt und durchgeführt. Im Zuge der Interpretation der quantitativen Forschung unterstützen zwei qualitative Experteninterviews den Erkenntnisgewinn. Darüber hinaus geben diese inhaltliche Unterstützung, um weitere Lösungsansätze für ein erfolgreiches Textilrecycling zu entwickeln. Der theoretische Rahmen der Arbeit wird durch eine Literaturrecherche unterstützt.
Das Kompetenzzentrum Weiterbildung Hessen (KW Hessen) bietet ein begleitendes und
prüfungsvorbereitendes Seminar- und Mentoringprogramm für Ärzte in Weiterbildung
und Train-the-Trainer Basis- und Aufbauseminare für Weiterbildner an. Im Rahmen
dieser Tätigkeit ist es aufgefallen, dass seitens der Teilnehmer wiederholt von - scheinbar
unvermittelt - gescheiterten Praxisübergaben berichtet wurde. Aus diesen Berichten ist
der Gedanke und damit der Wunsch entstanden, ein die Praxisübergabephase
begleitendes Coaching für abgebende und übernehmende Ärzte zu entwickeln und
anzubieten.
Ziel des zu entwickelnden Coachings ist es, die Übergabephase und die mit ihr
einhergehenden, oft tiefgreifenden, Veränderungsprozesse in den Hausarztpraxen auf
struktureller und emotionaler Ebene individuell und aufgabenzentriert zu unterstützen.
Dieser Ansatz wurde dem Hessischen Ministerium für Soziales und Integration (HMSI)
in Form eines Projektantrags zur Realisierung eines Praxisübergabe-/übernahme-
Coachings (Pü²C) vorgestellt, dort positiv beschieden und in der Folge im Rahmen des
Hessischen Gesundheitspaktes 3.0 als Beitrag zur Stärkung der ambulanten
Gesundheitsversorgung in Durchführungsverantwortung des Kompetenzzentrums
Weiterbildung Hessens beschlossen.
Die hier vorgelegte Studie dokumentiert die Bedarfserhebung für dieses Vorhaben und
untersucht den Wunsch der Ärzteschaft nach einem Praxisübergaben/-nahmen
begleitenden Coaching empirisch. Hierzu wurde eine multimethodische empirische
Studie durchgeführt, deren Gesamtkonzeption auf Seite 50 der vorgelegten
Forschungsarbeit grafisch dargestellt ist.
Die Ergebnisse zeigen sehr deutlich, dass sowohl die für diese Studie befragten Experten
der Einführung eines solchen Coachings außerordentlich positiv gegenüberstehen, als
auch, dass, insbesondere seitens der (Fach-)Ärzte mit Niederlassungsabsicht, respektive
der erfolgreichen Absolventen der Facharztprüfung Allgemeinmedizin in Hessen des
Jahres 2020, ein klarer und unmissverständlicher Wunsch nach einem solchen Angebot
besteht.
Darüber hinaus wurde mittels binär logistischer Regressionsanalyse der Einfluss von
soziostrukturellen Merkmalen, den Persönlichkeitsdimensionen, sowie von Vorerfahrungen und Zukunftsvorstellungen der Fachärzte für Allgemeinmedizin auf die
Coaching-Inanspruchnahmeabsicht untersucht.
Es konnte gezeigt werden, dass Vorerfahrungen im Mentoring und eine langfristige
Niederlassungsabsicht geeignete Prädiktoren für den Wunsch nach einem
Praxisübergabe-/übernahme-Coaching sind, wohingegen dies - auf Basis der
vorliegenden Daten - weder für die soziostrukturellen Merkmale, noch für die
Persönlichkeitsdimensionen der Befragten gilt, da diese keinen signifikanten Beitrag zur
Varianzaufklärung in Bezug auf den Wunsch nach Inanspruchnahme eines
Praxisübergabe-/übernahme-Coachings leisten.
Durch ein geeignetes Praxisübergabe-/übernahme-Coaching könnte es gelingen, dass
anberaumten Praxisübergaben aufgrund höherer Zufriedenheit beim Übergabe-
/Übernahmeprozess der involvierten Akteure ein höherer Erfolg beschieden sein dürfte
als ohne eine solche Begleitung. Vollständig aus- und weitergebildete Fachärzte für
Allgemeinmedizin könnten auf diese Weise umfassender in die Patientenversorgung
eingebunden werden. Evtl. kann ein solches Coaching in Einzelfällen sogar dazu führen,
dass Niederlassungen vorgezogen, evtl. sogar Niederlassungsabsichten bzw.
Praxisübergabewünsche geweckt werden. Die Chancen hierfür werden als umso besser
eingeschätzt, je schneller die Coachings starten können – einfach, solange und damit es
die zu übernehmenden Praxen überhaupt noch gibt. Keineswegs zuletzt
gesundheitspolitisch betrachtet, scheint es sich bei den Coachings um eine innovative,
vielversprechende und letztlich auch kostengünstige Maßnahme zur Sicherung der
ambulanten Gesundheitsversorgung im und durchaus auch gerade auf dem Lande zu
handeln.
In Gesamtwürdigung aller vorliegenden Ergebnisse empfiehlt der Verfasser der
vorgelegten Studie, die Konzeptspezifizierung für das Praxisübergabe-/übernahme-
Coaching (wieder) aufzunehmen und insbesondere die Durchführung einer qualitativ
hochwertigen, standardisierten Befragung in Form einer Vollerhebung der in Hessen
niedergelassenen Hausärzte ab einem Alter von 60 Jahren (bzw. zumindest in Form einer
Zufallsstichprobe aus dieser Grundgesamtheit) zu forcieren.
Parallel hierzu sollte zur Vorbereitung der Einführung eines generellen
Coachingangebots, auch mit Blick auf die Notwendigkeit der Entwicklung eines für
dieses Format geeigneten Evaluationsinstrumentariums, zunächst die intensive Begleitung einiger weniger Praxisübergaben/-übernahmen im Sinne eines Pilotprojektes
erfolgen.
Die Bedeutung und Nachfrage an der Holz-Beton-Verbundbauweise nimmt
aufgrund einer Vielzahl an Vorteilen gegenüber dem reinen Holzund
Stahlbetonbau immer weiter zu. Die Bemessung von Holz-Beton-
Verbundkonstruktionen ist aktuell nicht normativ geregelt, sondern wird auf
der Grundlage von bauaufsichtlichen Zulassungen und Bauartgenehmigungen
durchgeführt. Dabei kommen die unterschiedlichsten Typen an Verbindungsmitteln
zum Einsatz, wie beispielsweise stiftförmige Verbindungsmittel
und Kerven. Kontinuierliche Verbindungsmittel wie die Verbunddübelleiste
im Stahl-Beton-Verbundbau wurden bisher nicht im Holz-Beton-
Verbundbau verwendet. Verbunddübelleisten haben sich als sehr leistungsfähige
Verbundmittel mit einer hohen Tragfähigkeit und einfacher Herstellung
herausgestellt, deren Bemessung in der AbZ Z-26.4-56 2018 geregelt
ist. Zur Entwicklung eines Bemessungskonzeptes für ein den Verbunddübelleisten
ähnliches Verbundmittel für den Holz-Beton-Verbundbau sind klassischer
Weise experimentelle Untersuchungen zur Ermittlung der Tragfähigkeit
durchzuführen. Neben den oftmals zeitaufwendigen und kostenintensiven
Versuchen haben viele Untersuchungen an verschiedensten Verbundmitteln
gezeigt, dass sich numerische Untersuchungen in Form von Finite-
Elemente-Modellen dafür eignen das Tragverhalten abzubilden und die erforderliche
Anzahl an Versuchen zur Abdeckung der verschiedenen Parameter
zu reduzieren.
Im Rahmen dieser Arbeit wurde ein kontinuierliches Verbundmittel für die
Holz-Beton-Verbundbauweise entwickelt und es wurde mittels experimenteller
und numerischer Untersuchungen ein Bemessungskonzept erarbeitet.
Zur Beschreibung des Trag- und Verformungsverhaltens wurden Versuche
unter Längsschub- und Zugbeanspruchung durchgeführt. Anhand dieser
Versuche konnten Finite-Elemente-Modelle kalibriert werden und darauf aufbauend
numerische Untersuchungen zum Tragverhalten unter kombinierter
Zug- und Schubbeanspruchung durchgeführt werden. Da viele numerische
Untersuchungen an Verbundmitteln in der Vergangenheit eine hohe Sensibilität
bei der Variation der Materialparameter der Betonmodelle gezeigt
haben, wurde eine separate Untersuchung zu den Besonderheiten von Verbundmitteln
im Beton bei der numerischen Simulation herausgearbeitet und
entsprechende Lösungsansätze gegeben. Auf Grundlage der experimentellen
und numerischen Untersuchungen konnten die für das neue Verbundmittel
spezifischen Tragmechanismen identifiziert, in einem abschließenden
Trägerversuch bestätigt und in ein Bemessungsmodell überführt werden.
Durch den kombinierten Einsatz von experimentellen und numerischen
Untersuchungen konnte das Tragverhalten des neuen Holz-Beton-
Verbundsystems umfassend beschrieben und ein für die Praxis anwendbares
Bemessungskonzept entwickelt werden. Diese Arbeit soll damit neben dem
Bemessungskonzept einen Beitrag für die Anwendung numerischer Verfahren
bei der Untersuchung des Tragverhaltens von Verbundmitteln im Beton
leisten.
Infobrief FBK 66/22
(2022)
ERP-Systeme sind längst – nicht zuletzt durch mittelstandsspezifische Anbieter derartiger
Systeme – eine Selbstverständlichkeit auch in kleinen und mittleren Unternehmen (KMU).
Gleichzeitig stellen sie gerade in KMU häufig auch die einzige Informationsquelle für das
Controlling dar. Welche Anforderungen vor di esem Hintergrund an ein mittelstandsorientier-
tes Controlling gestellt werden, ist Gegenstand der hier aufgenommen Beiträge. Die Thematik
wird dabei sowohl aus einer konzeptionell-the oretischen, als auch aus einer anwendungsori-
entierten Perspektive behandelt. Die Beiträge sind hervor gegangen aus der langjährigen Ko-
operation zwischen den Lehrstühlen für Unte rnehmensrechnung und Controlling (Kaiserslau-
tern) sowie Controlling und Wirtschaftsinformatik (Zielona Gó ra), deren wesentliches Ziel
die Untersuchung von Möglichkeiten und Grenzen der Umsetzung aktueller betriebswirt-
schaftlicher Erkenntnisse in Standard-ERP Software für KMU ist.
Im ersten Beitrag geht es um Möglichkeiten und Grenzen der Befriedigung des Informations-
bedarfs von Controllinginstrumenten in Standard-ERP Software. Der zw eite Beitrag beschäf-
tigt sich mit dem (kaum vorhandenen) ERP-Bez ug in Standardlehrbüchern zur Kostenrech-
nung. Der dritte Beitrag geht von der Erkenntnis aus, dass die zunehmende mathematische
Komplexität betriebswirtschaftlicher Instrumente insbesondere im KMU-Kontext nicht auch
zu „besseren“ entscheidungsrelevanten Informationen führt. Die Originalbeiträge sind 2009 in
einem Sonderheft der polnischen Zeitschrift Management erschienen.
Der vorliegende Beitrag basiert auf einer Umfrage von 2019, die in kleinen und mittleren Unternehmen (KMU) in Rheinland-Pfalz durchgeführt wurde. Seit Jahren ist in den Medien, der Politik und der Wirtschaft verstärkt von Digitalisierung und Industrie 4.0 die Rede. Diese Entwicklung stellt Unternehmen aller Größen und Branchen vor Herausforderungen, jedoch liegt der Fokus hauptsächlich auf großen Unternehmen. Ziel der in diesem Beitrag vorgestellten Studie ist es, herauszufinden wie KMU in Rheinland-Pfalz den Herausforderungen und Chancen der Digitalisierung begegnen, welche Rolle das Controlling bei der digitalen Transformation spielt und welche Implikationen sich daraus für das Controlling ergeben.
Mit der Blickrichtung auf die Synthese und Darstellung neuer Verbindungen zur Verbesserung der Lebensqualität, Grundbedürfnisse und Gesundheit einer modernen Gesellschaft sind neue Strategien, welche die Konzepte der Nachhaltigkeit, Effizienz und Umweltschutz verinnerlichen, von immenser Bedeutung. Multikomponentenreaktionen (MCRs) offerieren hierfür einen attraktiven Lösungsansatz. Als Eintopfreaktionen zeichnen sich MCRs durch hohe Stufen- sowie Atomökonomien aus und können ferner dazu beitragen Kosten, Zeit, Energie und Abfälle einzusparen. Durch den modularen Charakter von MCRs lassen sich darüber hinaus schnell und effizient eine Vielzahl unterschiedlicher Molekülstrukturen generieren. Vor diesem Hintergrund konnten im Rahmen dieser Forschungsarbeit einige neue, kombinatorische Konzepte zur Synthese α-substituierter Glycinderivate entwickelt werden. Ausgehend von einer weiterentwickelten, Pd-katalysierten, enantioselektiven 3-Komponentenreaktion auf Basis von Sulfonsäureamiden, Glyoxylsäure Monohydrat und Boronsäuren konnte eine unerwartete Hintergrundreaktion festgestellt werden, die sich schlussendlich als erste katalysatorunabhängige Petasis-Reaktion auf Basis von Sulfonsäureamiden als Amin-Komponente darstellte.
In Anbetracht der Aufgabe eine ressourcensparende und nachhaltigere Aufbaumöglichkeit von unnatürlichen Aminosäurederivaten zu entwickeln, gelang es im Zuge dieser Doktorarbeit weiterhin eine Pd-katalysierte, decarboxylative 3-Komponentenreaktion aufzubauen und zu etablieren. Dabei bieten Arylcarbonsäuren als Schlüsselkomponenten in einem decarboxylativen Konzept mit Palladium eine kostengünstigere und umweltfreundlichere Alternative zu den bisher bestehenden Methoden mit Organoboronsäuren oder anderer Organometall-Spezies. Überraschenderweise konnte im Zuge der Untersuchungen zur Substratbreite der Aldehyd-Komponente eine direkte, decarboxylative Addition zwischen den eingesetzten Arylcarbonsäuren und den verschiedenen Glyoxylsäureestern beobachtet werden. Dabei eröffnete diese Methode in ersten Untersuchungen eine interessante Möglichkeit zur Darstellung entsprechender Mandelsäurederivate.
Ziel dieser Arbeit ist die Entwicklung einer optimierungsbasierten Betriebsstrategie von
Plug-In-Hybridfahrzeugen (PHEV), welche basierend auf Vorausschauinformationen die
Freiheitsgrade Lastpunktverschiebung und Motor-An/Aus-Entscheidung kraftstoffoptimal
einstellt. Der Hauptfokus der Arbeit liegt dabei auf der Entwicklung einer echtzeitfähigen
Strategie für Serienfahrzeuge. Hierfür wird ein neuartiger Ansatz auf Basis des Minimumprinzips
nach Pontryagin (PMP) vorgestellt, durch welchen die Freiheitsgrade des
PHEV kraftstoffoptimal eingestellt werden können. Dabei werden Informationen über die
vorausliegende Strecke effizient berücksichtigt. Die Qualität der in der Realität verfügbaren
Vorausschaudaten stellt jedoch eine besondere Herausforderung dar, da dadurch zwei in
der Praxis besonders relevante Aspekte auftreten: 1) Bei der Verwendung von PMP können
durch das besonders starke Auftreten sogenannter Singularitäten die Randbedingungen
des Optimalsteuerungsproblems nicht exakt eingehalten werden. Um dieses Problem zu
lösen, wurde in dieser Arbeit eine neuartige, PMP basierte Methodik entwickelt. 2) Die
für die Optimierung zur Verfügung stehenden Informationen sind zwangsweise unsicher,
und das reale Fahrzeugverhalten weicht von dem der Navi-Vorausschau ab. Um mit
dieser Unsicherheit umgehen zu können, wurde in dieser Arbeit eine Feedback-Struktur
entwickelt, welche eine Anpassung der Strategie auf ein abweichendes Fahrzeugverhalten
ermöglicht. Des Weiteren wurde eine Verallgemeinerung der vorgestellten PMP-Methodik
entwickelt, wodurch eine Integration von Motorstartkosten und externen Anforderungen
an die Motor-An/Aus-Entscheidung ermöglicht werden kann. Zu diesem Zweck wurde eine
Kombination von Dynamischer Programmierung und PMP betrachtet. Die entwickelten
Strategien wurden sowohl in der Simulation wie auch auf einem Prüfstand analysiert und
validiert. Abschließend wurde hierfür ein Vergleich mit regelbasierten Betriebsstrategien
vorgestellt. Dabei konnte ein deutlicher Verbrauchsvorteil durch die Verwendung der
entwickelten, optimierungsbasierten Betriebsstrategie ausgewiesen werden.
Die vorliegende Bachelorarbeit beleuchtet den Status quo der kooperativen Zusammenarbeit in deutschen Kollegien. Zunächst wird der Begriff der Kooperation aus einer theoretischen Sicht beleuchtet, ehe qualitative Interviews mit Lehrkräften über die Kooperationskultur an ihrer Schule ausgewertet werden.
Risk management is an indispensable component of the financial system. In this context, capital requirements are built by financial institutions to avoid future bankruptcy. Their calculation is based on a specific kind of maps, so-called risk measures. There exist several forms and definitions of them. Multi-asset risk measures are the starting point of this dissertation. They determine the capital requirements as the minimal amount of money invested into multiple eligible assets to secure future payoffs. The dissertation consists of three main contributions: First, multi-asset risk measures are used to calculate pricing bounds for European type options. Second, multi-asset risk measures are combined with recently proposed intrinsic risk measures to obtain a new kind of a risk measure which we call a multi-asset intrinsic (MAI) risk measure. Third, the preferences of an agent are included in the calculation of the capital requirements. This leads to another new risk measure which we call a scalarized utility-based multi-asset (SUBMA) risk measure.
In the introductory chapter, we recall the definition and properties of multi-asset risk
measures. Then, each of the aforementioned contributions covers a separate chapter. In
the following, the content of these three chapters is explained in more detail:
Risk measures can be used to calculate pricing bounds for financial derivatives. In
Chapter 2, we deal with the pricing of European options in an incomplete financial market
model. We use the common risk measures Value-at-Risk and Expected Shortfall to define
good deals on a financial market with log-normally distributed rates of return. We show that the pricing bounds obtained from Value-at-Risk may have a non-smooth behavior under parameter changes. Additionally, we find situations in which the seller's bound for a call option is smaller than the buyer's bound. We identify the missing convexity of the Value-at-Risk as main reason for this behavior. Due to the strong connection between the obtained pricing bounds and the theory of risk measures, we further obtain new insights in the finiteness and the continuity of multi-asset risk measures.
In Chapter 3, we construct the MAI risk measure. Therefore, recall that a multi-asset risk measure describes the minimal external capital that has to be raised into multiple eligible assets to make a future financial position acceptable, i.e., that it passes a capital adequacy test. Recently, the alternative methodology of intrinsic risk measures
was introduced in the literature. These ask for the minimal proportion of the financial position that has to be reallocated to pass the capital adequacy test, i.e., only internal capital is used. We combine these two concepts and call this new type of risk measure an MAI risk measure. It allows to secure the financial position by external capital as well as reallocating parts of the portfolio as an internal rebooking. We investigate several properties to demonstrate similarities and differences to the two
aforementioned classical types of risk measures. We find out that diversification reduces
the capital requirement only in special situations depending on the financial positions. With the help of Sion's minimax theorem we also prove a dual representation for MAI risk measures. Finally, we determine capital requirements in a model motivated by the Solvency II methodology.
In the final Chapter 4, we construct the SUBMA risk measure. In doing so, we consider the situation in which a financial institution has to satisfy a capital adequacy test, e.g., by the Basel Accords for banks or by Solvency II for insurers. If the financial situation of this institution is tight, then it can happen that no reallocation of the initial
endowment would pass the capital adequacy test. The classical portfolio optimization approach breaks down and a capital increase is needed. We introduce the SUBMA risk measure which optimizes the hedging costs and the expected utility of the institution simultaneously subject to the capital adequacy test. We find out that the SUBMA risk measure is coherent if the utility function has constant relative risk aversion and the capital adequacy test leads to a coherent acceptance set. In a one-period financial market model we present a sufficient condition for the SUBMA risk measure to be finite-valued and continuous. Finally, we calculate the SUBMA risk measure in a continuous-time financial market model for two benchmark capital adequacy tests.
Schnelllebige Umfeld-Dynamiken wie VUCA, neue Arbeitswelten und digitale Arbeit fordern spätestens seit Beginn der weltweiten COVID 19-Krise im Jahre 2020 adaptive Veränderungen und umfangreichen Wandel von und in Organisationen.
Aktuell zeigen die Veränderungsansätze und Methoden beratender Personen der Organisationsentwicklung oft auf, was alles zur Zielerreichung in den Fokus gestellt werden soll. Das heißt, es ist bekannt welche nach vorwärts gerichteten Veränderungen mit welchen Maßnahmen auf welchen Ebenen benötigt werden, ergänzt um welches Wissen und mit welchen Lernprozessen, das zur und bei Erreichung des Zieles aller Beteiligten als veränderte Kompetenzen und eingenommene Haltungen erforderlich ist. Erst wenn alles erfüllt ist, ist die Organisation am gewünschten Ziel angekommen. Es wird für und während dem Wandel viel Neues gelernt werden müssen. Einerseits wirken die bisherigen Haltungen, Verhalten, Denkweisen, Deutungsmuster, Routinen, Gewohnheiten, Wissensbestände nach wie vor bei den Beteiligten in den Wandelprozess ein, so auch in die Zeit nach der Zielerreichung. Die alte Welt schwingt noch mit und zeigt sich womöglich in unterschiedlichen Ausprägungen als Stolpersteine, vielleicht als Widerstände, als Wandlungsunflexibilität oder deutet sich gar als Wandlungsresistent. Dabei eröffnet sich die Frage „Wie kann eine Organisation das Bisherige loslassen, zurück- oder hinter sich lassen, wenn es rund um die Verhalten, Deutungsmuster, Traditionen und Allteingefahrenes dreht, die sich als Bestandteile einer bisherigen und nun zu wandelnden Organisationsidentität erweisen?“.
Für Organisationen und womöglich auch für die Beteiligten wäre es vorteilhaft, die bisher einwirkenden Faktoren als bislang zweckmäßig anzuerkennen und verabschiedend loszulassen. Das Loslassen und damit eine ermöglichende Wandlung von Haltungen, Wissen, Routinen, Gewohnheiten und Verhalten steht daher im Interesse von Organisationen und der Organisationsentwicklung. Damit würde Bestehendes verlernt, sofern dies in einem organisationalen Kontext erfassbar wäre. Daher wird für diese Arbeit ein Wandelprozess als Kontext angenommen, der auf New Work hinweist.
In der Zielsetzung und im Interesse dieser Arbeit steht daher, ob und wie Konzepte und Ansätze eines „Verlernens“ in Organisationen aus Sicht der OE praktisch genutzt und unterstützend einwirken könnten. Die Masterarbeit verfolgt die Forschungsfrage, deren Beantwortung Ziel der Arbeit darstellt:
„Wie lassen sich Ansätze des Verlernens für die Anwendung in der Organisationsentwicklung nutzen?“
By mapping the boundaries of Kant’s categorical imperative to the point where it permits the committing of a crime against Hume’s three principles of justice, it shall be demonstrated how far the area is in which these two concepts persist alongside each other and how narrow the border zone is in which they do not. Indeed, the latter is a forbidden place that can only be accessed through destiny and never by choice. Whoever is witnessed to stay there, must wish for Justice to draw her sword against him, and whoever dares to try reaching it, will only wander about a deserted land where both justice and morality are left behind.
This thesis reports about the investigation of di- and trinuclear coinage metal (Cu, Ag, Au) phosphine complexes with different anion adducts. Several mass spectrometric methods were utilized to investigate the complexes in gas phase without disturbing influences e.g. by the solvent. Electrospray Ionization (ESI) enabled the transfer of ions into the gas phase. In order to determine the fragmentation pathways and relative gas phase stabilities of these ions, Collision Induced Dissociation (CID) was used. The binding motifs and structures of the complexes were assigned by the help of Infrared (Multiple) Photon Dissociation (IR-(M)PD) at cryo (40 K, N2-tagged) and room temperature (300 K). Electron Transfer Dissociation/Reduction (ETD/R) was used to reduce the dicationic complexes to monocationic complexes. A tunable OPO/OPA laser system and the FELIX free-electron laser were used as IR laser sources. All experimental findings were supported by Density Functional Theory (DFT) calculation. In the first part of this thesis, the binding motifs and fragmentation behavior of the dinuclear coinage metal phosphine complexes with formate adduct were determined. Two different binding motifs were found and a stronger Cu-formate binding than in the case of Ag-formate. The dynamic bonding of hydrogen oxalate to phosphine ligand stabilized complexes were investigated in the second part. Several different binding motifs were determined. IR induced isomeric interconversions were found for the Ag complex whereas in case of the Cu complex a stiff hydrogen oxalate coordination seems to suppress such conversions. In the last part of this thesis, the ETD/R method was utilized to unravel the influence of oxidation states on the hydride and deuteride vibration modes of the trinuclear coinage metal complexes as well as the O2 adduct complexes and fragments with less complexity via IR-MPD and the FELIX free-electron laser. Unfortunately, an unambiguous assignment for the hydride and deuteride vibration modes is only possible for the fragments with less complexity.
The main objects of study in this thesis are abelian varieties and their endomorphism rings. Abelian varieties are not just interesting in their own right, they also have numerous applications in various areas such as in algebraic geometry, number theory and information security. In fact, they make up one of the best choices in public key cryptography and more recently in post-quantum cryptography. Endomorphism rings are objects attached to abelian varieties. Their computation plays an important role in explicit class field theory and in the security of some post-quantum cryptosystems.
There are subexponential algorithms to compute the endomorphism rings of abelian varieties of dimension one and two. Prior to this work, all these subexponential algorithms came with a probability of failure and additional steps were required to unconditionally prove the output. In addition, these methods do not cover all abelian varieties of dimension two. The objective of this thesis is to analyse the subexponential methods and develop ways to deal with the exceptional cases.
We improve the existing methods by developing algorithms that always output the correct endomorphism ring. In addition to that, we develop a novel approach to compute endomorphism rings of some abelian varieties that could not be handled before. We also prove that the subexponential approaches are simply not good enough to cover all the cases. We use some of our results to construct a family of abelian surfaces with which we build post-quantum cryptosystems that are believed to resist subexponential quantum attacks - a desirable property for cryptosystems. This has the potential of providing an efficient non interactive isogeny based key exchange protocol, which is also capable of resisting subexponential quantum attacks and will be the first of its kind.
Moderne Mikrostrukturierungsverfahren können dazu genutzt werden, die Eigenschaften von Bauteiloberflächen zu verändern und für bestimmte Anwendungsfälle gezielt zu optimieren. Gleichzeitig ist die Beschaffenheit einer Oberfläche von entscheidender Bedeutung für die Initiierung von Ermüdungsrissen. Im Rahmen dieser Arbeit wurden miniaturisierte Proben aus alpha-Titan mit drei verschiedenen Korngrößen, deren Oberflächen mithilfe von vier Mikrostrukturierungsverfahren modifiziert wurden, untersucht und die Einflussfaktoren auf die Schädigungsentwicklung unter zyklischer Beanspruchung eruiert.
Dafür wurden Methoden zur Charakterisierung der Oberflächenmorphologie (Topographie, Korngröße und kristallographische Orientierung) der Proben entwickelt. Die daraus abgeleiteten Informationen wurden für die Detektion kritischer Bereiche genutzt, in denen die Ermüdungsrissinitiierung vorzugsweise auftritt.
Die Untersuchungen zeigen, dass sich der Rissinitiierungsort anhand der entwickelten Methoden basierend auf Topographiedaten für Probenzustände bestimmen lässt, bei denen die Topographie den Rissinitiierungsort determiniert und bei denen folglich auch die Wechselfestigkeit aufgrund der Oberflächenstrukturierung reduziert ist. Für Probenzustände, bei denen die Rissinitiierung nicht an topographischen Merkmalen erfolgt, wird der Rissinitiierungsort durch lokale mikrostrukturelle Charakteristika bestimmt und konnte im Rahmen der vorliegenden Arbeit mit der Korngröße und der kristallographischen Orientierung korreliert werden.
Membrane proteins are of high pharmacological interest as they are involved in a variety of vital functions. However, to make them accessible to in vitro studies, they often need to be extracted from their natural lipid environment and stabilized with the aid of membrane-mimetic systems. Such membrane mimics can consist of diverse amphiphilic molecules. Small-molecule amphiphiles that can solubilize lipid bilayers, so-called detergents, have been invaluable tools for membrane-protein research in recent decades. Herein, novel small-molecule glyco-amphiphiles embodying three distinct design principles are introduced, and their biophysical and physicochemical properties are investigated. In doing so, the major aims consist in establishing new promising amphiphiles and in determining structure–efficacy relationships for their synthesis and application.
First, the software package D/STAIN was introduced to facilitate the analysis of demicellization curves obtained by isothermal titration calorimetry. The robustness of the underlying algorithm was demonstrated by analyzing demicellization curves representing large variations in amphiphile concentrations and thermodynamic parameters.
Second, the interactions of diastereomeric cyclopentane maltoside amphiphiles (CPMs) with lipid bilayers and membrane proteins were investigated. To this end, lipid model membranes, cellular membranes, and model membrane proteins were treated with different stereoisomer CPMs. These investigations pointed out the importance of stereochemical configuration in the solubilization of lipid bilayers, in the extraction of membrane proteins, and, ultimately, in the stabilization of the latter. Ultimately, CPM C12 could be identified as a particularly stabilizing agent.
Third, the influence of a polymerizable group attached to detergent-like amphiphiles was characterized regarding their micellization, micellar properties, and ability to solubilize lipid membranes. This revealed that such chemical modifications can have different degrees of impact regarding the investigated properties. In particular, micellization was influenced substantially, whereas the sizes of the resulting micelles varied slightly. The polymerizable amphiphiles were shown to solubilize artificial and natural lipid membranes and, consequently, to extract membrane proteins.
Last, the self-assembly of diglucoside amphiphiles bearing either a hydrocarbon or a lipophobic fluorocarbon chain to form native nanodiscs was investigated. It was shown that the presence of a fluorocarbon hydrophobic chain conveys superior stabilization properties onto the amphiphile and the resulting nanodiscs. Moreover, the kinetics of lipid exchange were fundamentally altered by the presence of the fluorocarbon amphiphiles in the nanodisc rim.
Der Bericht umfasst sechs Beiträge von Studierende der Karl-Franzenz-Universität Graz, die sich im Wintersemester 2021/2021 mit Fragen der Digitalisierung der Erwachsenenbildung in Österreich auseinandergesetzt haben. In diesem Rahmen wurden die Themenfelder Lernen und Lehren mit digitalen Medien, die medienpädagogische Professionalisierung von Erwachsenenbilnder:innen, die Digitalisierung der Anbieter sowie die Digitalisierung als Inhalt in den Angeboten und der (Weiter- )Bildungspolitik beleuchtet. Dabei wurde zum einen vorliegende Forschungsarbeiten ausgewertet, also auch ergänzende Recherchen auf durchgeführt, um die Datengrundlage zu verbessern. Allgemein wurde deutlich, dass die Forschungslage noch keine befriedigenden Rückschlüsse auf den Digitalisierungsprozess und dessen Wirkungen auf die Erwachsenenbildung/Weiterbildung in Österreich zulassen. Insofern stellt die hier vorliegende Zusammenstellen ein wichtigen Beitrag dar, die vorliegenden Desiderata zu identifizieren.
Industrial manufacturing companies have different IT control functions that can be represented with a so-called hierarchical automation pyramid. While these conventional software systems especially support the mass production with consistent demand, the future project “Industry 4.0” focuses on customer-oriented and adaptable production processes. In order to move from conventional production systems to a factory of the future, the control levels must be redistributed. With the help of cyber-physical production systems, an interoperable architecture must be, implemented which removes the hierarchical connection of the former control levels. The accompanied digitalisation of industrial companies makes the transition to modular production possible. At the same time, the requirements for production planning and control are increasing, which can be solved with approaches such as multi-agent systems (MASs). These software solutions are autonomous and intelligent objects with a distinct collaborative ability. There are different modelling methods, communication and interaction structures, as well as different development frameworks for these new systems. Since multi-agent systems have not yet been established as an industrial standard due to their high complexity, they are usually only tested in simulations. In this bachelor thesis, a detailed literature review on the topic of MASs in the field of production planning and control is presented. In addition, selected multi-agent approaches are evaluated and compared using specific classification criteria. In addition, the applicability of using these systems in digital and modular production is assessed.
Die Arbeit behandelt das facettenreiche Gebiet des steuerlichen Verlustabzugs, namentlich die konkrete Ausgestaltung des Verlustvortrags. Neben der verfassungsrechtlichen Würdigung der relevanten Normen legt die Autorin besonderen Wert auf die Frage, wie § 10d EStG im Sinne eines kohärenten Verlustabzugssystems auszugestalten sei. Auch die Verwerfungen der Corona-Krise haben im Bereich des Untersuchungsgegenstandes rege gesetzgeberische Tätigkeit ausgelöst. Die Verfasserin nimmt dies zum Anlass, pandemiebedingte Änderungen gesondert auf Rechtmäßigkeit wie auch ökonomische Wirksamkeit zu prüfen und die Vereinbarkeit der Neuerungen mit dem bestehenden Normsystem zu hinterfragen.
In recent months, sustainable development and the achievement of the United Nations Sus- tainable Development Goals has gained unprecedented prominence. SDG 7 aspires to achieve access to electricity for the entire world population by 2030 and - at the same time - to significantly increase the share of renewable energy in the power mix. This target trans- lates into ambitious electricity supply and renewable energy asset growth scenarios for Sub- Saharan Africa, the least developed region worldwide. Though theoretical renewable energy potential is abundant and capital generally available, progress has been slow. Aside funds from donors and Development Finance Institutions, private commercial capital is required to accelerate the progress. Project Finance has successfully attracted private funds for renew- able energy assets in other jurisdictions but has played a negligible role in the energy tran- sition in Sub-Saharan Africa. A variety of reasons are identified that impede their implemen- tation, which are categorised into (i) unsatisfactory project pre-requisites and preparation, (ii) challenging host country conditions, (iii) elevated non-financial project risks and (iv) risky financial transaction structures. While a review of potential mitigation measures reveals that the risk factors are theoretically addressable, most require a multi-stakeholder alignment and exhibit some implementation complexity. Putting them into practice will therefore take time and will require a high level of commitment from host governments, sponsors, and fi- nancial institutions. While pressure and urgency are mounting, time will tell whether the pro- ject parties are more successful going forward.
In the field of measurement technology, the use of unmanned aerial vehicles is becoming more and more popular. For many measurement tasks, the use of such devices offers many advantages in terms of cost and measurement effort. However, the occurring vibrations and disturbances are a significant disadvantage for the application of these devices for several measurement tasks. Within the scope of this work, a platform for measurement devices is developed. The platform is designed specifically for use on drones. The task of the platform is to isolate measurement equipments mounted on it from the drone disturbances. For this purpose we go through the product development process according to VDI 2221 to design a mechanical model of the platform. Then, control strategies are applied to isolate the platform. Since the disturbances acting on a drone are not always stationary, two control strategies known for their ability to handle uncertain systems are used. One of them comes from the field of acoustic.
Die Anbieter von Produkt-Service Systemen (PSS) im Investitionsgüterbereich unterliegen zunehmend dem Einfluss einer VUKA-Welt. Neue Technologien und Geschäftsmodelle, sich schnell ändernde Kundenbedürfnisse und der Einbezug vieler interner und externer Akteure resultieren in Komplexität, Unsicherheiten und kurzfristigen Änderungen, auf welche die PSS-Anbieter reagieren müssen, um frühzeitig entsprechende Lösungen anbieten zu können. Die PSS-Planung befasst sich mit der Identifikation und Spezifikation neuer PSS-Ideen. Die meisten Vorgehen zur PSS-Planung fokussieren auf die Planung von Sachprodukten, Serviceprodukten, unterstützender Infrastruktur und Netzwerke von Akteuren und binden den Kunden in die Planung ein. Durch die genannten Einflüsse der VUKA-Welt auf die Planung von PSS, muss diese an sich schnell ändernde Gegebenheiten angepasst werden. Agile Methoden der Softwareentwicklung bieten hierfür Potenziale. Insbesondere die Agile Methode Design Thinking, die den Kunden innerhalb eines kurzzyklischen Vorgehens in den Mittelpunkt der Entwicklungstätigkeiten stellt und auf die Entwicklung von Prototypen zur schnellen Realisierung von Lösungen setzt, bietet sich für den Einsatz in der PSS-Planung an. Die Arbeit befasst sich mit der Frage, wie Design Thinking in die PSS-Planung integriert werden kann, um zukünftig auf Änderungen adäquat reagieren zu können und gleichzeitig die Vorteile bestehender Ansätze, wie z. B. Kundenorientierung, nicht zu vernachlässigen. Dabei wird mit Hilfe eines Modellierungsansatzes eine Methode entwickelt, welches mit Rollen, Aktivitäten, Techniken und Ergebnissen den Einsatz von Design Thinking für die agile Planung von PSS ermöglicht, den Kunden an unterschiedlichen Stellen mit einbindet und Rücksprünge bei Änderungen erlaubt. Hervorzuheben ist, dass die Methode sowohl technologiegetrieben als auch marktgetrieben initiiert werden kann. Validiert wurde die Methode innerhalb eines Verbundprojekts bei der GRIMME Landmaschinenfabrik GmbH & Co. KG.
Der Terminus der „Geringqualifizierten“ ist eine ebenso verbreitete wie eingeschränkte Beschreibung einer heterogenen Zielgruppe, welche vor dem Hintergrund steigender arbeitsmarktbezogener Kompetenzanforderungen sowie des Zusammenhangs zwischen formalem Bildungsstatus und Risiken der Erwerbslosigkeit im Zentrum arbeitsmarktpolitischer Diskussionen steht. Geringqualifizierung drückt sich nicht nur im Fehlen formaler, berufsqualifizierender Abschlüsse aus, sondern besitzt angesichts sich dynamisch verändernder Arbeitsfelder und Anforderungen an die Qualifikation der Mitarbeitenden auch eine relative Dimension. So können vorhandene Kompetenzen aufgrund fehlender Aktualisierung veralten und damit als „zu gering“ eingestuft werden. Vor diesem Hintergrund nähert sich der Bericht der Personengruppe der Geringqualifizierten an, indem er bestehende Definitionen kritisch betrachtet, Verbindungen zu anderen Begriffen aufzeigt und aus den Erkenntnissen eine eigene relative Beschreibung ableitet. Ergänzt wird dieser Report durch die Betrachtung von Weiterbildungsangeboten für diese Zielgruppe.