Refine
Year of publication
- 2018 (178) (remove)
Document Type
- Doctoral Thesis (79)
- Article (31)
- Master's Thesis (20)
- Working Paper (19)
- Periodical Part (17)
- Conference Proceeding (6)
- Preprint (3)
- Report (2)
- Study Thesis (1)
Has Fulltext
- yes (178)
Keywords
- Angebotsentwicklung (8)
- Hochschulforschung (8)
- wissenschaftliche Weiterbildung (8)
- Wissenschaftliche Weiterbildung (7)
- Bedarfserschließung (5)
- Bedarfserhebung (4)
- Erwachsenenbildung (4)
- Digitalisierung (3)
- Visualization (3)
- Carbonsäuren (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Sozialwissenschaften (31)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (23)
- Kaiserslautern - Fachbereich Informatik (18)
- Kaiserslautern - Fachbereich Mathematik (18)
- Distance and Independent Studies Center (DISC) (17)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Universität (9)
- Kaiserslautern - Fachbereich Bauingenieurwesen (7)
Ziel der Arbeit war es die Verwendung von Modellen und Dokumenten im Produktentwick-lungsprozess vor dem Hintergrund der Aussage, dass sich die Produktentwicklung von einer modellbasierten zu einer dokumentbasierten wandelt, zu untersuchen. Die Betrach-tung von Modellen und Dokumenten auf allgemeiner Ebene hat ergeben, dass sich die beiden Konzepte rein anhand ihrer Definition, ihren Merkmalen und Funktionen nur schwer voneinander unterscheiden lassen und sich somit nicht gegenseitig ausschließen. Die fol-gende zweigeteilte kontextspezifische Untersuchung, zum einen mit dem Fokus auf die traditionelle Sicht der Produktentwicklung und zum anderen mit Fokus auf das Systems Engineering, hat gezeigt, dass in der traditionellen Produktentwicklung die Verwendung von Modellen überwiegt, diese jedoch in der Literatur überwiegend als Dokumente be-zeichnet werden, die Modelle enthalten können. Mit Bezug auf das Systems Engineering konnte eine Fehlbezeichnung bzgl. der Trennung in DBSE und MBSE festgestellt werden, da die Unterscheidung nicht direkt auf der Verwendung von Modellen und Dokumenten basiert, sondern auf einer anderen Art der Informationsübermittlung.
Berufliche Umbrüche sind Teil der Entwicklung eines Menschen. Sie berühren auch seine Persönlichkeit und seine Identität. Wann kann man von gelingender Identitätsentwicklung sprechen? Woran lässt sich diese festmachen? Kann berufsbiografische Diskontinuität einen gelingenden Beitrag zur Identitätsentwicklung darstellen? Und wenn ja, wie? Was bedeutet es, berufliche Umbrüche nicht nur anzunehmen, sondern auch zu gestalten, damit sie einen positiven Beitrag zur Identitätsentwicklung leisten? Welche Faktoren sind dafür förderlich? Und wie sollten diese Erkenntnisse in der erwachsenenbildnerischen Praxis berücksichtigt werden? Die Arbeit nimmt zunächst den Begriff der Identität in den Blick und wendet sich besonders dem Begriff der Anerkennung zu. Nach Betrachtungen zum Zusammenhang von Identität und Erwerbsarbeit sowie einem Überblick über die Phasen von Erwerbsbiografien werden erwachsenenpädagogische Überlegungen angestellt, die für Transitionsprozesse benötigte Kompetenzen ins Zentrum stellen und Konsequenzen für die Arbeit in Einrichtungen der Erwachsenenbildung darstellen.
The research problem is that the land-use (re-)planning process in the existing Egyptian cities
does not attain sustainability. This is because of the unfulfillment of essential principles within
their land-use structures, lack of harmony between the added and old parts in the cities, and
other reasons. This leads to the need for developing an assessment system, which is a
computational spatial planning support system-SPSS. This SPSS is used for identifying the
degree of sustainability attainment in land-uses plans, predicting probable problems, and
suggesting modifications in the evaluated plans.
The main goal is to design the SPSS for supporting sustainability in the Egyptian cities. The
secondary goals are: studying the Egyptian planning and administrative systems for designing
the technical and administrative frameworks for the SPSS, the development of an assessment
model from the SPSS for assessing sustainability in land-use structures of urban areas, as well
as the identification of the improvements required in the model and the recommendations for
developing the SPSS.
The theoretical part aims to design each of the administrative and technical frameworks of the
SPSS. This requires studying each of the main planning approaches, the sustainability in urban
land-use planning, and the significance of using efficient assessment tools for evaluating the
sustainability in this process. The added value of the planning support systems-PSSs for
planning and their role in supporting sustainability attainment in urban land-use planning are
discussed. Then, a group of previous examples in the sustainability assessment from various
countries (developed and developing countries) are selected, which have used various
assessment tools. This is to extract some learned lessons to be guides for the SPSS. And so,
the comprehensive technical framework for the SPSS is designed, which includes the suggested
methods and techniques that perform various stages of the assessment process.
The Egyptian context is studied regarding the planning and administration systems within the
Egyptian cities, as well as the spatial and administrative problems facing the sustainable
development. And so, the administrative framework for the SPSS is identified, which includes
the entities that should be involved in the assessment process.
The empirical part focuses on the design of a selected assessment model from the
comprehensive technical framework of the SPSS to be established as a minimized version from
it. This model is programmed in the form of a new toolbox within the ArcGIS™ software through
geoscripting using Python programming language to be applied for assessing the sustainability
attainment in the land-use structure of urban areas. The required assessing criteria for the model
specialized for the Egyptian and German cities are identified, for applying it on German and
Egyptian study areas.
The conclusions regarding each of PSSs, the Egyptian local administration and planning
systems, sustainability attainment in the land-use planning process in Egyptian Cities, as well as
the proposed SPSS and the developed toolbox are drawn. The recommendations are regarding
each of challenges facing the development and application of PSSs, the Egyptian local
administration and planning systems, the spatial problems in Egyptian cities, the establishment
of the SPSS, and the application of the toolbox. The future agenda is in the fields of sustainable urban land-use planning, planning support science, and the development process in the
Egyptian cities.
Neuronal inhibition is mediated by glycine and/or GABA. Inferior colliculus (IC) neurons receive glycinergic and GABAergic
inputs, whereas inhibition in hippocampus (HC) predominantly relies on GABA. Astrocytes heterogeneously
express neurotransmitter transporters and are expected to adapt to the local requirements regarding neurotransmitter
homeostasis. Here we analyzed the expression of inhibitory neurotransmitter transporters in IC and HC astrocytes using
whole-cell patch-clamp and single-cell reverse transcription-PCR. We show that most astrocytes in both regions expressed
functional glycine transporters (GlyTs). Activation of these transporters resulted in an inward current (IGly) that
was sensitive to the competitive GlyT1 agonist sarcosine. Astrocytes exhibited transcripts for GlyT1 but not for
GlyT2. Glycine did not alter the membrane resistance (RM) arguing for the absence of functional glycine receptors (GlyRs).
Thus, IGly was mainly mediated by GlyT1. Similarly, we found expression of functional GABA transporters (GATs) in all IC
astrocytes and about half of the HC astrocytes. These transporters mediated an inward current (IGABA) that was sensitive to
the competitive GAT-1 and GAT-3 antagonists NO711 and SNAP5114, respectively. Accordingly, transcripts for GAT-1 and
GAT-3 were found but not for GAT-2 and BGT-1. Only in hippocampal astrocytes, GABA transiently reduced
RM demonstrating the presence of GABAA receptors (GABAARs). However, IGABA was mainly not contaminated
by GABAAR-mediated currents as RM changes vanished shortly after GABA application. In both regions, IGABA
was stronger than IGly. Furthermore, in HC the IGABA/IGly ratio was larger compared to IC. Taken together, our
results demonstrate that astrocytes are heterogeneous across and within distinct brain areas. Furthermore, we
could show that the capacity for glycine and GABA uptake varies between both brain regions.
1,3-Diynes are frequently found as an important structural motif in natural products, pharmaceuticals and bioactive compounds, electronic and optical materials and supramolecular molecules. Copper and palladium complexes are widely used to prepare 1,3-diynes by homocoupling of terminal alkynes; albeit the potential of nickel complexes towards the same is essentially unexplored. Although a detailed study on the reported nickel-acetylene chemistry has not been carried out, a generalized mechanism featuring a nickel(II)/nickel(0) catalytic cycle has been proposed. In the present work, a detailed mechanistic aspect of the nickel-mediated homocoupling reaction of terminal alkynes is investigated through the isolation and/or characterization of key intermediates from both the stoichiometric and the catalytic reactions. A nickel(II) complex [Ni(L-N4Me2)(MeCN)2](ClO4)2 (1) containing a tetradentate N,N′-dimethyl-2,11-diaza[3.3](2,6)pyridinophane (L-N4Me2) as ligand was used as catalyst for homocoupling of terminal alkynes by employing oxygen as oxidant at room temperature. A series of dinuclear nickel(I) complexes bridged by a 1,3-diyne ligand have been isolated from stoichiometric reaction between [Ni(L-N4Me2)(MeCN)2](ClO4)2 (1) and lithium acetylides. The dinuclear nickel(I)-diyne complexes [{Ni(L-N4Me2)}2(RC4R)](ClO4)2 (2) were well characterized by X-ray crystal structures, various spectroscopic methods, SQUID and DFT calculation. The complexes not only represent as a key intermediate in aforesaid catalytic reaction, but also describe the first structurally characterized dinuclear nickel(I)-diyne complexes. In addition, radical trapping and low temperature UV-Vis-NIR experiments in the formation of the dinuclear nickel(I)-diyne confirm that the reactions occurring during the reduction of nickel(II) to nickel(I) and C-C bond formation of 1,3-diyne follow non-radical concerted mechanism. Furthermore, spectroscopic investigation on the reactivity of the dinuclear nickel(I)-diyne complex towards molecular oxygen confirmed the formation of a mononuclear nickel(I)-diyne species [Ni(L-N4Me2)(RC4R)]+ (4) and a mononuclear nickel(III)-peroxo species [Ni(L-N4Me2)(O2)]+ (5) which were converted to free 1,3-diyne and an unstable dinuclear nickel(II) species [{Ni(L-N4Me2)}2(O2)]2+ (6). A mononuclear nickel(I)-alkyne complex [Ni(L-N4Me2)(PhC2Ph)](ClO4).MeOH (3) and the mononuclear nickel(III)-peroxo species [Ni(L-N4Me2)(O2)]+ (5) were isolated/generated and characterized to confirm the formulation of aforementioned mononuclear nickel(I)-diyne and mononuclear nickel(III)-peroxo species. Spectroscopic experiments on the catalytic reaction mixture also confirm the presence of aforesaid intermediates. Results of both stoichiometric and catalytic reactions suggested an intriguing mechanism involving nickel(II)/nickel(I)/nickel(III) oxidation states in contrast to the reported nickel(II)/nickel(0) catalytic cycle. These findings are expected to open a new paradigm towards nickel-catalyzed organic transformations.
Der vorliegende Bericht beschreibt die Entwicklung von Hochschulzertifikaten des Projekts E-hoch-B – Pflege und Gesundheit und ordnet diese in den Projektzusammenhang ein. Die Methodik der Angebotsentwicklung wird zunächst generell und darauf aufbauend spezifisch für das Zertifikat Ethik und Recht in gemeindenaher Gesundheitsversorgung beschrieben.
Die Beschreibungen der Kompetenzen, Überlegungen zum Tätigkeitsfeld und die Verknüpfung der Ergebnisse der Bedarfserhebungen mit den konkreten Inhalten des Zertifikats bilden den Schwerpunkt des Berichts. Abschließend werden didaktische Überlegungen zur Gestaltung des Zertifikats und zur Prüfungsform transparent gemacht.
Der vorliegende Bericht beschreibt die Entwicklung und Inhalte des Hochschulzertifikats Versorgungsstrategien und psychosoziale Unterstützung für ein Leben mit Demenz zu Hause im Kontext des Projekts E-hoch-B – Pflege und Gesundheit.
Zunächst wird das Vorgehen im Rahmen der Angebotsentwicklung beschrieben. Die Darstellung der Kompetenzen, Überlegungen zum Tätigkeitsfeld und die Verknüpfung der Ergebnisse der Bedarfserhebungen mit den konkreten Inhalten des Zertifikats bilden den Schwerpunkt des Berichts. Abschließend werden didaktische Überlegungen zur Gestaltung des Zertifikats und zur Prüfungsform transparent gemacht.
Grape powdery mildew, Erysiphe necator, is one of the most significant plant pathogens, which affects grape growing regions world-wide. Because of its short generation time and the production of large amounts of conidia throughout the season, E. necator is classified as a moderate to high risk pathogen with respect to the development of fungicide resistance. The number of fungicidal mode of actions available to control powdery mildew is limited and for some of them resistances are already known. Aryl-phenyl-ketones (APKs), represented by metrafenone and pyriofenone, and succinate-dehydrogenase inhibitors (SDHIs), composed of numerous active ingredients, are two important fungicide classes used for the control of E. necator. Over the period 2014 to 2016, the emergence and development of metrafenone and SDHI resistant E. necator isolates in Europe was followed and evaluated. The distribution of resistant isolates was thereby strongly dependent on the European region. Whereas the north-western part is still predominantly sensitive, samples from east European countries showed higher resistance frequencies.
Classical sensitivity tests with obligate biotrophs can be challenging regarding sampling, transport and especially the maintenance of the living strains. Whenever possible, molecular genetic methods are preferred for a more efficient monitoring. Such methods require the knowledge of the resistance mechanisms. The exact molecular target and the resistance mechanism of metrafenone is still unknown. Whole genome sequencing of metrafenone sensitive and resistant wheat powdery mildew isolates, as well as adapted laboratory mutants of Aspergillus nidulans, where performed with the aim to identify proteins potentially linked to the mode of action or which contribute to metrafenone resistance. Based on comparative SNP analysis, four proteins potentially associated with metrafenone resistance were identified, but validation studies could not confirm their role in metrafenone resistance. In contrast to APKs, the mode of action of SDHIs is well understood. Sequencing of the sdh-genes of less sensitive E. necator isolates identified four different target-site mutations, the B-H242R, B-I244V, C-G169D and C-G169S, in sdhB and sdhC, respectively. Based on this information it was possible to develop molecular genetic monitoring methods for the mutations B-H242R and C-G169D. In 2016, the B-H242R was thereby identified as by far the most frequent mutation. Depending on the analysed SDH compound and the sdh-genotype, different sensitivities were observed and revealed a complex cross-resistance pattern.
Growth competition assays without selection pressure, with mixtures of sensitive and resistant E. necator isolates, were performed to determine potential fitness costs associated with fungicide resistance. With the experimental setups used, a clear fitness disadvantage associated with metrafenone resistance was not identified, although a strong variability of fitness was observed among the tested resistant E. necator isolates. For isolates with a reduced sensitivity towards SDHIs, associated fitness costs were dependent on the sdh-genotype analysed. Competition tests with the B-H242R genotypes gave evidence that there are no fitness costs associated with this mutation. In contrast, the C-G169D genotypes were less competitive, indicating a restricted fitness compared to the tested sensitive partners. Competition assays of field isolates, which exhibited several resistances towards different fungicide classes, indicated that there are no fitness costs associated with a multiple resistant phenotype in E. necator. Overall, these results clearly indicate the importance to analyse a representative number of isolates with sensitive and resistant phenotypes.
Funktion des C-terminalen Tryptophans cytosolischer Eisen-Schwefel-Proteine bei deren Assemblierung
(2018)
Eisen-Schwefel (Fe/S)-Cluster sind als essentielle Cofaktoren zahlreicher Proteine in allen Domänen des Lebens vertreten. In eukaryotischen Zellen sind ca. 50 cytosolische und nucleäre Fe/S-Proteine an lebenswichtigen Prozessen, wie der DNA-Replikation und Reparatur, Transkription, tRNA-Modifizierung, Ribosomenassemblierung und metabolischen Stoffwechselwegen, beteiligt. Die Biosynthese und die Insertion der Fe/S-Cluster in Apoproteine erfolgt durch die cytosolische Eisen-Schwefel-Protein-Assemblierungs-maschinerie (CIA). Daran sind nach aktuellem Kenntnisstand elf Faktoren beteiligt. Die zugrunde liegenden Mechanismen sind auf molekularer Ebene jedoch noch nicht aufgeklärt. So ist die Erkennung der Apoproteine durch den CIA-Targeting-Komplex bisher nahezu unerforscht. Molekulare Erkennungsfaktoren, eingebettet in der Primärsequenz der cytosolischen und nucleären Targetproteine, wurden bisher nicht beschrieben.
In bioinformatischen Analysen wurde das Tripeptid L(D/E)W am C-Terminus von cytosolischen und nucleären Fe/S-Proteinen identifiziert. Vor allem der Tryptophanrest ist auffällig hoch konserviert. Auf Grund des geringen Vorkommens dieser Aminosäure im eukaryotischen Proteom ist dieses frequente Auftreten von Interesse. Zunächst wurde der Einfluss des C-terminalen Tripeptides auf den Einbau des Fe/S-Clusters in die cytosolischen Apoproteine Leu1, Nar1 und Apd1 im Modellorganismus S. cerevisiae untersucht. C-terminal gekürzte bzw. mutierte Proteinvarianten zeigen in Enzymaktivitätsmessungen, 55Fe-Einbau-Experimenten und Wachstumsuntersuchungen einen Defekt im Clustereinbau. Im Gegensatz dazu hat das Tryptophan bei der Reifung der Isopropylmalat-Isomerase (IPMI, Leu1) in E. coli bzw. bei der chemischen Rekonstitution gereinigter Proteine keine Bedeutung, sodass eine Verbindung des Peptidmotives zur CIA-Maschinerie postuliert wird. Im zweiten Teil wurden Interaktionsstudien zwischen Targetproteinen bzw. Peptiden und den Proteinen des CIA-Targeting-Kompexes Cia1, Cia2 und Met18 durchgeführt. Als in vivo Verfahren wurden das Y2H- bzw. Y3H-System sowie die BioID angewendet. Neben Coimmunpräzipitation wurden auch Peptid-basierte in vitro Methoden wie Fluoreszenzanisotropie-Messungen, ITC und chemische Quervernetzung analysiert. Durch Depletionsstudien konnte gezeigt werden, dass das C-terminale Tryptophan insbesondere bei niedriger Cia1-Konzentration essentiell ist. Im dritten Teil war es möglich, die E. coli-IPMI durch Fusion mit der C-terminalen Sequenz der Hefe-IPMI im Hefecytosol funktionell zu exprimieren. Dieser Funktionstransfer ist abhängig von der CIA-Maschinerie. Dies ist von Bedeutung für die biotechnologische Anwendung von prokaryotischen Fe/S-Proteinen im Cytosol eukaryotischer Organismen. Diese Arbeit liefert, durch die Identifizierung des C-terminalen Tryptophans als Signalsequenz cytosolischer und nucleärer Fe/S-Proteine, einen wichtigen Beitrag zum Verständnis der Erkennung der Targetproteine durch die CIA-Maschinerie.
In this thesis we integrate discrete dividends into the stock model, estimate
future outstanding dividend payments and solve different portfolio optimization
problems. Therefore, we discuss three well-known stock models, including
discrete dividend payments and evolve a model, which also takes early
announcement into account.
In order to estimate the future outstanding dividend payments, we develop a
general estimation framework. First, we investigate a model-free, no-arbitrage
methodology, which is based on the put-call parity for European options. Our
approach integrates all available option market data and simultaneously calculates
the market-implied discount curve. We illustrate our method using stocks
of European blue-chip companies and show within a statistical assessment that
the estimate performs well in practice.
As American options are more common, we additionally develop a methodology,
which is based on market prices of American at-the-money options.
This method relies on a linear combination of no-arbitrage bounds of the dividends,
where the corresponding optimal weight is determined via a historical
least squares estimation using realized dividends. We demonstrate our method
using all Dow Jones Industrial Average constituents and provide a robustness
check with respect to the used discount factor. Furthermore, we backtest our
results against the method using European options and against a so called
simple estimate.
In the last part of the thesis we solve the terminal wealth portfolio optimization
problem for a dividend paying stock. In the case of the logarithmic utility
function, we show that the optimal strategy is not a constant anymore but
connected to the Merton strategy. Additionally, we solve a special optimal
consumption problem, where the investor is only allowed to consume dividends.
We show that this problem can be reduced to the before solved terminal wealth
problem.
We present a study comparing the effect of real-time wearable feedback with traditional training methods for cardiopulmonary resuscitation (CPR). The aim is to ensure that the students can deliver CPR with the right compression speed and depth. On the wearable side, we test two systems: one based on a combination of visual feedback and tactile information on a smart-watch and one based on visual feedback and audio information on a Google Glass. In a trial with 50 subjects (23 trainee nurses and 27 novices,) we compare those modalities to standard human teaching that is used in nurse training. While a single traditional teaching session tends to improve only the percentage of correct depth, it has less effect on the percentage of effective CPR (depth and speed correct at the same time). By contrast, in a training session with the wearable feedback device, the average percentage of time when CPR is effective improves by up to almost 25%.
For modeling approaches in systems biology, knowledge of the absolute abundances of cellular proteins is essential. One way to gain this knowledge is the use of quantification concatamers (QconCATs), which are synthetic proteins consisting of proteotypic peptides derived from the target proteins to be quantified. The QconCAT protein is labeled with a heavy isotope upon expression in E. coli and known amounts of the purified protein are spiked into a whole cell protein extract. Upon tryptic digestion, labeled and unlabeled peptides are released from the QconCAT and the native proteins, respectively, and both are quantified by LC-MS/MS. The labeled Q-peptides then serve as standards for determining the absolute quantity of the native peptides/proteins. Here we have applied the QconCAT approach to Chlamydomonas reinhardtii for the absolute quantification of the major proteins and protein complexes driving photosynthetic light reactions in the thylakoid membranes and carbon fixation in the pyrenoid. We found that with 25.2 attomol/cell the Rubisco large subunit makes up 6.6% of all proteins in a Chlamydomonas cell and with this exceeds the amount of the small subunit by a factor of 1.56. EPYC1, which links Rubisco to form the pyrenoid, is eight times less abundant than RBCS, and Rubisco activase is 32-times less abundant than RBCS. With 5.2 attomol/cell, photosystem II is the most abundant complex involved in the photosynthetic light reactions, followed by plastocyanin, photosystem I and the cytochrome b6/f complex, which range between 2.9 and 3.5 attomol/cell. The least abundant complex is the ATP synthase with 2 attomol/cell. While applying the QconCAT approach, we have been able to identify many potential pitfalls associated with this technique. We analyze and discuss these pitfalls in detail and provide an optimized workflow for future applications of this technique.
In recent years, enormous progress has been made in the field of Artificial Intelligence (AI). Especially the introduction of Deep Learning and end-to-end learning, the availability of large datasets and the necessary computational power in form of specialised hardware allowed researchers to build systems with previously unseen performance in areas such as computer vision, machine translation and machine gaming. In parallel, the Semantic Web and its Linked Data movement have published many interlinked RDF datasets, forming the world’s largest, decentralised and publicly available knowledge base.
Despite these scientific successes, all current systems are still narrow AI systems. Each of them is specialised to a specific task and cannot easily be adapted to all other human intelligence tasks, as would be necessary for Artificial General Intelligence (AGI). Furthermore, most of the currently developed systems are not able to learn by making use of freely available knowledge such as provided by the Semantic Web. Autonomous incorporation of new knowledge is however one of the pre-conditions for human-like problem solving.
This work provides a small step towards teaching machines such human-like reasoning on freely available knowledge from the Semantic Web. We investigate how human associations, one of the building blocks of our thinking, can be simulated with Linked Data. The two main results of these investigations are a ground truth dataset of semantic associations and a machine learning algorithm that is able to identify patterns for them in huge knowledge bases.
The ground truth dataset of semantic associations consists of DBpedia entities that are known to be strongly associated by humans. The dataset is published as RDF and can be used for future research.
The developed machine learning algorithm is an evolutionary algorithm that can learn SPARQL queries from a given SPARQL endpoint based on a given list of exemplary source-target entity pairs. The algorithm operates in an end-to-end learning fashion, extracting features in form of graph patterns without the need for human intervention. The learned patterns form a feature space adapted to the given list of examples and can be used to predict target candidates from the SPARQL endpoint for new source nodes. On our semantic association ground truth dataset, our evolutionary graph pattern learner reaches a Recall@10 of > 63 % and an MRR (& MAP) > 43 %, outperforming all baselines. With an achieved Recall@1 of > 34% it even reaches average human top response prediction performance. We also demonstrate how the graph pattern learner can be applied to other interesting areas without modification.
Aufgrund eines festgestellten Bedarfs unter den Studierenden des existenten Weiterbildungs-
studiengangs „Schulmanagement“ am DISC der TU Kaiserslautern, wurde die Entwicklung eines neuen Wahlpflichtmoduls zum Thema Medienpädagogik im Rahmen dieses Studien-
gangs initiiert. Der folgende Text legt die Schritte von der ersten Idee bis zur Implementierung in den Studiengang im Rahmen einer Erprobungsphase dar.
Der vorliegende Bericht fasst die Ergebnisse einer Online-Umfrage in pflegebezogenen Studiengängen an rheinland-pfälzischen Hochschulen und Universitäten zusammen. Ziel war es, Erkenntnisse zur Zusammensetzung der Studierendenschaft in den pflegebezogenen Studiengängen in Rheinland-Pfalzzu erhalten. Darüber hinaus sollten Erkenntnisse zu Bedürfnissen hinsichtlich der inhaltlichen, didaktischen und organisatorischen Gestaltung von Bildungsangeboten erlangt werden. Auch wurdenPräferenzen hinsichtlichhochschulischer Weiterbildung in Richtung erweiterter Pflegepraxis abgefragt.
Der Bericht stellt das methodische Vorgehen und die Ergebnisse quantitativer Studien zu Bildungsangeboten für erweiterte Pflege im gemeindenahen Bereich vor. Es wurden Pflegefachpersonen, Pflegedienstleitungen und Hausärzt_innen befragt.
Für alle drei Studienpopulationen erfolgt zunächst eine Beschreibung anhand der Basisdaten und eine Darstellung der Ergebnisse zu Zeitwünschen sowie zu vorstellbaren erweiterten Tätigkeiten. Das Interesse von Pflegefachpersonen an hochschulischen Bildungsangeboten wird aufgeführt, sowie die gestaltungsbezogenen Präferenzen von Pflegefachpersonen und Pflegedienstleitungen für hochschulische Weiterbildung.
Cutting-edge cancer therapy involves producing individualized medicine for many patients at the same time. Within this process, most steps can be completed for a certain number of patients simultaneously. Using these resources efficiently may significantly reduce waiting times for the patients and is therefore crucial for saving human lives. However, this involves solving a complex scheduling problem, which can mathematically be modeled as a proportionate flow shop of batching machines (PFB). In this thesis we investigate exact and approximate algorithms for tackling many variants of this problem. Related mathematical models have been studied before in the context of semiconductor manufacturing.
Die Zusammenarbeit von Menschen in Projekten ist geprägt von ihren persönlichen Erfahrungen und
Interessen im jeweiligen Umfeld. Dieses Umfeld − nennen wir es hier „System“ − hat wiederum eigene
Interessen und befindet sich in einem erweiterten Umfeld. Dieses Systemumfeld kann bis zum Erreichen
des Universums ausgedehnt werden. Die Notwendigkeit in großen Bauvorhaben, mit der Komplexität
umgehen zu können, setzt die Kenntnisse der Zusammenhänge und den Willen zum systemorientierten
Handeln voraus.
In einem Bauprojekt ist eine endliche Menge von handelnden Personen mit ihren jeweiligen Rollen,
Aufgaben und Abhängigkeiten in den sie umgebenden Systemen (Organisationen) vorhanden. Im
Wesentlichen werden die Hauptfunktionen in Projekten durch Bauherr, Planer und der ausführenden
Firma dargestellt. Eine besondere Rolle kommt hier dem Bauherrn bzw. seinen Erfüllungsgehilfen im
Projektmanagement zu. Projektmanager haben als einzige die Chance, von Anfang bis Ende den gesamten
Projektlebenszyklus zu erleben. Als Teil ihrer Aufgaben kümmern sie sich um die Zieldefinitionen
für Organisation, Qualitäten und Quantitäten, Termine, Kosten und rechtliche Rahmenbedingungen
und steuern die durch die Bauherren beauftragten Planer und ausführenden Firmen.
Die heute bei großen Bauvorhaben vorkommenden „fungierenden Bauherren“ und die „öffentlichen
Bauherren“ bestehen aus Bauherrenorganisationen mit einer Vielzahl von Akteuren. Hieraus erwächst
die Notwendigkeit, die zahlreichen Beteiligten mit ihren verschiedenen Organisationen in Bezug auf die
verschieden gelagerte Interessenlage zu koordinieren und zielorientiert zu führen. Durch die notwendige
Integration der weiteren Systemkreise von Planern und ausführenden Firmen entstehen neue,
zusätzliche Steuerungsaufgaben, und die Komplexität des Projektes steigt in Dimensionen, die ohne
systemorientierten Ansatz nur schwer zu durchschauen und somit kaum noch zu bewältigen ist.
Zur Klärung der Fragen, welche Gestalt die Komplexität in großen Bauvorhaben annehmen und wie
ein Projektmanager mit diesen Herausforderungen umgehen kann, zielte die Arbeit auf die Erforschung
der Grundlagen von Komplexität und die Analyse ihrer Auswirkungen auf das Bauprojektmanagement.
Das entstandene Modell basiert auf zwölf charakterisierenden Eigenschaften komplexer adaptiver Systeme
und bildet hieraus fünf Merkmale für den systemischen Aufbau und Ablauf von Bauvorhaben.
Berücksichtigt wird, wie die Elemente und Teilsysteme zueinander stehen, und obwohl sie unterschiedliche
Charakteristika bzw. Zustände aufweisen können, dennoch ein gemeinsames Verhalten erzeugen
und eine Identität zum Umfeld herausbilden können. Hierzu sind neben Struktur und Veränderungen
in einem komplexen System auch die Wahrnehmungen und das Verhalten der Beteiligten sowie die
Umwelt eines Projektes maßgebend.
Im Rahmen einer Expertenbefragung mit vierzig standardisierten Interviews, die mit Vertretern der
drei Systemkreise Bauherr, Planer und ausführende Firma geführt wurden, konnte im ersten Schritt
das Wissen über Komplexität und die Zusammenhänge zum Baumanagement herausgearbeitet werden.
Diese Erkenntnisse wurden ergänzt um die Analyse verschiedener Bewertungsschemata und auf
dieser Basis zehn Indikatoren herausgebildet, die sich in fünf Subsystemen eines Bauvorhabens darstellen.
Jeder Indikator wurde in Bezug auf die fünf Merkmale der Komplexität in Bauvorhaben untersucht,
und Teilaspekte wurden zur Bewertung herangezogen. Es erfolgt eine relative Bewertung mit einer
Einstufung von 1 bis 5 (sehr geringe bis sehr hohe Komplexität). Das Modell liefert im Ergebnis Komplexitätsgrade
der einzelnen Indikatoren, der Merkmale und letztlich des gesamten Bauvorhabens.
Eine anwendungsorientierte Fallstudie mit anschließenden Optimierungsansätzen und darauf aufbauenden
Präventionsvorschlägen verifizieren den Modellansatz.
In der vorliegenden Arbeit konnte dargestellt werden, wie die unzureichende Wahrnehmung von Komplexität
im Bereich des Projektmanagements, gerade zu Beginn eines Projektes, die Steuerung eines
Projektes erschweren und Störungen im Projekt zur Folge haben. Das Ergebnis kann das Projektmanagement
bei der Erfüllung seiner komplexen Aufgaben unterstützen und Entscheidungshilfen zur
Prävention leisten. Die Modellierung erfolgt unter dem Bewusstsein, dass die getroffene Auswahl den
Stand der Forschung darstellt, ohne jedoch einen Anspruch auf Vollständigkeit oder Unveränderlichkeit
zu erheben.
Weiteren Forschungsvorhaben im Aufgabenfeld des Projektmanagements können die beschriebenen
Ansätze dienlich sein, um ergänzende Ansätze zu einem besseren Umgang mit Baumaßnahmen zu
finden.
A fast numerical method for an advanced electro-chemo-mechanical model is developed which is able to capture phase separation processes in porous materials. This method is applied to simulate lithium-ion battery cells, where the complex microstructure of the electrodes is fully resolved. The intercalation of ions into the popular cathode material LFP leads to a separation into lithium-rich and lithium-poor phases. The large concentration gradients result in high mechanical stresses. A phase-field method applying the Cahn-Hilliard equation is used to describe the diffusion. For the sake of simplicity, the linear elastic case is considered. Numerical tests for fully resolved three-dimensional granular microstructures are discussed in detail.
Certain brain tumours are very hard to treat with radiotherapy due to their irregular shape caused by the infiltrative nature of the tumour cells. To enhance the estimation of the tumour extent one may use a mathematical model. As the brain structure plays an important role for the cell migration, it has to be included in such a model. This is done via diffusion-MRI data. We set up a multiscale model class accounting among others for integrin-mediated movement of cancer cells in the brain tissue, and the integrin-mediated proliferation. Moreover, we model a novel chemotherapy in combination with standard radiotherapy.
Thereby, we start on the cellular scale in order to describe migration. Then we deduce mean-field equations on the mesoscopic (cell density) scale on which we also incorporate cell proliferation. To reduce the phase space of the mesoscopic equation, we use parabolic scaling and deduce an effective description in the form of a reaction-convection-diffusion equation on the macroscopic spatio-temporal scale. On this scale we perform three dimensional numerical simulations for the tumour cell density, thereby incorporating real diffusion tensor imaging data. To this aim, we present programmes for the data processing taking the raw medical data and processing it to the form to be included in the numerical simulation. Thanks to the reduction of the phase space, the numerical simulations are fast enough to enable application in clinical practice.
Ziel dieser Arbeit ist es, die aktuelle Problematik und den Stellenwert politischer
Bildung herauszuarbeiten. Kernfragen dieser Arbeit sind:
- Sind Volkshochschulen noch in der Lage – vor dem Hintergrund einer sich stärker
ausprägenden medialen Demokratie – Menschen abseits von „big data“ zu
erreichen?
- Welchen Einfluss haben die zunehmende Finanzschwäche der Kommunen und
der sich daraus ergebende „Sparzwang“ auf Angebote zur politischen Bildung?
- Gibt es einen Rückgang an Angeboten zur politischen Bildung bzw. kann davon
zu Recht gesprochen werden?
- Insofern ein negativer Trend erkennbar, wie kann dem entgegengewirkt werden?
In dieser Arbeit wird ein besonderes Augenmerk auf das Land Nordrhein-Westfalen gelegt.
Thermoplastische Faser-Kunststoff-Verbunde (TP-FKV) rücken aufgrund ihrer guten Verarbeit- und Rezyklierbarkeit immer weiter in den Fokus der Automobilindustrie. Sie können effizient in serientauglichen Fließpress- oder Umformprozessen zu Bauteilen verarbeitet werden und bringen gute chemische, mechanische und thermische Eigenschaften mit. Die resultierenden Bauteile werden anschließend in Baugruppen eingesetzt, deren Strukturbauteile nach wie vor hauptsächlich aus Metallen bestehen. An der Schnittstelle zwischen TP-FKV und Metall entsteht ein Verbindungsproblem, das bisher meist durch Schrauben, Nieten oder Kleben gelöst wird. Allerdings werden diese Verfahren den speziellen Anforderungen der TP-FKV nicht gerecht und bringen zusätzliches Material in das Bauteil ein. TP-FKV eignen sich aufgrund der Schmelzbarkeit der thermoplastischen Matrix für thermische Fügeverfahren. Da die thermoplastische Matrix selbst als Klebstoff genutzt werden kann, entsteht eine flächige Verbindung, ohne dass Bohrungen oder zusätzliches Material notwendig sind. Außerdem kann durch eine geeignete Vorbehandlung der Metalloberfläche ein Formschluss erzielt und so die Festigkeit signifikant gesteigert werden.
In der vorliegenden Arbeit wurden ein diskontinuierlicher und ein kontinuierlicher, induktiver Schweißprozess entwickelt und optimiert. Dazu wurde ein Prüfstand ent-worfen und aufgebaut, der auf beide Prozesse angepasst werden kann. Beim konti-nuierlichen Induktionsschweißen konnte die Prozessgeschwindigkeit durch den Einsatz einer Bauteilkühlung ohne Beeinträchtigung der Fügefestigkeit auf mehr als 1m/min gesteigert werden. Beim diskontinuierlichen Schweißen wurde die bisher verwendete, sehr fehleranfällige temperaturbasierte Prozessregelung durch eine Wegregelung ersetzt. So konnte ein stabiler, voll automatisierter Schweißprozess entwickelt werden. Zum Abschluss wurde die Eignung des Induktionsschweißens für die industrielle Anwendung am Beispiel eines Unterbodenblechs eines Nutzfahrzeuges gezeigt. Hier konnte durch diskontinuierliches Induktionsschweißen in Kombination mit der Vorbehandlung des metallischen Fügepartners durch Laserstrukturierung die gleiche Performance wie bei dem ursprünglichen, genieteten Ansatz erzielt werden. Es steht mit dem Induktionsschweißen also ein Fügeprozess zur Verfügung, der sowohl hinsichtlich Effizienz als auch Festigkeit für die industrielle Anwendung geeignet ist.
Vor dem Hintergrund einer Häufung schadensträchtiger Ereignisse in den letzten Jahren und einer zukünftig möglichen Zunahme extremer Niederschläge infolge des Klimawandels sind mittlerweile methodische Ansätze des Risikomanagements im Rahmen einer kommunalen Überflutungsvorsorge etabliert. Zu der dafür erforderlichen
ortsbezogenen Analyse konkreter Überflutungsgefährdungen existieren
aktuell verschiedene methodische Ansätze unterschiedlicher Komplexität und Aussagekraft. Bestehende Anwendungsempfehlungen und vergleichende Untersuchungen stellen die integrale Berechnung des oberirdischen und unterirdischen Abflusses mithilfe bi-direktional gekoppelter 1D/2D-Abflussmodelle als den methodisch
umfassendsten und aussagekräftigsten Ansatz zur Durchführung entsprechender Analysen dar. Die hohe Komplexität dieser Modelle schlägt sich in einer Vielzahl an Einflussgrößen nieder, welche sich auf die Berechnungsergebnisse auswirken können. Zusätzlich ist die Kalibrierung von Modellen zur Überflutungssimulation aufgrund der oftmals fehlenden „Messdaten“ zum realen Überflutungsgeschehen stark begrenzt. Aufgrund fehlender konkreter Vorgaben und
Empfehlungen zur Anwendung der Methode bzw. zur Modellkonfiguration ist die Vergleichbarkeit von Analyseergebnissen und Gefährdungsaussagen derzeit nicht gegeben.
Die Ziele der vorliegenden Arbeit sind die Identifizierung und Quantifizierung von Einflussgrößen und die Erarbeitung entsprechender Anwendungsempfehlungen zur Erhöhung der Vergleichbarkeit beim Einsatz bi-direktional gekoppelter 1D/2DAbflussmodelle zur überflutungsbezogenen Gefährdungsanalyse.
Für zwei Modellgebiete, die sich hinsichtlich relevanter Gebietseigenschaften stark unterscheiden, wurden bi-direktional gekoppelte 1D/2D-Abflussmodelle mit einer Referenzkonfiguration erstellt und mithilfe von Daten zu historischen Überflutungsereignissen bestmöglich plausibilisiert. Im Rahmen einer Sensitivitätsanalyse an den beiden Referenzmodellen wurde eine große Zahl an Zusammenhängen und Auswirkungen durch Auslenkung relevanter Einflussgrößen identifiziert und quantifiziert. Um eine anwendungsbezogene Einschätzung zu gewährleisten wurden
Vergleichsindikatoren entwickelt, die nicht nur die Berücksichtigung berechneter Wasserstände und Fließgeschwindigkeiten, sondern auch eine Bewertung der Einflussgrößen hinsichtlich ihrer Auswirkungen auf die Gefährdungsaussage ermöglichen.
Anhand der Ergebnisse wurden gebietsspezifische Anwendungsempfehlungen für den Einsatz bi-direktional gekoppelter 1D/2D-Abflussberechnungen zur Gefährdungsanalyse abgeleitet. Die erarbeiteten Anwendungsempfehlungen tragen zu einer Erhöhung der Vergleichbarkeit künftiger Analysen der ortsbezogenen Überflutungsgefährdung bei. Die entwickelte Untersuchungsmethodik kann bei künftigen Ergänzungen oder Konkretisierungen der Anwendungsempfehlungen, z.B. anhand der Untersuchung weiterer Modellgebiete oder neuer Einflussgrößen, eingesetzt werden.
Education is the Achilles heel of successful resuscitation in cardiac arrest. Therefore, we aim to contribute to the educational efficiency by providing a novel augmented-reality (AR) guided interactive cardiopulmonary resuscitation (CPR) "trainer". For this trainer, a mixed reality smart glass, Microsoft HoloLens, and a CPR manikin covered with pressure sensors were used. To introduce the CPR procedure to a learner, an application with an intractable virtual teacher model was designed. The teaching scenario consists of the two main parts, theory and practice. In the theoretical part, the virtual teacher provides all information about the CPR procedure. Afterward, the user will be asked to perform the CPR cycles in three different stages. In the first two stages, it is aimed to gain the muscle memory with audio and optical feedback system. In the end, the performance of the participant is evaluated by the virtual teacher.
The N-containing heterocycles have received strong attention from the organic synthesis field because of their importance for pharmaceutical and material sciences. Nitrogen element plays an important role between inorganic salts and biomolecules, to search convenient methods combine C-N bond together become a hot topic in recent decades.
Since the early beginning of 20th century, transition-metal-catalyzed coupling reactions had been well-known and world widely spread in organic researchs, achieved abundant significant progress. In the other side, the less toxic and more challenging transition metal free coupling method remained further potential value.
With the evolution of amination reactions and oxidants, more and more effective, simplified, and atom economic organic synthesis methods will come soon. And these stories also drove me to think about investigating the novel cross-dehydrogenative-coupling amination methods development as the topics of my PhD research.
Thus, we selected the phenothiazine derivatives as the N-nucleophile reagents and the phenols as the C-nucleophile reagents. To achieve the transition metal-free CDC aminations of phenols with phenothiazines, we scanned the chemical toolbox and tested a series of both common and uncommon oxidants.
Firstly, we start the condition in the presence of cumene and O2. The proposed mechanism initiated by a Hock process, which would form in situ peroxo-species as initiator of the reaction. And the initial infra-red analysis predicted there is a strong O-H..N interaction.
In the second method, a series of iodines with different valance have been tested to achieve the C-N bond formation of phenols with phenothiazines. This time, a simplified and more efficient method had been developed, which also provides a wider scope of phenols. Several controlling experiments had been conducted for the plausible pathway research. Large-scale synthesis of target molecular was also successfully performed.
And then, we focus the research on the cross-coupling reaction of pre-oxidized(iminated) phenothiazine with ubiquitous phenols and indoles. In this task, we first regio-selectively synthesized the novel iminated phenothiazine derivatives with the traditional biocide and mild disinfectant, Chloramine T. Then the phenothiazinimine performed an ultra-simple condensation technique with phenol or indole coupling partners in a simplified condition. Parallel reactions were also performed to investigate the plausible pathway.
Increasing costs due to the rising attrition of drug candidates in late developmental phases alongside post-marketing withdrawal of drugs challenge the pharmaceutical industry to further improve their current preclinical safety assessment strategies. One of the most common reasons for the termination of drug candidates is drug induced hepatotoxicity, which more often than not remains undetected in early developmental stages, thus emphasizing the necessity for improved and more predictive preclinical test systems. One reason for the very limited value of currently applied in vitro test systems for the detection of potential hepatotoxic liabilities is the lack of organotypic and tissue-specific physiology of hepatocytes cultured in ordinary monolayer culture formats.
The thesis at hand primarily deals with the evaluation of both two- and three-dimensional cell culture approaches with respect to their relative ability to predict the hepatotoxic potential of drug candidates in early developmental phases. First, different hepatic cell models, which are routinely used in pharmaceutical industry (primary human hepatocytes as well as the three cell lines HepG2, HepaRG and Upcyte hepatocytes), were investigated in conventional 2D monolayer culture with respect to their ability to detect hepatotoxic effects in simple cytotoxicity studies. Moreover, it could be shown that the global protein expression levels of all cell lines substantially differ from that of primary human hepatocytes, with the least pronounced difference in HepaRG cells.
The introduction of a third dimension through the cultivation of spheroids enables hepatocytes to recapitulate their typical native polarity and furthermore dramatically increases the contact surface of adjacent cells. These differences in cellular architecture have a positive influence on hepatocyte longevity and the expression of drug metabolizing enzymes and transporters, which could be proven via immunofluorescent (IF) staining for at least 14 days in PHH and at least 28 days in HepaRG spheroids, respectively. Additionally, the IF staining of three different phase III transporters (MDR1, MRP2 and BSEP) indicated a bile canalicular network in spheroids of both cell models. A dose-dependent inducibility of important cytochrome P450 isoenzymes in HepaRG spheroids could be shown on the protein level via IF for at least 14 days. CYP inducibility of HepaRG cells cultured in 2D and 3D was compared on the mRNA level for up to 14 days and inducibility was generally lower in 3D compared to 2D under the conditions of this study. In a comparative cytotoxicity study, both PHH and HepaRG spheroids as well as HepaRG monolayers have been treated with five hepatotoxic drugs for up to 14 days and viability was measured at three time points (days 3, 7 and 14). A clear time- and dose-dependent onset of the drug-induced hepatotoxic effects was observable in all conditions tested, indicated by a shift of the respective EC50 value towards lower doses by increasing exposure. The observed effects were most pronounced in PHH spheroids, thus indicating those as the most sensitive cell model in this study. Moreover, HepaRG cells were more sensitive in spheroid culture compared to monolayers, which suggests a potential application of spheroids as long-term test system for the detection of hepatotoxicities with slow onset. Finally, the basal protein expression levels of three antigens (CYP1A2, CYP3A4 and NAT 1/2) were analyzed via Western Blotting in HepaRG cells cultured in three different cell culture formats (2D, 3D and QV) in order to estimate the impact of the cell culture conditions on protein expression levels. In the QV system enables a pump-driven flow of cell culture media, which introduces both mechanical stimuli through shear and molecular stimuli through dynamic circulation to the monolayer. Those stimuli resulted in a clearly positive effect on the expression levels of the selected antigens by an increased expression level in comparison to both 2D and 3D. In contrast, HepaRG spheroids showed time-dependent differences with the overall highest levels at day 7.
The studies presented in this thesis delivered valuable information on the increased physiological relevance in dependence on the cell culture format: three-dimensionality as well as the circulation of media lead to a more differentiated phenotype in hepatic cell models. Those cell culture formats are applicable in preclinical drug development in order to obtain more relevant information at early developmental stages and thus help to create a more efficient drug development process. Nonetheless, further studies are necessary to thoroughly characterize, validate and standardize such novel cell culture approaches prior to their routine application in industry.
Der Fokus der vorliegenden Arbeit liegt auf endlosfaser- und langfaserverstärkten
thermoplastischen Materialien. Hierfür wurde das „multilayered hybrid
(MLH)“ Konzept entwickelt und auf zwei Halbzeuge, den MLH-Roving und die MLHMat
angewendet. Der MLH-Roving ist ein Roving (bestehend aus Endlosfasern), der
durch thermoplastische Folien in mehrere Schichten geteilt wird. Der MLH-Roving
wird durch eine neuartige Spreizmethode mit anschließender thermischen Fixierung
und abschließender mehrfacher Faltung hergestellt. Dadurch können verschiedene
Faser-Matrix-Konfigurationen realisiert werden. Die MLH-Mat ist ein
glasmattenverstärktes thermoplastisches Material, das für hohe Fasergehalte bis 45
vol. % und verschiedene Matrixpolymere, z.B. Polypropylen (PP) und Polyamide 6
(PA6) geeignet ist. Sie zeichnet sich durch eine hohe Homogenität in der
Flächendichte und in der Faserrichtung aus. Durch dynamische Crashversuche mit
auf MLH-Roving und MLH-Mat basierenden Probekörpern wurden das
Crashverhalten und die Performance untersucht. Die Ergebnisse der Crashkörper
basierend auf langfaserverstärktem Material (MLH-Mat) und endlosfaserverstärktem
Material (MLH-Roving) waren vergleichbar. Die PA6-Typen zeigten eine bessere
Crashperformance als PP-Typen.
The present work deals with continuous fiber- and long fiber reinforced thermoplastic
materials. The concept of multilayered hybrid (MLH) structure was developed and
applied to the so-called MLH-roving and MLH-mat. The MLH-roving is a continuous
fiber roving separated evenly into several sublayers by thermoplastic films, through
the sequential processes of spreading with a newly derived equation, thermal fixing,
and folding. It was aimed to satisfy the variety of material configuration as well as the
variety in intermediate product. The MLH-mat is a glass mat reinforced thermoplastic
(GMT)-like material that is suitable for high fiber contents up to 45 vol. % and various
matrix polymers, e.g. polypropylene (PP), polyamide 6 (PA6). It showed homogeneity
in areal density, random directional fiber distribution, and reheating stability required
for molding process. On the MLH-roving and MLH-mat materials, the crash behavior
and performance were investigated by dynamic crash test. Long fiber reinforced
materials (MLH-mat) were equivalent to continuous fiber reinforced materials (MLHroving),
and PA6 grades showed higher crash performance than PP grades.
The authors explore the intrinsic trade-off in a DRAM between the power consumption (due to refresh) and the reliability. Their unique measurement platform allows tailoring to the design constraints depending on whether power consumption, performance or reliability has the highest design priority. Furthermore, the authors show how this measurement platform can be used for reverse engineering the internal structure of DRAMs and how this knowledge can be used to improve DRAM’s reliability.
Autonomous driving is disrupting the conventional automotive development. In fact, autonomous driving kicks off the consolidation of control units, i.e. the transition from distributed Electronic Control Units (ECUs) to centralized domain controllers. Platforms like Audi’s zFAS demonstrate this very clearly, where GPUs, Custom SoCs, Microcontrollers, and FPGAs are integrated on a single domain controller in order to perform sensor fusion, processing and decision making on a single Printed Circuit Board (PCB). The communication between these heterogeneous components and the algorithms for Advanced Driving Assistant Systems (ADAS) itself requires a huge amount of memory bandwidth, which will bring the Memory Wall from High Performance Computing (HPC) and data-centers directly in our cars. In this paper we highlight the roles and issues of Dynamic Random Access Memories (DRAMs) for future autonomous driving architectures.
Cyanobacteria of biological soil crusts (BSCs) represent an important part of circumpolar
and Alpine ecosystems, serve as indicators for ecological condition and climate
change, and function as ecosystem engineers by soil stabilization or carbon and nitrogen
input. The characterization of cyanobacteria from both polar regions remains
extremely important to understand geographic distribution patterns and community
compositions. This study is the first of its kind revealing the efficiency of combining
denaturing gradient gel electrophoresis (DGGE), light microscopy and culture-based
16S rRNA gene sequencing, applied to polar and Alpine cyanobacteria dominated
BSCs. This study aimed to show the living proportion of cyanobacteria as an extension
to previously published meta-transcriptome
data of the same study sites.
Molecular fingerprints showed a distinct clustering of cyanobacterial communities
with a close relationship between Arctic and Alpine populations, which differed from
those found in Antarctica. Species richness and diversity supported these results,
which were also confirmed by microscopic investigations of living cyanobacteria
from the BSCs. Isolate-based
sequencing corroborated these trends as cold biome
clades were assigned, which included a potentially new Arctic clade of Oculatella.
Thus, our results contribute to the debate regarding biogeography of cyanobacteria
of cold biomes.
Arctic, Antarctic and alpine biological soil crusts (BSCs) are formed by adhesion of soil particles to exopolysaccharides (EPSs) excreted by cyanobacterial and green algal communities, the pioneers and main primary producers in these habitats. These BSCs provide and influence many ecosystem services such as soil erodibility, soil formation and nitrogen (N) and carbon (C) cycles. In cold environments degradation rates are low and BSCs continuously increase soil organic C; therefore, these soils are considered to be CO2 sinks. This work provides a novel, nondestructive and highly comparable method to investigate intact BSCs with a focus on cyanobacteria and green algae and their contribution to soil organic C. A new terminology arose,basedonconfocallaserscanningmicroscopy(CLSM) 2-D biomaps, dividing BSCs into a photosynthetic active layer (PAL) made of active photoautotrophic organisms and a photosynthetic inactive layer (PIL) harbouring remnants of cyanobacteria and green algae glued together by their remaining EPSs. By the application of CLSM image analysis (CLSM–IA) to 3-D biomaps, C coming from photosynthetic activeorganismscouldbevisualizedasdepthprofileswithC peaks at 0.5 to 2mm depth. Additionally, the CO2 sink character of these cold soil habitats dominated by BSCs could be highlighted, demonstrating that the first cubic centimetre of soil consists of between 7 and 17% total organic carbon, identified by loss on ignition.
In Anbetracht leistungsschwacher öffentlicher Institutionen im subsaharischen Afrika formulierte die Weltbank in den neunziger Jahren ein Anforderungsprofil an den Staat und die öffentliche Verwaltung. Sie führte wesentliche Ursachen für die sozialen und ökonomischen Fehlentwicklungen im subsaharischen Afrika auf Defizite im institutionellen Umfeld von Staat und Verwaltung zurück. In der Folgezeit avancierte dieses Anforderungsprofil zum entwicklungspolitischen Leitbild des Good Governance.
Heute bildet das Thema einen elementaren Bereich der internationalen Entwicklungszusammenarbeit und einen zentralen Aspekt der entwicklungspolitischen Auseinandersetzung. Insbesondere die unterschiedlichen Auffassungen darüber, inwiefern Demokratisierungsforderungen mit dem Leitbild des Good Governance verknüpft werden sollten, sind immer wieder Gegenstand der wissenschaftlichen und der politischen Diskussion. Deutlich kommt in diesem Zusammenhang die Streitfrage zum Ausdruck, ob die Entwicklung eines Staates Demokratie voraussetzt oder ob die Demokratie umgekehrt vielmehr ein Ergebnis erfolgreicher Entwicklungsprozesse darstellt. Es ist anzumerken, dass die Entwicklungsforschung diese Frage bislang nicht widerspruchsfrei erklären konnte. Darüber hinaus sprechen zahlreiche Länderbeispiele vielmehr dafür, dass die Staatsform grundsätzlich nicht die entscheidende Variable bildet, um klare Erkenntnisse für die Begründung ökonomischen Wachstums bzw. für die Erfolge der Armutsbekämpfung abzuleiten. Es erscheint zunächst folgerichtig, dass die Weltbank in Bezug auf Good Governance keine Demokratisierungsforderungen stellt.
In der vorliegenden Ausarbeitung wird vor diesem Hintergrund untersucht, inwiefern sich die Staatsform eines Landes auf die Existenz der jeweiligen Prinzipien für Good Governance auswirkt. Anhand zweier ökonomisch erfolgreicher afrikanischer Länder wird analysiert, inwiefern entwicklungsförderliche Good Governance-Strukturen unabhängig von der jeweils vorherrschenden Staatsform existieren können. Methodisch wird dabei das Anforderungsprofil der Weltbank auf die Demokratie Mauritius und auf die Autokratie Ruanda angewendet.
In this study, the dependence of the cyclic deformation behavior on the surface morphology of metastable austenitic HSD® 600 TWinning Induced Plasticity (TWIP) steel was investigated. This steel—with the alloying concept Mn-Al-Si—shows a fully austenitic microstructure with deformation-induced twinning at ambient temperature. Four different surface morphologies were analyzed: as-received with a so-called rolling skin, after up milling, after down milling, and a reference morphology achieved by polishing. The morphologies were characterized by X-Ray Diffraction (XRD), Focused Ion Beam (FIB), Scanning Electron Microscopy (SEM) as well as confocal microscopy methods and show significant differences in initial residual stresses, phase fractions, topographies and microstructures. For specimens with all variants of the morphologies, fatigue tests were performed in the Low Cycle Fatigue (LCF) and High Cycle Fatigue (HCF) regime to characterize the cyclic deformation behavior and fatigue life. Moreover, this study focused on the frequency-dependent self-heating of the specimens caused by cyclic plasticity in the HCF regime. The results show that both surface morphology and specimen temperature have a significant influence on the cyclic deformation behavior of HSD® 600 TWIP steel in the HCF regime.
Relating mathematical concepts to graphical representations is a challenging task for students. In this paper, we introduce two visual strategies to qualitatively interpret the divergence of graphical vector field representations. One strategy is based on the graphical interpretation of partial derivatives, while the other is based on the flux concept. We test the effectiveness of both strategies in an instruction-based eye-tracking study with N = 41 physics majors. We found that students’ performance improved when both strategies were introduced (74% correct) instead of only one strategy (64% correct), and students performed best when they were free to choose between the two strategies (88% correct). This finding supports the idea of introducing multiple representations of a physical concept to foster student understanding.Relevant eye-tracking measures demonstrate that both strategies imply different visual processing of the vector field plots, therefore reflecting conceptual differences between the strategies. Advanced analysis methods further reveal significant differences in eye movements between the best and worst performing students. For instance, the best students performed predominantly horizontal and vertical saccades, indicating correct interpretation of partial derivatives. They also focused on smaller regions when they balanced positive and negative flux. This mixed method research leads to new insights into student visual processing of vector field representations, highlights the advantages and limitations of eye-tracking methodologies in this context, and discusses implications for teaching and for future research. The introduction of saccadic direction analysis expands traditional methods, and shows the potential to discover new insights into student understanding and learning difficulties.
In dieser Arbeit sollten Liganden für Übergangsmetalle auf Basis von cyclischen Peptiden mit natürlichen und nicht-natürlichen Aminosäureuntereinheiten entwickelt werden. Durch die chiralen Aminosäuren in den Cyclopeptiden sollte deren Chiralität auf den Metallkomplex übertragen werden. Dadurch könnten Materialien für die Racematspaltung auf Basis von Koordinationsnetzwerken oder chirale Rezeptoren mit geeigneten Hohlräumen auf Basis von diskreten Koordinationsverbindungen zugänglich werden. Cyclische Kationenrezeptoren können als Wirkstoff in der Medizin Anwendung finden, zum Beispiel als Mimetikum für Ionophore wie Valinomycin.
Im ersten Teil der Arbeit wurden die Synthesen einer Reihe von Cyclotetrapeptiden, welche in alternierender Reihenfolge Prolin- und nicht-cyclische α-Aminosäureuntereinheiten enthielten, verfolgt. Als vielversprechendste Grundstruktur erwies sich dabei ein Cyclotetrapeptid mit D-Phenylalanin und L-4-Azido-Prolineinheiten, da es eine Vielzahl von möglichen Funktionalisierungen über die Azidgruppen ermöglichte. Durch Einführung geeigneter funktioneller Gruppen in der Peripherie des Cyclopeptidrings wurden Koordinationsstellen für Metallzentren geschaffen. Von den erhaltenen Produkten eignete sich keins für den Aufbau von Koordinationsnetzwerken (Metal-organic frameworks; MOF). Die Ursache ist höchstwahrscheinlich die zu hohe Flexibilität der betreffenden Cyclopeptide. Die hohe Flexibilität dieser Verbindungen wurde ebenfalls bei den Versuchen zur Darstellung von diskreten Koordinationsverbindungen mit Pd(II) deutlich. Hier wurde ein dinuklearer Pd(II)-Komplex erhalten, in dem die beiden Cyclopeptidliganden charakteristisch andere Konformationen annehmen als in der freien Form.
Weiterhin wurde im zweiten Teil der Arbeit eine Synthese für Cyclohexapeptide mit N-alkylierten 5-Amino-4-oxo-1,4-dihydropyridin-3-carbonsäureeinheiten entwickelt. Das gewünschte Produkt wurde in einer 16-stufigen Synthese erhalten. NMR-spektroskopische Studien zeigten, dass es in Lösung ein komplexes Konformerengleichgewicht aufweist. Die Studien deuten außerdem an, dass es mit Alkalimetallionen in Lösung wechselwirkt.
Asynchronous concurrency is a wide-spread way of writing programs that
deal with many short tasks. It is the programming model behind
event-driven concurrency, as exemplified by GUI applications, where the
tasks correspond to event handlers, web applications based around
JavaScript, the implementation of web browsers, but also of server-side
software or operating systems.
This model is widely used because it provides the performance benefits of
concurrency together with easier programming than multi-threading. While
there is ample work on how to implement asynchronous programs, and
significant work on testing and model checking, little research has been
done on handling asynchronous programs that involve heap manipulation, nor
on how to automatically optimize code for asynchronous concurrency.
This thesis addresses the question of how we can reason about asynchronous
programs while considering the heap, and how to use this this to optimize
programs. The work is organized along the main questions: (i) How can we
reason about asynchronous programs, without ignoring the heap? (ii) How
can we use such reasoning techniques to optimize programs involving
asynchronous behavior? (iii) How can we transfer these reasoning and
optimization techniques to other settings?
The unifying idea behind all the results in the thesis is the use of an
appropriate model encompassing global state and a promise-based model of
asynchronous concurrency. For the first question, We start from refinement
type systems for sequential programs and extend them to perform precise
resource-based reasoning in terms of heap contents, known outstanding
tasks and promises. This extended type system is known as Asynchronous
Liquid Separation Types, or ALST for short. We implement ALST in for OCaml
programs using the Lwt library.
For the second question, we consider a family of possible program
optimizations, described by a set of rewriting rules, the DWFM rules. The
rewriting rules are type-driven: We only guarantee soundness for programs
that are well-typed under ALST. We give a soundness proof based on a
semantic interpretation of ALST that allows us to show behavior inclusion
of pairs of programs.
For the third question, we address an optimization problem from industrial
practice: Normally, JavaScript files that are referenced in an HTML file
are be loaded synchronously, i.e., when a script tag is encountered, the
browser must suspend parsing, then load and execute the script, and only
after will it continue parsing HTML. But in practice, there are numerous
JavaScript files for which asynchronous loading would be perfectly sound.
First, we sketch a hypothetical optimization using the DWFM rules and a
static analysis.
To actually implement the analysis, we modify the approach to use a
dynamic analysis. This analysis, known as JSDefer, enables us to analyze
real-world web pages, and provide experimental evidence for the efficiency
of this transformation.
Spätestens seit den 1990ern bildet die Lean Production den Status quo der Produktionssysteme in der diskreten Klein- und Großserienfertigung. Mittels der Umstellung auf eine nachfrageorientierte Produktion und Vermeidung jeglicher nicht-wertschöpfender Aktivitäten konnte die Lean Production bei geringen Investitionen hohe Effizienzsteigerungen erreichen. Heute stößt die Lean Production allerdings an ihre Grenzen, da sie nicht das Potenzial moderner Informations- und Kommunikationstechnologie berücksichtigt. Der Lean Production mangelt es u.a. an der notwendigen Wandelbarkeit der Fertigungslinien, um zukünftige Anforderungen wie z.B. eine kundenindividuelle Fertigung in Losgröße 1 zu ermöglichen.
Die stattfindende Digitalisierung der Produktion will diesen zukünftigen Produktionsanforde-rungen gerecht werden. Neue digitale Technologien sowie die gestiegene Leistung der Kom-ponenten ermöglichen eine intelligente Produktion, die Mitarbeiter in komplexen Produktions-prozessen unterstützt. Der gleichzeitig stattfindende Preisverfall und die Miniaturisierung in der Informations- und Kommunikationstechnologie führen auch in der Produktion zu allgegenwärtigen, vernetzten Computern. Das Potenzial dieser technologischen Entwicklung ist unumstritten, dennoch mangelt es aktuell an einer übergreifenden und ganzheitlichen Betrachtung, die eine Integration der Digitalisierung und der neuen Anwendungen in bestehende Produktionsumgebungen miteinbezieht.
Ziel der vorliegenden Arbeit ist die Erarbeitung einheitlicher informationstechnischer Schnittstellen für die Lean Production. Die erarbeitete Referenzarchitektur definiert technologieunabhängige Schnittstellen und schafft den notwendigen Rahmen für die Nutzung digitaler Technologien in bestehenden Lean-Methoden. Bestandteil der Referenzarchitektur ist eine Systemarchitektur, die Rollen und deren Verhältnisse beschreibt. Ergänzt wird sie durch ein Informationsmodell, das die je Rolle benötigten Funktionalitäten und die ausgetauschten Nachrichten spezifiziert, sowie durch eine Softwarearchitektur für die Umsetzung der Schnitt-stellen. Die Referenzarchitektur wurde auf einen bestehenden Forschungsdemonstrator der Technologie-Initiative SmartFactory KL e.V. exemplarisch übertragen.
Using valuation theory we associate to a one-dimensional equidimensional semilocal Cohen-Macaulay ring \(R\) its semigroup of values, and to a fractional ideal of \(R\) we associate its value semigroup ideal. For a class of curve singularities (here called admissible rings) including algebroid curves the semigroups of values, respectively the value semigroup ideals, satisfy combinatorial properties defining good semigroups, respectively good semigroup ideals. Notably, the class of good semigroups strictly contains the class of value semigroups of admissible rings. On good semigroups we establish combinatorial versions of algebraic concepts on admissible rings which are compatible with their prototypes under taking values. Primarily we examine duality and quasihomogeneity.
We give a definition for canonical semigroup ideals of good semigroups which characterizes canonical fractional ideals of an admissible ring in terms of their value semigroup ideals. Moreover, a canonical semigroup ideal induces a duality on the set of good semigroup ideals of a good semigroup. This duality is compatible with the Cohen-Macaulay duality on fractional ideals under taking values.
The properties of the semigroup of values of a quasihomogeneous curve singularity lead to a notion of quasihomogeneity on good semigroups which is compatible with its algebraic prototype. We give a combinatorial criterion which allows to construct from a quasihomogeneous semigroup \(S\) a quasihomogeneous curve singularity having \(S\) as semigroup of values.
As an application we use the semigroup of values to compute endomorphism rings of maximal ideals of algebroid curves. This yields an explicit description of the intermediate rings in an algorithmic normalization of plane central arrangements of smooth curves based on a criterion by Grauert and Remmert. Applying this result to hyperplane arrangements we determine the number of steps needed to compute the normalization of a the arrangement in terms of its Möbius function.
Für individuelle und nachhaltige Mobilität ist Leichtbau unverzichtbar. Die effiziente
Ressourcennutzung ist dafür eine technische Notwendigkeit. Das Gewicht eines
Fahrzeugs beeinflusst die Auslegung von Antriebsleistung, Speicherkapazität und
Strukturintegrität. Kohlenstofffaserverstärkte Kunststoffe ermöglichen über die
Kombination von gewichtsbezogen hoher Festigkeit eine Gewichtsreduktion. Durch
das Resin Transfer Molding Verfahren können entsprechende Komponenten in hoher
Stückzahl hergestellt werden. Zur weiteren Verbreitung des Werkstoffs ist eine
Reduktion der Herstellkosten notwendig. In dieser Arbeit werden zu diesem Zweck
werkzeugseitige Fließkanäle untersucht. Diese verkürzen den Fließweg, den das Fluid
durch die niedrigpermeable Verstärkungsstruktur fließen muss. Zur Charakterisierung
der Auswirkung von Fließkanälen auf den Fließfrontverlauf und die Injektionszeit wird
ein Versuchswerkzeug mit transparenten Werkzeughälften verwendet. Dadurch
können Fließfrontverläufe quantitativ mit einer Auflösung von einem Zeitwert pro 0,14
mm2 miteinander verglichen werden. Eine parabolische Querschnittsform ist
hinsichtlich dem Verhältnis von Ersatzpermeabilität und Querschnittsflächengröße
optimal. Eine kontinuierliche Vergrößerung der Fließkanalquerschnittsgröße wirkt sich
degressiv auf die Injektionszeit aus. Dadurch kann der Zusammenhang zwischen
Fließkanalquerschnittsgröße und Permeabilität der Verstärkungsstruktur quantifiziert
werden. Die Untersuchungen zeigen, dass die Reduktion des Fließwegs mit Hilfe von
Fließkanälen auch die Auswirkung von Falten in der Verstärkungsstruktur auf den
Fließfrontverlauf minimiert. Bei der Untersuchung verschiedener, möglicher
Einflussparameter auf die Fasereinschwemmung in Fließkanäle werden die Fließkanalquerschnittsgröße, Durchströmung und die relative Lagenorientierung
identifiziert. Durch die Verwendung von kleinen, schmalen Fließkanalquerschnitten
(Fließkanalbreite < 1,5 mm) kann eine Ondulation der Fasern vermieden werden.
Durch die kleinen Fließkanalquerschnitte kann die Erhöhung des Bauteilgewichts
minimiert werden. Die Versuchsergebnisse werden in Richtlinien zur Auslegung der
Fließkanalquerschnittsform und –größe zusammengefasst. Abschließend werden die
ermittelten Wirkzusammenhänge anhand eines Beispielbauteils, Stirnwand einer
Karosseriestruktur, validiert.
Im Rahmen dieser Dissertation wurden nachhaltige Konzepte zur selektiven C-C, C-N, und C-S Bindungsknüpfung erarbeitet. Der Fokus lag dabei auf der Entwicklung katalytischer und ressourcenschonender Prozesse, die auf leicht zugänglichen und kostengünstigen Startmaterialien beruhen.
Im ersten Teilprojekt gelang es, eine abfallminimierte Eintopfsynthese von Amiden ausgehend von den entsprechenden Ammoniumcarboxylaten und einem niedermolekularen Alkin als Aktivator zu entwickeln. Entscheidend hierbei war die Identifikation eines hochaktiven und stabilen Rutheniumkatalysators, mit dem die Addition des Carboxylates an das Alkin selbst in Gegenwart von Aminen möglich ist. Eine Aminolyse der intermediär gebildeten Enolester liefert im Anschluss die gewünschten Amide zusammen mit einer niedermolekularen und leicht abtrennbaren Carbonylverbindung als einzigem Nebenprodukt.
In einem weiteren Projekt gelang es eine carboxylatdirigierte ortho-Arylierung von Benzoesäuren mit kostengünstigen und breit verfügbaren Arylhalogeniden zu entwickeln. Der bei diesem Verfahren eingesetzte Rutheniumkatalysator besticht dabei nicht nur durch seine hohe Aktivität, sondern ist im Vergleich zu bisher genutzten Katalysatoren um ein vielfaches günstiger und erlaubt selbst die Umsetzung von unreaktiveren Arylchloriden. Durch Kombination dieser neu entwickelten Methode mit einer Protodecarboxylierung bzw. einer decarboxylierenden Kreuzkupplung konnte weiterhin die Carboxygruppe als Ankerpunkt für weitere Funktionalisierungsschritte genutzt und so deren Überlegenheit im Vergleich zu anderen dirigierenden Gruppen demonstriert werden.
Daneben gelang in einem dritten Teilprojekt, welches zwei thematisch sehr verwandte Unterprojekte umfasst, die Einführung der pharmakologisch bedeutsamen Trifluormethylthiolgruppe in aliphatische Substrate unter Verzicht auf stöchiometrische Mengen an präformierten Metallspezies. Unter Verwendung der lagerstabilen Me4NSCF3 Vorstufe, welche aus den kommerziell erhältlichen Reagenzien Me4NF, elementarem Schwefel und TMS-CF3 zugänglich ist, konnten -Diazoester erstmals mit katalytischen Mengen eines Kupfersalzes zu den entsprechenden trifluormethylthiolierten Produkten umgesetzt werden. Zusätzlich hierzu gelang es, über eine indirekte Reaktionsführung aliphatische Kohlenstoffelektrophile, wie Halogenide oder Mesylate, in einer Eintopfreaktion zunächst zu thiocyanieren und anschließend über einen Langlois-Austausch mit kostengünstigem TMS-CF3 in die entsprechenden trifluormethylthiolierten Spezies umzuwandeln. Beide Verfahren bestechen mit einer hohen Toleranz gegenüber funktionellen Gruppen und einer deutlichen Reduktion der gebildeten Abfallmengen im Vergleich zu etablierten Verfahren.
Im letzten Teilprojekt dieser Arbeit konnte eine abfallfreie Hydroxymethylierung terminaler Alkine unter Nutzung von CO2 als nachhaltigem C1-Baustein realisiert werden. Durch den Einsatz der organischen Base 2,2,6-6-Tetramethylpiperidin werden Phenylacetylenderivate in einem sequentiellen Eintopfverfahren zunächst carboxyliert und im Anschluss daran zu den entsprechenden Alkoholen hydriert, wobei die Base nach der Sequenz wieder freigesetzt und als einziges Nebenprodukt Wasser gebildet wird. Analog dazu gelang es durch die Nutzung von Kaliumphosphat als Base dieses Konzept auch auf die anspruchsvolleren aliphatisch substituierten Alkine zu übertragen. Als Schlüsselschritt dieser Reaktionssequenz gilt eine Veresterung der intermediär gebildeten Kaliumcarboxylate in Methanol unter CO2 Druck. Das zusammen mit dem Produkt gebildete Basengemisch aus Kaliumhydrogencarbonat und Dikaliumhydrogenphosphat kann anschließend durch thermische Behandlung wieder in Wasser, Kohlendioxid und die eingesetzte Base Kaliumphosphat umgewandelt werden, sodass in der Gesamtsequenz lediglich Wasser als Nebenprodukt anfällt.
SDE-driven modeling of phenotypically heterogeneous tumors: The influence of cancer cell stemness
(2018)
We deduce cell population models describing the evolution of a tumor (possibly interacting with its
environment of healthy cells) with the aid of differential equations. Thereby, different subpopulations
of cancer cells allow accounting for the tumor heterogeneity. In our settings these include cancer
stem cells known to be less sensitive to treatment and differentiated cancer cells having a higher
sensitivity towards chemo- and radiotherapy. Our approach relies on stochastic differential equations
in order to account for randomness in the system, arising e.g., by the therapy-induced decreasing
number of clonogens, which renders a pure deterministic model arguable. The equations are deduced
relying on transition probabilities characterizing innovations of the two cancer cell subpopulations,
and similarly extended to also account for the evolution of normal tissue. Several therapy approaches
are introduced and compared by way of tumor control probability (TCP) and uncomplicated tumor
control probability (UTCP). A PDE approach allows to assess the evolution of tumor and normal
tissue with respect to time and to cell population densities which can vary continuously in a given set
of states. Analytical approximations of solutions to the obtained PDE system are provided as well.
Trotz der - theoretisch über die konstruktivistische Systemtheorie begründeten und durch die Organisationsforschung empirisch belegten - zentralen Rolle der Prozesse in der Einzelschule für die Gestaltung von Schulentwicklung, werden durch die Bildungspolitik über die Gestaltung der Systemumwelt wesentliche Impulse für diese Entwicklungsprozesse gesetzt, diese rechtlich und im Bereich der Ressourcen ermöglicht oder eben auch auf diesem Wege blockiert.
In der Arbeit wird ein Modell zur Bestimmung wesentlicher Einflussfaktoren auf bildungspolitische Schulreformen im Bereich institutioneller und parteipolitischer Vetospieler, Interessengruppen der Stakeholder, Medien sowie wissenschaftlicher Akteure entwickelt, über das deren Rationalisierungspotential im Sinne einer stärkeren Evidenzbasierung bildungspolitischer Entscheidungen, ihre Einflussstärke und Implementationsstärke bestimmbar werden. Exemplarisch wird dieses Modell im Anschluss auf die institutionelle Neubestimmung der Evidenzbasierung in Baden-Württemberg angewandt.
Die Beziehungen zwischen Kulturbetrieben und Wirtschaftsunternehmen wird in der Forschung bis jetzt von den Perspektiven der Corporate Social Responsibility (CSR) und des Sponsorings aus wirtschaftszentriert theoretisiert.
Im regionalen Kontext (Oberfranken/Bayern), konzentriert auf Theaterbetriebe und die mit ihnen verbundenen Wirtschaftsunternehmen ergänzt die Forschungsarbeit die Erkenntnisse in diesem Bereich qualitativ-empirisch.
Dazu stützt sie sich auf Leitfadeninterviews mit für das Thema repräsentativen Vertretern der jeweiligen Seite. Diese wurden mithilfe der Qualitativen Experteninterviews-Methode von Robert Kaiser ausgewertet.
Es stellt sich heraus, dass die Vorteile für Wirtschaftsunternehmen in der internen Kommunikation (z.B. Mitarbeiterbindung) gleichberechtigt zu denjenigen in der externen Kommunikation (z.B. Imagegewinn) treten. Für die Theater steht die erhöhte Glaubwürdigkeit öffentlicher Unterstützer dank der Kooperation mit den Unternehmen über deren direkten finanziellen Zuwendungen.
Es ist von Interesse für kooperierende Theaterbetriebe und Wirtschaftsunternehmen, eine partnerschaftszentrierte Perspektive einzunehmen. Die Theater könnten aufgrund dieser Einstellung von der Expertise ihrer Partnerunternehmen profitieren, um eigene Organisationsprozesse zu optimieren.
The screening of metagenomic datasets led to the identification of new phage-derived members of the heme oxygenase and the ferredoxin-dependent bilin reductase enzyme families.
The novel bilin biosynthesis genes were shown to form mini-cassettes on metagenomic scaffolds and further form distinct clusters in phylogenetic analyses (Ledermann et al., 2016). In this project, it was demonstrated that the discovered sequences actually encode for active enzymes. The biochemical characterization of a member of the heme oxygenases (ΦHemO) revealed that it possesses a regiospecificity for the α-methine bridge in the cleavage of the heme macrocycle. The reaction product biliverdin IXα was shown to function as the substrate for the novel ferredoxin-dependent bilin reductases (PcyX reductases), which catalyze its reduction to PEB via the intermediate 15,16-DHBV. While it was demonstrated that ΦPcyX, a phage-derived member of the PcyX reductases, is an active enzyme, it also became clear that the rate of the reaction is highly dependent on the employed redox partner. It turned out that the ferredoxin from the cyanophage P-SSM2 is to date the most suitable redox partner for the reductases of the PcyX group. Furthermore, the solution of the ΦPcyX crystal structure revealed that it adopts an α/β/α-sandwich fold, typical for the FDBR-family. Activity assays and subsequent HPLC analyses with different variants of the ΦPcyX protein demonstrated that, despite their similarity, PcyX and PcyA reductases must act via different reaction mechanisms.
Another part of this project focused on the biochemical characterization of the FDBR KflaHY2 from the streptophyte alga Klebsormidium flaccidum. Experiments with recombinant KflaHY2 showed that it is an active FDBR which produces 3(Z)-PCB as the main reaction product, like it can be found in reductases of the PcyA group. Moreover, it was shown that under the employed assay conditions the reaction of BV to PCB proceeds in two different ways: Both 3(Z)-PΦB and 18¹,18²-DHBV occur as intermediates. Activity assays with the purified intermediates yielded PCB. Hence, both compounds are suitable substrates for KflaHY2.
The results of this work highlight the importance of the biochemical experiments, as catalytic activity cannot solely be predicted by sequence analysis.
Motivation: Mathematical models take an important place in science and engineering.
A model can help scientists to explain dynamic behavior of a system and to understand
the functionality of system components. Since length of a time series and number of
replicates is limited by the cost of experiments, Boolean networks as a structurally simple
and parameter-free logical model for gene regulatory networks have attracted interests
of many scientists. In order to fit into the biological contexts and to lower the data
requirements, biological prior knowledge is taken into consideration during the inference
procedure. In the literature, the existing identification approaches can only deal with a
subset of possible types of prior knowledge.
Results: We propose a new approach to identify Boolean networks fromtime series data
incorporating prior knowledge, such as partial network structure, canalizing property,
positive and negative unateness. Using vector form of Boolean variables and applying
a generalized matrix multiplication called the semi-tensor product (STP), each Boolean
function can be equivalently converted into a matrix expression. Based on this, the
identification problem is reformulated as an integer linear programming problem to
reveal the system matrix of Boolean model in a computationally efficient way, whose
dynamics are consistent with the important dynamics captured in the data. By using
prior knowledge the number of candidate functions can be reduced during the inference.
Hence, identification incorporating prior knowledge is especially suitable for the case of
small size time series data and data without sufficient stimuli. The proposed approach is
illustrated with the help of a biological model of the network of oxidative stress response.
Conclusions: The combination of efficient reformulation of the identification problem
with the possibility to incorporate various types of prior knowledge enables the
application of computational model inference to systems with limited amount of time
series data. The general applicability of thismethodological approachmakes it suitable for
a variety of biological systems and of general interest for biological and medical research.
Embedded reactive systems underpin various safety-critical applications wherein they interact with other systems and the environment with limited or even no human supervision. Therefore, design errors that violate essential system specifications can lead to severe unacceptable damages. For this reason, formal verification of such systems in their physical environment is of high interest. Synchronous programs are typically used to represent embedded reactive systems while hybrid systems serve to model discrete reactive system in a continuous environment. As such, both synchronous programs and hybrid systems play important roles in the model-based design of embedded reactive systems. This thesis develops induction-based techniques for safety property verification of synchronous and hybrid programs. The imperative synchronous language Quartz and its hybrid systems’ extensions are used to sustain the findings.
Deductive techniques for software verification typically use Hoare calculus. In this context, Verification Condition Generation (VCG) is used to apply Hoare calculus rules to a program whose statements are annotated with pre- and postconditions so that the validity of an obtained Verification Condition (VC) implies correctness of a given proof goal. Due to the abstraction of macro steps, Hoare calculus cannot directly generate VCs of synchronous programs unless it handles additional label variables or goto statements. As a first contribution, Floyd’s induction-based approach is employed to generate VCs for synchronous and hybrid programs. Five VCG methods are introduced that use inductive assertions to decompose the overall proof goal. Given the right assertions, the procedure can automatically generate a set of VCs that can then be checked by SMT solvers or automated theorem provers. The methods are proved sound and relatively complete, provided that the underlying assertion language is expressive enough. They can be applied to any program with a state-based semantics.
Property Directed Reachability (PDR) is an efficient method for synchronous hardware circuit verification based on induction rather than fixpoint computation. Crucial steps of the PDR method consist of deciding about the reachability of Counterexamples to Induction (CTIs) and generalizing them to clauses that cover as many unreachable states as possible. The thesis demonstrates that PDR becomes more efficient for imperative synchronous programs when using the distinction between the control- and dataflow. Before calling the PDR method, it is possible to derive additional program control-flow information that can be added to the transition relation such that less CTIs will be generated. Two methods to compute additional control-flow information are presented that differ in how precisely they approximate the reachable control-flow states and, consequently, in their required runtime. After calling the PDR method, the CTI identification work is reduced to its control-flow part and to checking whether the obtained control-flow states are unreachable in the corresponding extended finite state machine of the program. If so, all states of the transition system that refer to the same program locations can be excluded, which significantly increases the performance of PDR.
The design of the fifth generation (5G) cellular network should take account of the emerging services with divergent quality of service requirements. For instance, a vehicle-to-everything (V2X) communication is required to facilitate the local data exchange and therefore improve the automation level in automated driving applications. In this work, we inspect the performance of two different air interfaces (i.e., LTE-Uu and PC5) which are proposed by the third generation partnership project (3GPP) to enable the V2X communication. With these two air interfaces, the V2X communication can be realized by transmitting data packets either over the network infrastructure or directly among traffic participants. In addition, the ultra-high reliability requirement in some V2X communication scenarios can not be fulfilled with any single transmission technology (i.e., either LTE-Uu or PC5). Therefore, we discuss how to efficiently apply multi-radio access technologies (multi-RAT) to improve the communication reliability. In order to exploit the multi-RAT in an efficient manner, both the independent and the coordinated transmission schemes are designed and inspected. Subsequently, the conventional uplink is also extended to the case where a base station can receive data packets through both the LTE-Uu and PC5 interfaces. Moreover, different multicast-broadcast single-frequency network (MBSFN) area mapping approaches are also proposed to improve the communication reliability in the LTE downlink. Last but not least, a system level simulator is implemented in this work. The simulation results do not only provide us insights on the performances of different technologies but also validate the effectiveness of the proposed multi-RAT scheme.
Betrachtet man sowohl die klassische betriebs-wirtschaftliche Literatur als auch die Literatur der Controlling-Forschung, so ist ersichtlich, dass jeweils eine Anspruchskongruenz der Eigenkapitalgeber unterstellt wird, welche zu einem einheitlichen Diskontsatz führt, wie dies insbesondere auch im Shareholder Value-Ansatz deutlich wird. Grundlage dieses Postulates ist die neoklassische Theorie, welche unter restriktiven Prämissen die Einmütigkeit der Shareholder hinsichtlich des Formalziels „Shareholder Value“-Maximierung modelltheoretisch abzuleiten vermag. Hierbei werden jedoch ein vollkommener Kapitalmarkt sowie eine Entscheidungssituation unter Sicherheit vorausgesetzt. Beide Prämissen sind auf realen Märkten nicht gegeben. Trotz dieser fehlenden modelltheoretisch strengen Einmütigkeit können jedoch Unternehmen, wie auch empirisch zu sehen ist, offensichtlich durchaus (in gewissen Grenzen) divergierende Shareholderansprüche inkorporieren, welches mit den traditionellen Modellen nicht plausibel abzubilden ist.
Die Frage, wie dies dennoch konzeptionell begründet werden könnte, konstituiert die Ausgangsgrundlage dieses Forschungsbeitrags. Hierbei werden zuerst die standardökonomischen Ansätze zur Klärung der Einmütigkeitsfrage kritisch reflektiert, bevor mit dem Konzept der bounded rationality nach Simon und Gigerenzer eine verhaltenswissenschaftliche Gegenposition eingenommen wird. Diese kann, wie gezeigt wird, als konzeptionelle Grundlage dienen, um die empirisch evidente, hinreichende Einmütigkeit unter den Eigenkapitalgebern eines Unternehmens zu erklären. Hierbei stellt sich jedoch für das Management die zentrale Frage, wie hoch die erwarteten Renditeansprüche der Shareholder legitimer Weise ausfallen dürfen. Diese Frage gewinnt an zusätzlicher Relevanz, wenn man davon ausgeht, dass die Eigenkapitalrenditen im Bezug zum zusätzlichen Risiko, welches die Eigenkapitalgeber tragen, überproportional hoch ausfallen. Das Controlling kann in diesem Kontext einen bedeutenden Beitrag zur Führungsunterstützung des Managements – und damit zu einem dauerhaften Erfolg des Unternehmens – leisten.
Während des Forschungsprozesses zur Erstellung einer wissenschaftlichen Arbeit müssen zahlreiche Entscheidungen getroffen und auch gerechtfertigt werden. Dies gilt nicht nur für konzeptionelle Arbeiten, sondern insbesondere auch für empirisch ausgerichtete Arbeiten. In diesem Zusammenhang leistet der vorliegende Leitfaden einen Beitrag zur konzeptionellen sowie anwendungsbezogenen empirischen Grundlagenforschung im Controlling unter besonderer Berücksichtigung der Vorgehensweise am Lehrstuhl für Unternehmensrechnung und Controlling. Das zentrale
Ziel des Leitfadens liegt dabei in dem Aufzeigen eines Überblicks über die Grundlagen der empirischen Forschung im Controlling. Hierzu wird in einem ersten Schritt die wissenschaftstheoretische Relevanz der fundierten empirischen Forschung im Kontext realwissenschaftlicher Untersuchungen aufgezeigt und diese mit dem Forschungskonzept des Lehrstuhls verknüpft. Hieran anschließend werden einige empirische Forschungsdesigns vorgestellt, wobei insbesondere die Methodik der Vignetten-studie näher erörtert wird. Abschließend befasst sich der folgende Beitrag mit der konzeptionell fundierten Durchführung einer empirischen Studie anhand des 6-Phasen-Modells nach Reiß und Sarris (2012).