Refine
Year of publication
- 2019 (186) (remove)
Document Type
- Doctoral Thesis (74)
- Article (61)
- Master's Thesis (16)
- Periodical Part (14)
- Working Paper (7)
- Part of a Book (2)
- Conference Proceeding (2)
- Other (2)
- Preprint (2)
- Report (2)
Has Fulltext
- yes (186)
Keywords
- Erwachsenenbildung (6)
- Schule (5)
- wissenschaftliche Weiterbildung (5)
- Digitalisierung (3)
- Evaluation (3)
- Mathematische Modellierung (3)
- Organisationsentwicklung (3)
- Schulentwicklung (3)
- Simulation (3)
- Zertifikatskurs (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (30)
- Kaiserslautern - Fachbereich Informatik (24)
- Kaiserslautern - Fachbereich Sozialwissenschaften (22)
- Kaiserslautern - Fachbereich Biologie (15)
- Kaiserslautern - Fachbereich Mathematik (15)
- Kaiserslautern - Fachbereich Physik (15)
- Distance and Independent Studies Center (DISC) (14)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Kaiserslautern - Fachbereich Bauingenieurwesen (8)
Synapses are the fundamental structures that regulate the functionality of the neural circuit. The ability of the synapse to modulate its structure and function at a fast rate due to various sensory inputs provides the strength to the nervous system to incorporate new adaptations and behaviors in the animal. The synapses are very dynamic throughout the life of the animal starting from early development. Continuous events of formation and elimination of synapse, activation and inhibition of synaptic function are observed in almost all synapses. These processes occur at a high speed and require controlled cellular mechanisms. Imbalance in these processes results in defective nervous system and has been reported in many neurological disorders. Thus, it is important to understand the mechanisms that regulate process of synapse development maintenance and function.
Kinases and phosphatases are the key regulators of cellular mechanisms. Understanding the function of these molecules in the neuron will shed light on the molecular mechanisms of synaptic plasticity. Using Drosophila melanogaster larval neuromuscular junction as a model, Bulat et al. (2014) performed a large RNAi based screen targeting kinome and phosphatome of Drosophila to identify the essential kinases and phosphatases and found Myeloid leukemia factor-1 adaptor molecule (Madm) and Protein phosphatase 4 (PP4) as novel regulators of synapse development and maintenance. The function of these molecules in the nervous system has not been reported and hence I investigated on the role of Madm and PP4 in the regulation of synapse development, maintenance and function.
Myeloid leukemia factor-1 adaptor molecule (Madm), a ubiquitously expressing psuedokinase essentially functions to regulate synaptic growth, stability and function. Using a combination of genetic and high throughput imaging, I could demonstrate that Madm functions to regulate the synaptic growth and stability from the presynapse and synaptic organization form the postsynapse. Also, I could demonstrate that Madm functions in association with mTOR pathway to regulate synapse growth acting downstream of 4E-BP. In addition, using electrophysiology, we could demonstrate that Madm is essential for the basic synaptic transmission with an additive function of retrograde synaptic potentiation. In summary, I could demonstrate that Madm is a novel regulator of synaptic development, maintenance and function.
Protein phosphatase 4 (PP4), a ubiquitously expressing protein phosphatase is involved in the regulation of multiple aspects of the nervous system. I could demonstrate that PP4 is essential for the development of nervous system and the metamorphosis. Using genetics and imaging analysis, I could demonstrate that loss of PP4 results in the abnormal morphology of cell organelles. In addition, I could show that loss of PP4 results in defective brain development with poorly developed structures.
Altogether, in this study, I could demonstrate the importance of novel molecules, a pesudokinase Madm and protein phosphatases PP4 in the nervous system to regulate distinct aspects of the neuron.
Hardware Contention-Aware Real-Time Scheduling on Multi-Core Platforms in Safety-Critical Systems
(2019)
While the computing industry has shifted from single-core to multi-core processors for performance gain, safety-critical systems (SCSs) still require solutions that enable their transition while guaranteeing safety, requiring no source-code modifications and substantially reducing re-development and re-certification costs, especially for legacy applications that are typically substantial. This dissertation considers the problem of worst-case execution time (WCET) analysis under contentions when deadline-constrained tasks in independent partitioned task set execute on a homogeneous multi-core processor with dynamic time-triggered shared memory bandwidth partitioning in SCSs.
Memory bandwidth in multi-core processors is shared across cores and is a significant cause of performance bottleneck and temporal variability of multiple-orders in task’s execution times due to contentions in memory sub-system. Further, the circular dependency is not only between WCET and CPU scheduling of others cores, but also between WCET and memory bandwidth assignments over time to cores. Thus, there is need of solutions that allow tailoring memory bandwidth assignments to workloads over time and computing safe WCET. It is pragmatically infeasible to obtain WCET estimates from static WCET analysis tools for multi-core processors due to the sheer computational complexity involved.
We use synchronized periodic memory servers on all cores that regulate each core’s maximum memory bandwidth based on allocated bandwidth over time. First, we present a workload schedulability test for known even-memory-bandwidth-assignment-to-active-cores over time, where the number of active cores represents the cores with non-zero memory bandwidth assignment. Its computational complexity is similar to merge-sort. Second, we demonstrate using a real avionics certified safety-critical application how our method’s use can preserve an existing application’s single-core CPU schedule under contentions on a multi-core processor. It enables incremental certification using composability and requires no-source code modification.
Next, we provide a general framework to perform WCET analysis under dynamic memory bandwidth partitioning when changes in memory bandwidth to cores assignment are time-triggered and known. It provides a stall maximization algorithm that has a complexity similar to a concave optimization problem and efficiently implements the WCET analysis. Last, we demonstrate dynamic memory assignments and WCET analysis using our method significantly improves schedulability compared to the stateof-the-art using an Integrated Modular Avionics scenario.
Ein Bioraffineriekonzept für (Bier-)Treber wird vorgeschlagen, bei dem im Gegensatz zu bestehenden Konzepten wasserlösliche Komponenten durch Pressen abgetrennt und als Grundlage für eine Milchsäurefermentation mit Lactobacillus delbrueckii subsp. lactis verwendet werden. Die verbleibenden strukturellen Kohlenhydrate des Treberrückstandes werden durch hydrothermale und enzymatische Vorbehandlung in fermentierbare Zucker überführt. Es entstehen deutlich weniger Nebenprodukte, die das Wachstum von Mikroorganismen inhibieren können, als bei der Nutzung von nicht abgepresstem Treber.
Untersuchung der spektroskopischen und kinetischen Eigenschaften von Dihydroxysäure-Dehydratasen
(2019)
Eisen-Schwefel-Cluster sind wichtige Cofaktoren, die an der Redox- und Nicht-Redox-Katalyse beteiligt sind. Enzyme der Lyase-Familie wie Aconitase, Fumarase und DihydroxysäureDehydratase enthalten Cluster, die an drei Cystein-Liganden koordiniert sind. Das Eisenion, das an einen Nicht-Cysteinyl-Liganden koordiniert ist, wirkt als Lewis-Säure und interagiert mit dem Substrat über die Hydroxygruppe des dritten Kohlenstoffatoms und der Carboxygruppe. Das in dieser Arbeit untersuchte Enzym ist die Dihydroxysäure-Dehydratase (DHAD), welche an der Biosynthese der Aminosäuren Isoleucin, Leucin und Valin beteiligt ist. In dieser Arbeit wurden die kinetischen und spektroskopischen Eigenschaften von DHAD aus Streptococcus mutans, Streptococcus thermophilus, Saccharomyces cerevisiae und Escherichia coli untersucht. Zu diesem Zweck wurden ihre Gene kloniert und die Proteine in E. coli Zellen exprimiert. Nach der Proteinreinigung zeigten die UV-Vis-, ESR- und Mössbauer-Spektroskopie die Anwesenheit eines [2Fe-2S]2+-Clusters in der S. mutans DHAD, eines [4Fe-4S]2+-Cluster in E. coli DHAD und einer Mischung von [2Fe-2S]2+- und [4Fe-4S]2+ -Cluster in der S. cerevisiae DHAD. Darüber hinaus unterstützten die Ergebnisse der Sauerstoffstabilitätstests und des Eisen- und säurelabilen Sulfidgehalts die spektroskopischen Analysen. MössbauerSpektroskopie lieferte zusätzlich Information für das Vorhandensein eines nicht-cysteinyl-koordinierten Eisenions in den Clustern der S. mutans und in E. coli DHAD. Enzymaktivitätsmessungen mit dem Dinitrophenylhydrazin-Assay und den hier etablierten gekoppelten Assays mit NADH-abhängigen Ketoisovalerat-reduzierenden Dehydrogenasen wurden durchgeführt, um die spezifischen Aktivitäten und die kinetischen Parameter der DHAD zu bestimmen. Interaktionsstudien der S. mutans DHAD mit dem Substrat, dem Produkt, den substrat- und produktähnlichen Verbindungen mittels UV-Vis-, ESR-, Mössbauer- und FT-IR-Spektroskopie zeigten, dass nur das (2R)-Isomer des Substrats und 2-Ketosäuren (KIV, Kbut) mit dem Cluster der S. mutans DHAD interagierten. Das DHAD-Produkt (2-Ketoisovalerat) interagiert vermutlich über seine Enolform mit dem Cluster. Interessanterweise wurde starke Interaktion des Clusters mit der β-Mercaptogruppe von 3-Mercaptopropionat beobachtet. Diese Wechselwirkung wurde unabhängig durch Inhibitionsstudien verifiziert. Anschließend zeigte eine Gelfiltrationsanalyse die Reversibilität der Interaktionen. Insgesamt hat die vorliegende Arbeit unser Wissen über die biotechnologisch wichtigen DHAD-Enzyme erweitert.
Substrate channeling is a widespread mechanism in metabolic pathways to avoid decomposition of unstable intermediates, competing reactions, and to accelerate catalytic turnover. During the biosynthesis of light-harvesting phycobilins in cyanobacteria, two members of the ferredoxin-dependent bilin reductases are involved in the reduction of the open-chain tetrapyrrole biliverdin IXα to the pink pigment phycoerythrobilin. The first reaction is catalyzed by 15,16-dihydrobiliverdin:ferredoxin oxidoreductase and produces the unstable intermediate 15,16-dihydrobiliverdin (DHBV). This intermediate is subsequently converted by phycoerythrobilin:ferredoxin oxidoreductase to the final product phycoerythrobilin. Although substrate channeling has been postulated already a decade ago, detailed experimental evidence was missing. Using a new on-column assay employing immobilized enzyme in combination with UV-Vis and fluorescence spectroscopy revealed that both enzymes transiently interact and that transfer of the intermediate is facilitated by a significantly higher binding affinity of DHBV toward phycoerythrobilin:ferredoxin oxidoreductase. Concluding from the presented data, the intermediate DHBV is transferred via proximity channeling.
Die Versorgungsaufgaben für Niederspannungsnetze werden sich in den kommenden Jahrzehnten durch die weitere Verbreitung von Photovoltaikanlagen, Wärmepumpenheizungen und Elektroautomobilen gegenüber denen des Jahres 2018 voraussichtlich stark ändern. In der Praxis verbreitete Planungsgrundsätze für den Neubau von Niederspannungsnetzen sind veraltet, denn sie stammen vielfach in ihren Grundzügen aus Zeiten, in denen die neuen Lasten und Einspeisungen nicht erwartet und dementsprechend nicht berücksichtigt wurden. Der Bedarf für neue Planungsgrundsätze fällt zeitlich mit der Verfügbarkeit regelbarer Ortsnetztransformatoren (rONT) zusammen, die zur Verbesserung der Spannungsverhältnisse im Netz eingesetzt werden können. Die hier entwickelten neuen Planungsgrundsätze erfordern für ländliche und vorstädtische Versorgungsaufgaben (nicht jedoch für städtische Versorgungsaufgaben) den rONT-Einsatz, um die hohen erwarteten Leistungen des Jahres 2040 zu geringen Kosten beherrschen zu können. Eine geeignete rONT-Standardregelkennlinie wird angegeben. In allen Fällen werden abschnittsweise parallelverlegte Kabel mit dem Querschnitt 240 mm² empfohlen.
Using molecular dynamics simulation, we study nanoindentation in large samples of Cu–Zr glass at various temperatures between zero and the glass transition temperature. We find that besides the elastic modulus, the yielding point also strongly (by around 50%) decreases with increasing temperature; this behavior is in qualitative agreement with predictions of the cooperative shear model. Shear-transformation zones (STZs) show up in increasing sizes at low temperatures, leading to shear-band activity. Cluster analysis of the STZs exhibits a power-law behavior in the statistics of STZ sizes. We find strong plastic activity also during the unloading phase; it shows up both in the deactivation of previous plastic zones and the appearance of new zones, leading to the observation of pop-outs. The statistics of STZs occurring during unloading show that they operate in a similar nature as the STZs found during loading. For both cases, loading and unloading, we find the statistics of STZs to be related to directed percolation. Material hardness shows a weak strain-rate dependence, confirming previously reported experimental findings; the number of pop-ins is reduced at slower indentation rate. Analysis of the dependence of our simulation results on the quench rate applied during preparation of the glass shows only a minor effect on the properties of STZs.
The importance of well trained and stable neck flexors and extensors as well as trunk muscles for intentional headers in soccer is increasingly discussed. The neck flexors and extensors should ensure a coupling of trunk and head at the time of ball contact to increase the physical mass hitting the ball and reduce head acceleration. The aim of the study was to analyze the influence of a 6-week strength training program (neck flexors, neck extensors) on the acceleration of the head during standing, jumping and running headers as well as after fatigue of the trunk muscles on a pendulum header. A total of 33 active male soccer players (20.3 ± 3.6 years, 1.81 ± 0.07 m, 75.5 ± 8.3 kg) participated and formed two training intervention groups (IG1: independent adult team, IG2: independent youth team) and one control group (CG: players from different teams). The training intervention consisted of three exercises for the neck flexors and extensors. The training effects were verified by means of the isometric maximum voluntary contraction (IMVC) measured by a telemetric Noraxon DTS force sensor. The head acceleration during ball contact was determined using a telemetric Noraxon DTS 3D accelerometer. There was no significant change of the IMVC over time between the groups (F=2.265, p=.121). Head acceleration was not reduced significantly for standing (IG1 0.4 ± 2.0, IG2 0.1 ± 1.4, CG -0.4 ± 1.2; F = 0.796, p = 0.460), jumping (IG1-0.7 ± 1.4, IG2-0.2 ± 0.9, CG 0.1 ± 1.2; F = 1.272, p = 0.295) and running (IG1-1.0 ± 1.9, IG2-0.2 ± 1.4, CG -0.1 ± 1.6; F = 1.050, p = 0.362) headers as well as after fatigue of the trunk musculature for post-jumping (IG1-0.2 ± 2.1, IG2-0.6 ± 1.4; CG -0.6 ± 1.3; F = 0.184, p = 0.833) and post-running (IG1-0.3 ± 1.6, IG2-0.7 ± 1.2, CG 0.0 ± 1.4; F = 0.695, p = 0.507) headers over time between IG1, IG2 and CG. A 6-week strength training of the neck flexors and neck extensors could not show the presumed preventive benefit. Both the effects of a training intervention and the consequences of an effective intervention for the acceleration of the head while heading seem to be more complex than previously assumed and presumably only come into effect in case of strong impacts.
Key words: Heading, kinetics, head-neck-torso-alignment, neck musculature, repetitive head impacts, concussion
Technische und gesellschaftliche Entwicklungen im Bereich der Digitalisierung und vor allem der künstlichen Systeme werden in der gutachterlichen Stellungnahme dargestellt. Im Mittelpunkt stehen Auswirkungen der digitalen Transformation für Politik und Verwaltung in Rhein-land-Pfalz, verschiedene technische Lösungen, Divergenzen zwischen ländlichem und urbanen Räumen sowie Zukunftsvorstellungen.
Bei künstlicher Intelligenz handelt es sich um einen spezifischen Aspekt der Digitalisierung. Beide – Digitalisierung und Künstliche Intelligenz – gehen mit unterschiedlichen Facetten gesellschaftlichen Wandels einher, die in ihrer orts- und regionalspezifischen Einbettung zu untersuchen sind. Dabei ist es unabdingbar, sowohl die gesellschaftlichen als auch die technischen Innovationen aufeinander zu beziehen und diese in ihren Wechselwirkungen als eine sozio-technische Dynamik aufzufassen.
Auf Grundlage eines umfassenden Literaturreviews wird ein Überblick über die aktuellen technischen Anwendungen bei der Künstlichen Intelligenz und der Digitalisierung gegeben (Maschinenlernen, Robotics, Deep Learning, Data Mining, Blockchain, etc). In den verschiedenen Siedlungsräumen in Rheinland-Pfalz kommen – teilweise in transdisziplinären Forschungsprojekten – die neuen digitalen Möglichkeiten bereits zum Einsatz, z.B. im Projekt Digitale Dörfer, in der Chemieindustrie oder bei Versuchen für autonomes Fahren. Anwendungsfelder in unterschiedlichen Lebensbereichen werden für die verschiedenen Regionen in Rheinland-Pfalz aufgezeigt. Das Verschmelzen von virtuellem und realem Raum sowie die Normalisierung digitaler Lebensstile führt auch zu wachsenden Erwartungen an die Digitalität von Verwaltung und Politik. Vorteile von KI in der Verwaltung können erleichterte Kontakte zu Bürgern, schnellere interne Kommunikationswege, eine Prozessoptimierung und die Vernetzung der Abteilungen und Ressorts sein.
Die Autorinnen und Autoren der TU Kaiserslautern, Fachgebiet Stadtsoziologie, des Deut-schen Forschungszentrums für Künstliche Intelligenz DFKI und des Fraunhofer-Instituts für Experimentelles Software-Engineering IESE erarbeiteten in einem Expertenworkshop verschiedene Szenarien zur Darstellung der zukünftigen Lebenssituationen kommunaler Gemeinschaften unter der An- und Verwendung von Digitalisierungstechnologien und KI im Jahr 2050. Die Chancen und Risiken für die unterschiedlichen Regionen und Lebens-bereiche in Rheinland-Pfalz wurden in zwei extremen Varianten skizziert und einander gegenübergestellt. Während der Dystopie-Zustand eine Zukunft zeichnet, in der die Märkte von wenigen Global-Playern mit enormer Datenhoheit und aggressiven Geschäftsmodellen dominiert wer-den, zeigt der Utopie-Zustand eine von Teilhabe und Mitbestimmung geprägte, digitale Zukunft: Die digitale Transformation wird durch Politik und Gesellschaft gleichermaßen gesteuert, Bürger haben volle Datenhoheit und bestimmen individuell und situationsspezifisch, wann und welche Daten sie veröffentlichen möchten. Neue Möglichkeiten der Arbeitsgestaltung und neue Mobilitätsformen haben zu einer Flexibilisierung und Attraktivitätssteigerung hinsichtlich des Lebens und Arbeitens auf dem Land beigetragen. Ethische Grundprinzipien, gesellschaftliche, wirtschaftliche und politische Anforderungen werden somit mit den technologischen Potenzialen optimal in Einklang gebracht.
Wie diese Stellungnahme anhand der entworfenen Utopie und Dystopie illustriert, ist die technische Entwicklung von gesellschaftlicher Steuerung und Regulierung abhängig. Vor diesem Hintergrund erfordert die digitale Transformation Gestaltungswillen, spezifische Kenntnisse und auch Regulierung. Bei Letzterem gilt es, sowohl die Daten als Rohmaterial für KI, die (digitale und KI-) Technologien selbst – ihre Entwicklung und Verwendung – sowie daraus resultierende Informationen bzw. Wissen zu unterscheiden. Die Empfehlung aus dem Gutachten lautet daher, Informationen über Potenziale und Risiken transparent zugänglich und bekannt zu machen, die Bevölkerung aktiv einzubinden und eine strukturierte Förderung zu leisten, um Insellösungen zu überwinden und stattdessen Standards und offene Infrastrukturen zu schaffen. Es besteht die Gefahr, dass sich beim Einführungsprozess nicht-legitimierte, von Spezialisten und der Privatwirtschaft dominierte Strukturen (Meta-Governance) etablieren.
Insgesamt gilt beim Prozess der digitalen Transformation, dass Lösungen aus der vor-digitalen Ära nicht einfach auf heutige und zukünftige Probleme angewendet werden können. Ferner ist die Diversität der Situationen vor Ort bei der digitalen Transformation zu berücksichtigen. Dies ist insbesondere vor dem Hintergrund des ländlich geprägten Rhein-land-Pfalz von Bedeutung.
Die örtlichen Verwaltungen unterliegen der digitalen Transformation ebenso wie andere Systeme und Lebensbereiche, sie sind in unterschiedlichem Maße in der Lage, die Chancen für lokale und regionale Interessen zu nutzen und ihre Interessen durchzusetzen. Kommunen und Landkreise benötigen Unterstützung, damit sie von anderen, z.B. Leuchtturm-Projekten, lernen und beraten werden können. Ein Gegenstromprinzip von zivilgesellschaftlichen bzw. lokalen Bottom-up-Prozessen und Top-down- Unterstützung durch das Land erscheint zielführend (z.B. im Tourismus).
Bei der Bevölkerung sind bezogen auf KI und Digitalisierung aktuell gegensätzliche Tendenzen zu verzeichnen: Einerseits nehmen die Erwartungen an eine digitalisierte und moderne Verwaltung zu. Andererseits stoßen insbesondere als komplexer wahrgenommene Aspekte wie KI auf Vorbehalte. Bei einem verantwortungsvollen Umgang kann KI ihr Potenzial entfalten, indem die Algorithmen und eingeführte Technologien hinsichtlich der Gesetzeslage sowie ethischer und moralischer Überlegungen überwacht und gesteuert wer-den. Ein verantwortungsvoller Umgang mit Daten basiert auf aufgeklärten Entscheidern, informierten Bürgern und der Unterstützung von „bürgerschützenden Regeln”, die Miss-brauch grundsätzlich erschweren und Verstöße ahnden.
Langfristige Aussagen über die konkrete Entwicklung und Auswirkung von KI und Digitalisierung lassen sich nicht treffen aufgrund der Geschwindigkeit und Sprunghaftigkeit der Entwicklungen. In Bildung und Wissenschaft sollten im Bereich von KI die Interdisziplinarität gestärkt, nachhaltige und langfristige Strukturen geschaffen werden, um die digitale Transformation begleitend und aktivierend zu erforschen.
Adjustment Effects of Maximum Intensity Tolerance During Whole-Body Electromyostimulation Training
(2019)
Intensity regulation during whole-body electromyostimulation (WB-EMS) training is mostly controlled by subjective scales such as CR-10 Borg scale. To determine objective training intensities derived from a maximum as it is used in conventional strength training using the one-repetition-maximum (1-RM), a comparable maximum in WB-EMS is necessary. Therefore, the aim of this study was to examine, if there is an individual maximum intensity tolerance plateau after multiple consecutive EMS application sessions. A total of 52 subjects (24.1 ± 3.2 years; 76.8 ± 11.1 kg; 1.77 ± 0.09 m) participated in the longitudinal, observational study (38 males, 14 females). Each participant carried out four consecutive maximal EMS applications (T1–T4) separated by 1 week. All muscle groups were stimulated successively until their individual maximum and combined to a whole-body stimulation index to carry out a possible statement for the development of the maximum intensity tolerance of the whole body. There was a significant main effect between the measurement times for all participants (p < 0.001; ????2 = 0.39) as well as gender specific for males (p = 0.001; ????2 = 0.18) and females (p < 0.001; ????2 = 0.57). There were no interaction effects of gender × measurement time (p = 0.394). The maximum intensity tolerance increased significantly from T1 to T2 (p = 0.001) and T2 to T3 (p < 0.001). There was no significant difference between T3 and T4 (p = 1.0). These results indicate that there is an adjustment of the individual maximum intensity tolerance to a WB-EMS training after three consecutive tests. Therefore, there is a need of several habituation units comparable to the identification of the individual 1-RM in conventional strength training. Further research should focus on an objective intensity-specific regulation of the WB-EMS based on the individual maximum intensity tolerance to characterize different training areas and therefore generate specific adaptations to a WB-EMS training compared to conventional strength training methods.
Visualization is vital to the scientific discovery process.
An interactive high-fidelity rendering provides accelerated insight into complex structures, models and relationships.
However, the efficient mapping of visualization tasks to high performance architectures is often difficult, being subject to a challenging mixture of hardware and software architectural complexities in combination with domain-specific hurdles.
These difficulties are often exacerbated on heterogeneous architectures.
In this thesis, a variety of ray casting-based techniques are developed and investigated with respect to a more efficient usage of heterogeneous HPC systems for distributed visualization, addressing challenges in mesh-free rendering, in-situ compression, task-based workload formulation, and remote visualization at large scale.
A novel direct raytracing scheme for on-the-fly free surface reconstruction of particle-based simulations using an extended anisoptropic kernel model is investigated on different state-of-the-art cluster setups.
The versatile system renders up to 170 million particles on 32 distributed compute nodes at close to interactive frame rates at 4K resolution with ambient occlusion.
To address the widening gap between high computational throughput and prohibitively slow I/O subsystems, in situ topological contour tree analysis is combined with a compact image-based data representation to provide an effective and easy-to-control trade-off between storage overhead and visualization fidelity.
Experiments show significant reductions in storage requirements, while preserving flexibility for exploration and analysis.
Driven by an increasingly heterogeneous system landscape, a flexible distributed direct volume rendering and hybrid compositing framework is presented.
Based on a task-based dynamic runtime environment, it enables adaptable performance-oriented deployment on various platform configurations.
Comprehensive benchmarks with respect to task granularity and scaling are conducted to verify the characteristics and potential of the novel task-based system design.
A core challenge of HPC visualization is the physical separation of visualization resources and end-users.
Using more tiles than previously thought reasonable, a distributed, low-latency multi-tile streaming system is demonstrated, being able to sustain a stable 80 Hz when streaming up to 256 synchronized 3840x2160 tiles and achieve 365 Hz at 3840x2160 for sort-first compositing over the internet, thereby enabling lightweight visualization clients and leaving all the heavy lifting to the remote supercomputer.
Many loads acting on a vehicle depend on the condition and quality of roads
traveled as well as on the driving style of the motorist. Thus, during vehicle development,
good knowledge on these further operations conditions is advantageous.
For that purpose, usage models for different kinds of vehicles are considered. Based
on these mathematical descriptions, representative routes for multiple user
types can be simulated in a predefined geographical region. The obtained individual
driving schedules consist of coordinates of starting and target points and can
thus be routed on the true road network. Additionally, different factors, like the
topography, can be evaluated along the track.
Available statistics resulting from travel survey are integrated to guarantee reasonable
trip length. Population figures are used to estimate the number of vehicles in
contained administrative units. The creation of thousands of those geo-referenced
trips then allows the determination of realistic measures of the durability loads.
Private as well as commercial use of vehicles is modeled. For the former, commuters
are modeled as the main user group conducting daily drives to work and
additional leisure time a shopping trip during workweek. For the latter, taxis as
example for users of passenger cars are considered. The model of light-duty commercial
vehicles is split into two types of driving patterns, stars and tours, and in
the common traffic classes of long-distance, local and city traffic.
Algorithms to simulate reasonable target points based on geographical and statistical
data are presented in detail. Examples for the evaluation of routes based
on topographical factors and speed profiles comparing the influence of the driving
style are included.
To exploit the whole potential of Additive Manufacturing (AM), a sound knowledge about the mechanical and especially cyclic properties of AM materials as well as their dependency on the process parameters is indispensable. In the presented work, the influence of chemical composition of the used powder on the fatigue behavior of Selectively Laser Melted (SLM) and Laser Deposition Welded (LDW) specimens made of austenitic stainless steel AISI 316L was investigated. Therefore, in each manufacturing process two variations of chemical composition of the used powder were utilized. For qualitative characterization of the materials cyclic deformation behavior, load increase tests (LITs) were performed and further used for the physically based lifetime calculation method (PhyBaLLIT), enabling an efficient determination of stress (S)–number of cycles to failure (Nf) curves (S–Nf), which show excellent correlation to additionally performed constant amplitude tests (CATs). Moreover, instrumented cyclic indentation tests (PhyBaLCHT) were utilized to characterize the materials’ defect tolerance in a comparably short time. All material variants exhibit a high influence of microstructural defects on the fatigue properties. Consequently, for the SLM process a higher fatigue lifetime at lower stress amplitudes could be observed for the batch with a higher defect tolerance, resulting from a more pronounced deformation induced austenite–α’-martensite transformation. In correspondence to that, the batch of LDW material with an increased defect tolerance exhibit a higher fatigue strength. However, the differences in defect tolerance between the LDW batches is only slightly influenced by phase transformation and seems to be mainly governed by differences in hardening potential of the austenitic microstructure. Furthermore, a significantly higher fatigue strength could be observed for SLM material in relation to LDW specimens, because of a refined microstructure and smaller microstructural defects of SLM specimens.
Die Deutschen Auslandsschulen (DAS) stellen bisher ein Desiderat in der Forschung dar. Diese Arbeit knüpft an dieser Stelle an und entwickelt Thesen sowie Hypothesen darüber, welche Rolle die die Personalfluktuation an DAS für deren Schulentwicklung spielt. Hierfür wurden Leitfadeninterviews mit Schulleitern an DAS geführt und qualitativ ausgewertet.
Die Interviewtranskripte wurden entfernt, um die Anonymität der Interviewten zu garantieren.
A distributional solution framework is developed for systems consisting of linear hyperbolic partial differential equations (PDEs) and switched differential algebraic equations (DAEs) which are coupled via boundary conditions. The unique solvability is then characterize in terms of a switched delay DAE. The theory is illustrated with an example of electric power lines modeled by the telegraph equations which are coupled via a switching transformer where simulations confirm the predicted impulsive solutions.
Wir zeigen an einigen Beispielen, wie man numerische Simulationen in Tabellenkalkulationsprogrammen (hier speziell in Excel) erzeugen kann. Diese können beispielsweise im Kontext von mathematischer Modellierung verwendet werden.
Die Beispiele umfassen ein Modell zur Ausbreitung von Krankheiten, die Flugkurve eines Fußballs unter Berücksichtigung von Luftreibung, eine Monte-Carlo-Simulation zur experimentellen Bestimmung von pi, eine Monte-Carlo-Simulation eines gemischten Kartenstapels und die Modellierung von Benzinpreisen mit einem Preistrend und Rauschen
Ultrahochfester Beton (UHB oder aus dem Englischen Ultra High Performance Concrete, kurz UHPC) weist eine Druckfestigkeit im Bereich von 150 bis 250 MPa auf. Eine gesteigerte Zugfestigkeit und ein duktiles Verhalten werden durch die Zugabe von Mikrostahlfasern erzielt (Ultra High Performance Fibre Reinforced Concrete, UHPFRC). Der Fasergehalt ist in der Regel höher als bei normalfestem Faserbeton, sodass aufgrund der Fasern ein „Strain-hardening“ Verhalten erreicht werden kann: in einem Biegezugversuch kann die Last nach der Erstrissbildung weiter gesteigert werden bis zur Ausbildung mehrerer feiner Risse. Da der Beitrag der Fasern zum Zugtragverhalten des UHPFRC ein wesentlicher ist, müssen die Bauteile im gerissenen Zustand bemessen werden. Während der statische und dynamische Widerstand bereits umfangreich untersucht wurde, liegen nur wenige Untersuchungen bezüglich das Dauerstandzugverhaltens von gerissenem ultrahochfestem Beton vor. Untersuchungen an normalfestem faserverstärktem Beton haben gezeigt, dass die zeitabhängigen Zugverformungen im gerissenen Zustand größer sind als die in ungerissenem Material.
Um die zu erwartenden Verformungen abschätzen zu können und um das Kriechverhalten des Materials bis zum Versagen zu analysieren, wurde im Rahmen dieser Arbeit ein umfangreiches Versuchsprogramm durchgeführt. Über 60 uniaxiale Zug- und Biegezugprobekörper wurden unter Dauerlast über einen Zeitraum von bis zu 15 Monaten beansprucht. Davon wurden 22 Probekörper nach vier Monaten hinsichtlich ihrer Resttragfähigkeit getestet. Die restlichen Probekörper befinden sich für Langzeit-Messungen weiterhin in den Dauerlastprüfständen. Es wurden dabei verschiedene Parameter untersucht: u.a. das Belastungsniveau, Art und Umfang der Nachbehandlung des Betons, das Betonalter zu Beginn der Belastung, der Fasergehalt und die Faserschlankheit. Das Schwinden der unbelasteten Probekörper sowie das Druckkriechen belasteter Probekörper wurden an der verwendeten Mischung gemessen.
Der UHPFRC wies im Allgemeinen ein sehr stabiles Verhalten auf und es zeigte sich keine unkontrollierte Zunahme der Verformungen infolge eines Faserauszugs. Lediglich bei einem Probekörper kam es bei einer Last von 79% der aufgebrachten Last am Ende der Vorbelastung zum Versagen. Der Autor sieht dabei eine ungünstige Faserausrichtung als mögliche Ursache des frühzeitigen Versagens des Probekörpers an, was auf einen bedeutenden Einfluss dieses Parameters auf die Tragfähigkeit schließen lässt. Hinsichtlich der Bemessung von gerissenen UHPFRC-Bauteilen unter Dauerlast wurde ein Vorschlag für die Bemessung der Dauerstandfestigkeit ausgearbeitet.
Darüber hinaus wurden Faserauszugversuche durchgeführt und das Verbund-Schlupfverhalten der verwendeten Fasern ermittelt. Einige Probekörper wurden nach uniaxialen Zugversuchen per Computertomographie gescannt, um den Zusammenhang der Fasern im Versagensquerschnitt zur Zugfestigkeit der Probekörper zu untersuchen. Die untersuchten Probekörper wiesen unterschiedliche Zugfestigkeiten auf. Diese konnten durch die verschiedenen Faseranzahlen im Versagensquerschnitt gut abgebildet werden.
Shared memory concurrency is the pervasive programming model for multicore architectures
such as x86, Power, and ARM. Depending on the memory organization, each architecture follows
a somewhat different shared memory model. All these models, however, have one common
feature: they allow certain outcomes for concurrent programs that cannot be explained
by interleaving execution. In addition to the complexity due to architectures, compilers like
GCC and LLVM perform various program transformations, which also affect the outcomes of
concurrent programs.
To be able to program these systems correctly and effectively, it is important to define a
formal language-level concurrency model. For efficiency, it is important that the model is
weak enough to allow various compiler optimizations on shared memory accesses as well
as efficient mappings to the architectures. For programmability, the model should be strong
enough to disallow bogus “out-of-thin-air” executions and provide strong guarantees for well-synchronized
programs. Because of these conflicting requirements, defining such a formal
model is very difficult. This is why, despite years of research, major programming languages
such as C/C++ and Java do not yet have completely adequate formal models defining their
concurrency semantics.
In this thesis, we address this challenge and develop a formal concurrency model that is very
good both in terms of compilation efficiency and of programmability. Unlike most previous
approaches, which were defined either operationally or axiomatically on single executions,
our formal model is based on event structures, which represents multiple program executions,
and thus gives us more structure to define the semantics of concurrency.
In more detail, our formalization has two variants: the weaker version, WEAKEST, and the
stronger version, WEAKESTMO. The WEAKEST model simulates the promising semantics proposed
by Kang et al., while WEAKESTMO is incomparable to the promising semantics. Moreover,
WEAKESTMO discards certain questionable behaviors allowed by the promising semantics.
We show that the proposed WEAKESTMO model resolve out-of-thin-air problem, provide
standard data-race-freedom (DRF) guarantees, allow the desirable optimizations, and can be
mapped to the architectures like x86, PowerPC, and ARMv7. Additionally, our models are
flexible enough to leverage existing results from the literature to establish data-race-freedom
(DRF) guarantees and correctness of compilation.
In addition, in order to ensure the correctness of compilation by a major compiler, we developed
a translation validator targeting LLVM’s “opt” transformations of concurrent C/C++
programs. Using the validator, we identified a few subtle compilation bugs, which were reported
and were fixed. Additionally, we observe that LLVM concurrency semantics differs
from that of C11; there are transformations which are justified in C11 but not in LLVM and
vice versa. Considering the subtle aspects of LLVM concurrency, we formalized a fragment
of LLVM’s concurrency semantics and integrated it into our WEAKESTMO model.
In this thesis, we deal with the worst-case portfolio optimization problem occuring in discrete-time markets.
First, we consider the discrete-time market model in the presence of crash threats. We construct the discrete worst-case optimal portfolio strategy by the indifference principle in the case of the logarithmic utility. After that we extend this problem to general utility functions and derive the discrete worst-case optimal portfolio processes, which are characterized by a dynamic programming equation. Furthermore, the convergence of the discrete worst-case optimal portfolio processes are investigated when we deal with the explicit utility functions.
In order to further study the relation of the worst-case optimal value function in discrete-time models to continuous-time models we establish the finite-difference approach. By deriving the discrete HJB equation we verify the worst-case optimal value function in discrete-time models, which satisfies a system of dynamic programming inequalities. With increasing degree of fineness of the time discretization, the convergence of the worst-case value function in discrete-time models to that in continuous-time models are proved by using a viscosity solution method.
Low damping magnetic properties and perpendicular magnetic anisotropy in the Heusler alloy Fe1.5CoGe
(2019)
We present a study of the dynamic magnetic properties of TiN-buffered epitaxial thin films of the Heusler alloy Fe1.5CoGe. Thickness series annealed at different temperatures are prepared and the magnetic damping is measured, a lowest value of α = 2.18 × 10−3 is obtained. The perpendicular magnetic anisotropy properties in Fe1.5CoGe/MgO are also characterized. The evolution of the interfacial perpendicular anisotropy constant K⊥S with the annealing temperature is shown and compared with the widely used CoFeB/MgO interface. A large volume contribution to the perpendicular anisotropy of (4.3 ± 0.5) × 105 J/m3 is also found, in contrast with vanishing bulk contribution in common Co- and Fe-based Heusler alloys.
Carotenoids are organic lipophilic tetraterpenes ubiquitously present in Nature and found across the three domains of life (Archaea, Bacteria and Eukaryotes). Their structure is characterized by an extensive conjugated double-bond system, which serves as a light-absorbing chromophore, hence determining its colour, and enables carotenoids to absorb energy from other molecules and to act as antioxidant agents. Humans obtain carotenoids mainly via the consumption of fruits and vegetables, and to a smaller extent from other food sources such as fish and eggs. The concentration of carotenoids in the human plasma and tissues has been positively associated with a lower incidence of several chronic diseases including, cancer, diabetes, macular degeneration and cardiovascular conditions, likely due to their antioxidant properties. However, an important aspect of carotenoids, namely β- and α-carotene and β-cryptoxanthin, in human health and development, is their potential to be converted by the body into Vitamin A.
Yet, bioavailability of carotenoids is relatively low (< 30%) and dependent, among others, on dietary factors, such as amount and type of dietary lipids and the presence of dietary fibres. One dietary factor that has been found to negatively impact carotenoid bioaccessibility and cellular uptake in vitro is high concentrations of divalent cations during simulated gastro-intestinal digestion. Nevertheless, the mechanism of action of divalent cations remains unclear. The goal of this thesis was to better understand how divalent cations act during digestion and modulate carotenoid bioavailability. In vitro trials of simulated gastro-intestinal digestion and cellular uptake were run to investigate how varying concentrations of calcium, magnesium and zinc affected the bioaccessibility of both pure carotenoids and carotenoids from food matrices. In order to validate or refute results obtained in vitro, a randomized and double blinded placebo controlled cross-over postprandial trial (24 male participants) was carried out, testing the effect of 3 supplementary calcium doses (0 mg, 500 mg and 1000 mg) on the bioavailability of carotenoids from a spinach based meal. In vitro trials showed that addition of the divalent cations significantly decreased the bioaccessibility of both pure carotenoids (P < 0.001) and those from food matrices (P < 0.01). This effect was dependent on the type of mineral and its concentration. Strongest effects were seen for increasing concentrations of calcium followed by magnesium and zinc. The addition of divalent cations also altered the physico-chemical properties, i.e. viscosity and surface tension, of the digestas. However, the extent of this effect varied according to the type of matrix. The effects on bioaccessibility and physico-chemical properties were accompanied by variations of the zeta-potential of the particles in solution. Taken together, results from the in vitro trials strongly suggested that divalent cations were able to bind bile salts and other surfactant agents, affecting their solubility. The observed i) decrease in macroviscosity, ii) increase in surface tension, and the iii) reduction of the zeta-potential of the digesta, confirmed the removal of surfactant agents from the system, most likely due to precipitation as a result of the lower solubility of the mineral-surfactant complexes. As such, micellarization of carotenoids was hindered, explaining their reduced bioaccessibility. As for the human trial, results showed that there was no significant influence of supplementation with either 500 or 1000 mg of supplemental calcium (in form of carbonate) on the bioavailability of a spinach based meal, as measured by the area-under curve of carotenoid concentrations in the plasma-triacylglycerol rich fraction, suggesting that the in vitro results are not supported in such an in vivo scenario, which may be explained by the initial low bioaccessibility of spinach carotenoids and the dissolution kinetics of the calcium pills. Further investigations are necessary to understand how divalent cations act during in vivo digestion and potentially interact with lipophilic nutrients and food constituents.
Modern applications in the realms of wireless communication and mobile broadband Internet increase the demand for compact antennas with well defined directivity. Here, we present an approach for the design and implementation of hybrid antennas consisting of a classic feeding antenna that is near-field-coupled to a subwavelength resonator. In such a combined structure, the composite antenna always radiates at the resonance frequency of the subwavelength oscillator as well as at the resonance frequency of the feeding antenna. While the classic antenna serves as impedance-matched feeding element, the subwavelength resonator induces an additional resonance to the composite antenna. In general, these near-field coupled structures are known for decades and are lately published as near-field resonant parasitic antennas. We describe an antenna design consisting of a high-frequency electric dipole antenna at fd=25 GHz that couples to a low-frequency subwavelength split-ring resonator, which emits electromagnetic waves at fSRR=10.41 GHz. The radiating part of the antenna has a size of approximately 3.2mm×8mm×1mm and thus is electrically small at this frequency with a product k⋅a=0.5 . The input return loss of the antenna was moderate at −18 dB and it radiated at a spectral bandwidth of 120 MHz. The measured main lobe of the antenna was observed at 60∘ with a −3 dB angular width of 65∘ in the E-plane and at 130∘ with a −3 dB angular width of 145∘ in the H-plane
Regulation of metabolism is complex and involves enzymes and membrane transporters, which form networks to support energy dynamics. Lactate, as a metabolic intermediate from glucose or glycogen breakdown, appears to play a major role as additional energetic substrate, which is shuttled between glycolytic and oxidative cells, both under hypoxic and normoxic conditions. Transport of lactate across the cell membrane is mediated by monocarboxylate transporters (MCTs) in cotransport with H+, which is a substrate, a signal and a modulator of metabolic processes. MCTs form a “transport metabolon” with carbonic anhydrases (CAs), which not only provide a rapid equilibrium between CO2, HCO3– and H+, but, in addition, enhances lactate transport, as found in Xenopus oocytes, employed as heterologous expression system, as well as in astrocytes and cancer cells. Functional interactions between different CA isoforms and MCTs have been found to be isoform-specific, independent of the enzyme’s catalytic activity, and they require physical interaction between the proteins. CAs mediate between different states of metabolic acidosis, induced by glycolysis and oxidative phosphorylation, and play a relay function in coupling pH regulation and metabolism. In the brain, metabolic processes in astrocytes appear to be linked to bicarbonate transport and to neuronal activity. Here, we focus on physiological processes of energy dynamics in astrocytes as well as on the transfer of energetic substrates to neurons.
Cyclic indentation is a technique used to characterize materials by indenting repeatedly on the same location. This technique allows information to be obtained on how the plastic material response changes under repeated loading. We explore the processes underlying this technique using a combined experimental and simulative approach. We focus on the loading–unloading hysteresis and the dependence of the hysteresis width ha,p on the cycle number. In both approaches, we obtain a power-law demonstrating ha,p with respect to the hardening exponent e. A detailed analysis of the atomistic simulation results shows that changes in the dislocation network under repeated indentation are responsible for this behavior.
Dieser Arbeits- und Forschungsbericht beschreibt die Begleitung und Analyse des neu eingerichteten
berufsbegleitenden Bachelorstudiengangs Industriepharmazie. Der Studiengang
startete im Sommersemester 2018 an der Hochschule Kaiserslautern und wurde in dessen
ersten Semester durch Mitarbeitende des Teilprojektteams E-hoch-B – Entwicklung durch Bildung
begleitet und evaluiert. Ziel war es, Erkenntnisse und Verbesserungsvorschläge zur Sicherung
der Qualität des Studiums zu gewinnen und diese in Zusammenarbeit mit dem Fachbereich
Angewandte Logistik- und Polymerwissenschaften umzusetzen. Zur Definition der Zielgruppe
der berufsbegleitend Studierenden und deren Wahrnehmung des Studiums wurden qualitative
Einzelinterviews durchgeführt, welche durch einen Fragebogen ergänzt wurden. Aus den gewonnenen
Ergebnissen lassen sich auch für zukünftige Entwicklungen berufsbegleitender Studienangebote
wichtige Erkenntnisse und Maßnahmen ableiten.
In jüngerer Vergangenheit wurden Konzepte zur Bestimmung der erforderlichen
Bewehrung zur Begrenzung der Rissbreite in dicken Bauteilen erarbeitet und in den
aktuellen Bemessungsnormen des Stahlbeton- und Spannbetonbaus verankert. Mit
Hilfe dieser Konzepte ist es möglich, dicke Bauteile gegenüber den bislang
angewendeten Bemessungsverfahren sinnvoll zu bewehren.
Stahlbetonhochbaudecken zählen jedoch in der Regel zu den schlanken Bauteilen und
somit nicht zu der Kategorie von Bauteilen, für die die neuen Bemessungsansätze
entwickelt wurden. Dennoch sind sie es, die den Massenverbrauch in den Tragwerken
von Hochbauten dominieren. Die Auslegung von Stahlbetondecken spielt somit eine
entscheidende Rolle im Hinblick auf die Wirtschaftlichkeit und die Umweltfreundlichkeit
von Hochbauten.
Stahlbetonhochbaudecken sind im Regelfall einer kombinierten Beanspruchung aus
Last und Zwang unterworfen. Die hierbei für die Bemessung erforderliche Größe der
Zwangkraft kann angesichts ihrer direkten Verknüpfung mit der Steifigkeit nur mit Hilfe
von physikalisch nichtlinearen Finite-Elemente-Berechnungen mit ausreichender
Genauigkeit abgeschätzt werden. Für Tragwerksplaner wäre ein solches Vorgehen im
Rahmen von realen Bauprojekten jedoch mit einem unverhältnismäßig hohen Aufwand
verbunden. In der Praxis ist es daher derzeit üblich, an jeder Stelle eines Bauteils den
größeren Wert derjenigen Bewehrungsquerschnitte einzulegen, die sich aus Last oder
aus Zwang ergeben. Die zur Aufnahme der Zwangbeanspruchungen erforderliche
Bewehrung wird hierbei basierend auf der Risskraft des jeweiligen Bauteils gewählt.
Dieses Vorgehen ist aber in vielen Fällen unwirtschaftlich und kann auch auf der
unsicheren Seite liegen.
Im Rahmen der vorliegenden Arbeit wird daher die Frage nach einer geeigneten
Bewehrung für Hochbaudecken unter einer kombinierten Beanspruchung aus Last und
zentrischem Zwang experimentell und numerisch untersucht. Auf Basis der
gewonnenen Erkenntnisse aus den experimentellen und numerischen
Untersuchungen wird ein Näherungsverfahren ausgearbeitet, welches eine
wirklichkeitsnahe Abschätzung der Zwanglängskraft und somit eine wirtschaftliche und
sichere Wahl der Bewehrung zur Begrenzung der Rissbreite bei einachsig gespannten
Stahlbetonhochbaudecken erlaubt.
A measurement technique, i.e. reflectance anisotropy/difference spectroscopy (RAS/RDS), which had originally been developed for in-situ
epitaxial growth control, is employed here for in-situ real-time etch-depth control during reactive ion etching (RIE) of cubic crystalline III/V
semiconductor samples. Temporal optical Fabry-Perot oscillations of the genuine RAS signal (or of the average reflectivity) during etching due
to the ever shrinking layer thicknesses are used to monitor the current etch depth. This way the achievable in-situ etch-depth resolution has
been around 15 nm. To improve etch-depth control even further, i.e. down to below 5 nm, we now use the optical equivalent of a mechanical
vernier scale– by employing Fabry-Perot oscillations at two different wavelengths or photon energies of the RAS measurement light – 5%
apart, which gives a vernier scale resolution of 5%. For the AlGaAs(Sb) material system a 5 nm resolution is an improvement by a factor of 3
and amounts to a precision in in-situ etch-depth control of around 8 lattice constants.
Dieser Arbeits- und Forschungsbericht skizziert die Erprobung und beschreibt die Evaluationsergebnisse des wissenschaftlichen Zertifikatskurses „Versorgungsstrategien und psychosoziale Unterstützung für ein Leben mit Demenz zu Hause“. Der Kurs wurde im Wintersemester 2018/19 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen erprobt und durch Mitarbeitende des Teilprojektes E-hoch-B – „Pflege und Gesundheit“ begleitet und evaluiert. Ziel war es, die soziodemografischen Merkmale sowie bildungs- und berufsbiografischen Kennzeichen der Teilnehmenden des Zertifikatskurses herauszuarbeiten. Weiterhin sollte festgehalten werden, wie die Teilnehmenden den Zertifikatskurs erleben und welche Handlungsempfehlungen für die Weiterentwicklung und Verstetigung des Kurses abgeleitet werden können. Die Zielgruppe für das evidenzbasierte Bildungsangebot waren berufserfahrene Pflegefachpersonen aus der ambulanten Gesundheitsversorgung. Es sind qualitative Fokusgruppeninterviews durchgeführt worden, die durch Fragebögen flankiert wurden.
Diese Arbeit behandelt die steuerliche Behandlung von Sanierungsgewinnen. Es wird aufgezeigt, wie sich der steuerliche Umgang mit Sanierungsgewinnen im Laufe der letzten 100 Jahre geändert hat, insbesondere aber darauf eingegangen, welche Folgen der Beschluss des BFH vom 28. November 2016 mit sich brachte. Es wird eingehend auf mögliche Lösungsansätze für das Problem der sog. "Altfälle" eingegangen.
Wissenschaftliche Studien belegen, dass die überwiegende Mehrheit der Geflüchteten in Großstädten wohnen will. Hauptgrund ist die Hoffnung, dort leichter Arbeit und Kontakt zu anderen Geflüchteten zu finden.
Aufgrund geringerer Einkommen, mangelnder Sprachkenntnisse und Diskriminierungen bekommen Geflüchtete allerdings nur schwer Zugang zum Wohnungsmarkt. Befürchtungen, dass gerade Metropolen mit der Unterbringung überfordert sind, führen zu Forderungen, Geflüchtete verstärkt in ländlichen Räumen unterzubringen. Ob eine Integration in ländlichen Regionen jedoch gelingen kann, hängt von der Verfügbarkeit von geeignetem Wohnraum, Arbeitsplätzen, ÖPNV, Kapazitäten im Bildungssystem und einer Akzeptanz von Zuwanderung in der Bevölkerung ab. Das Wohnumfeld nimmt dabei eine entscheidende Rolle für die Integration ein.
Im Poster wird anhand dreier Fallbeispiele in Rheinland-Pfalz dargestellt wo und wie Geflüchtete wohnen, in-wiefern sie von Segregation betroffen sind, welche Einbindung sie in ihr Umfeld haben und was ihnen bei der Unterbringung wichtig ist. Methodisch beruht der Beitrag auf der Auswertung der SOEP-Flüchtlingsstudie – differenziert nach siedlungsstrukturellen Merkmalen - sowie amtlichen Daten aus der kleinen Großstadt Kaiserslau-tern, der Schwarmstadt Mainz und dem ländlichen Landkreis Kusel. Des Weiteren haben wir im Jahr 2018 53 leitfadengestützte Interviews mit Geflüchteten, Anwohnern und Anwohnerinnen sowie Expertinnen und Experten aus drei Untersuchungsräumen geführt.
Der Vergleich von städtischen und ländlichen Räumen zeigt, dass die sozialräumlichen Bedingungen für eine gelungene Integration nicht ausschließlich in Städten vorhanden sind. Multiethnische Quartiere in Metropolen können die Vernetzung begünstigen, sie bergen aber auch die Gefahr einer wachsenden unfreiwilligen Segregation. Die Interviews aus Kusel zeigen, dass Geflüchtete, die zentral im ländlichen Raum wohnen, mit dem Leben dort zufrieden sind. Die Ergebnisse verdeutlichen, dass Geflüchtete – ebenso wie andere Migrantengruppen auch – Quartiere mit dichter Bebauung, einer Nutzung, die Erwerbsmöglichkeiten beinhaltet, und in denen zentrale Angebote zu Bildung, Arbeit und kostenfreien Treffpunkten vorhanden sind, bevorzugen. Diese Quartiere kann es in Metropolen, Mittelstädten, aber auch im ländlichen Raum geben.
Die geometrische Produktspezifikation steht - wie viele andere Industriezweige - vor einschneidenden Veränderungen. Durch Digitalisierung und Automatisierung ändern sich viele industrielle Rahmenbedingungen. Ziel dieser Arbeit ist es, die derzeitigen Trends für die industrielle Rauheitsmesstechnik systematisch zusammenzutragen. Basierend auf diesen Veränderungen werden korrespondierende eigene Forschungsarbeiten vorgestellt, welche an die gezogenen Schlussfolgerungen anknüpfen. Dabei wird ein ganzheitlicher Ansatz zur Betrachtung technischer Oberflächen gewählt, welcher zunächst die fertigungstechnische Erzeugung deterministischer Rauheitsstrukturen analysiert. Anschließend werden die Beschreibung der resultierenden Topographiemerkmale mittels mathematischer Modelle und deren messtechnische Erfassung durch typische Topographie-Messgeräte untersucht. Weiterhin wird die hierauf aufbauende Charakterisierung der Oberfläche thematisiert, welche durch die Anwendung der Operationen Einpassung, Interpolation, Filterung und Berechnung von Rauheitskenngrößen gekennzeichnet ist.
Im Rahmen fertigungstechnischer Betrachtungen werden dabei neue Technologien für die Herstellung flächenhafter Kalibriernormale untersucht, welche stellvertretend für deterministische Rauheitsstrukturen dienen, die immer weitere industrielle Verbreitung finden, um funktionelle Bauteileigenschaften mithilfe der Oberflächenbeschaffenheit abzubilden. Als Fertigungsverfahren werden dabei das direkte Laserschreiben sowie das Mikrofräsen betrachtet.
Für die eigentliche Betrachtung dieser Oberflächen werden dabei Ansätze zur Modellierung von Rauheitseigenschaften untersucht, welche auf Methoden aus der Zeitreihenmodellierung basieren.
Die messtechnische Erfassung von Rauheitsstrukturen ist anschließend Gegenstand der Analyse des Übertragungsverhaltens. Dabei werden hier ebenfalls Modelle genutzt, um die Übertragung von Oberflächeneigenschaften durch technische Rauheitsmessgeräte zu modellieren.
Letzte Betrachtungen werden zur Auswertung von Rauheitskenngrößen angestellt. Dabei werden insbesondere die funktionsorientierten Rauheitskenngrößen untersucht, welche aufgrund der zunehmenden Komplexität technischer rauer Oberflächen verstärkt an Bedeutung gewinnen.
Anisotropy of tracer-coupled networks is a hallmark in many brain regions. In the past, the topography of these networks was analyzed using various approaches, which focused on different aspects, e.g., position, tracer signal, or direction of coupled cells. Here, we developed a vector-based method to analyze the extent and preferential direction of tracer spreading. As a model region, we chose the lateral superior olive—a nucleus that exhibits specialized network topography. In acute slices, sulforhodamine 101-positive astrocytes were patch-clamped and dialyzed with the GJ-permeable tracer neurobiotin, which was subsequently labeled with avidin alexa fluor 488. A predetermined threshold was used to differentiate between tracer-coupled and tracer-uncoupled cells. Tracer extent was calculated from the vector means of tracer-coupled cells in four 90° sectors. We then computed the preferential direction using a rotating coordinate system and post hoc fitting of these results with a sinusoidal function. The new method allows for an objective analysis of tracer spreading that provides information about shape and orientation of GJ networks. We expect this approach to become a vital tool for the analysis of coupling anisotropy in many brain regions
The systems in industrial automation management (IAM) are information systems. The management parts of such systems are software components that support the manufacturing processes. The operational parts control highly plug-compatible devices, such as controllers, sensors and motors. Process variability and topology variability are the two main characteristics of software families in this domain. Furthermore, three roles of stakeholders -- requirement engineers, hardware-oriented engineers, and software developers -- participate in different derivation stages and have different variability concerns. In current practice, the development and reuse of such systems is costly and time-consuming, due to the complexity of topology and process variability. To overcome these challenges, the goal of this thesis is to develop an approach to improve the software product derivation process for systems in industrial automation management, where different variability types are concerned in different derivation stages. Current state-of-the-art approaches commonly use general-purpose variability modeling languages to represent variability, which is not sufficient for IAM systems. The process and topology variability requires more user-centered modeling and representation. The insufficiency of variability modeling leads to low efficiency during the staged derivation process involving different stakeholders. Up to now, product line approaches for systematic variability modeling and realization have not been well established for such complex domains. The model-based derivation approach presented in this thesis integrates feature modeling with domain-specific models for expressing processes and topology. The multi-variability modeling framework includes the meta-models of the three variability types and their associations. The realization and implementation of the multi-variability involves the mapping and the tracing of variants to their corresponding software product line assets. Based on the foundation of multi-variability modeling and realization, a derivation infrastructure is developed, which enables a semi-automated software derivation approach. It supports the configuration of different variability types to be integrated into the staged derivation process of the involved stakeholders. The derivation approach is evaluated in an industry-grade case study of a complex software system. The feasibility is demonstrated by applying the approach in the case study. By using the approach, both the size of the reusable core assets and the automation level of derivation are significantly improved. Furthermore, semi-structured interviews with engineers in practice have evaluated the usefulness and ease-of-use of the proposed approach. The results show a positive attitude towards applying the approach in practice, and high potential to generalize it to other related domains.
In Vergabeverfahren muss nicht zwingend das billigste Angebot den Zuschlag erhalten. Die Wirtschaftlichkeit bestimmt sich vielmehr nach dem besten Preis-Leistungs-Verhältnis. Und hier kann neben dem Preis oder den Kosten die Leistungsstärke (Qualität, Innovation, Nachhaltigkeit, etc.) der Angebote eine wesentliche Rolle als zulässiges Zuschlagskriterium spielen.
Die Arbeit betrachtet neben der Begrifflichkeit des wirtschaftlichsten Angebots die Zulässigkeit, Angemessenheit und die Anwendbarkeit des Zuschlagskriteriums Nachhaltigkeit (umweltbezogene Aspekte, soziale Aspekte) zur Bestimmung des wirtschaftlichsten Angebots. Dabei werden die Anforderungen an die Transparenz und einen wirksamen Wettbewerb untersucht.
Neben der Angemessenheit des Zuschlagskriteriums Nachhaltigkeit und dem Bestimmungsrecht des Auftraggebers wird auch die Messbarkeit und Bewertbarkeit sowie die Bewertungsspielräume der Auftraggeber und die mögliche Verletzung von Bieterrechten betrachtet.
Außerdem wird die Frage untersucht, ob und wie Nachhaltigkeit als Zuschlagskriterium mit den Handlungsprinzipien von Wirtschaftlichkeit und Sparsamkeit des Haushaltsrechts vereinbar sind.
Function of two redox sensing kinases from the methanogenic archaeon Methanosarcina acetivorans
(2019)
MsmS is a heme-based redox sensor kinase in Methanosarcina acetivorans consisting of alternating PAS and GAF domains connected to a C-terminal kinase domain. In addition to MsmS, M. acetivorans possesses a second kinase, MA0863 with high sequence similarity. Interestingly, MA0863 possesses an amber codon in its second GAF domain, encoding for the amino acid pyrrolysine. Thus far, no function of this residue has been resolved. In order to examine the heme iron coordination in both proteins, an improved method for the production of heme proteins was established using the Escherichia coli strain Nissle 1917. This method enables the complete reconstitution of a recombinant hemoprotein during protein production, thereby resulting in a native heme coordination. Analysis of the full-length MsmS and MA0863 confirmed a covalently bound heme cofactor, which is connected to one conserved cysteine residue in each protein. In order to identify the coordinating amino acid residues of the heme iron, UV/vis spectra of different variants were measured. These studies revealed His702 in MsmS and the corresponding His666 in MA0863 as the proximal heme ligands. MsmS has previously been described as a heme-based redox sensor. In order to examine whether the same is true for MA0863, redox dependent kinase assays were performed. MA0863 indeed displays redox dependent autophosphorylation activity, which is independent of heme ligands and only observed under oxidizing conditions. Interestingly, autophosphorylation was shown to be independent of the heme cofactor but rather relies on thiol oxidation. Therefore, MA0863 was renamed in RdmS (redox dependent methyltransferase-associated sensor). In order to identify the phosphorylation site of RdmS, thin layer chromatography was performed identifying a tyrosine as the putative phosphorylation site. This observation is in agreement with the lack of a so-called H-box in typical histidine kinases. Due to their genomic localization, MsmS and RdmS were postulated to form two-component systems (TCS) with vicinal encoded regulator proteins MsrG and MsrF. Therefore, protein-protein interaction studies using the bacterial adenylate two hybrid system were performed suggesting an interaction of RdmS and MsmS with the three regulators MsrG/F/C. Due to these multiple interactions these signal transduction pathways should rather be considered multicomponent system instead of two component systems.
Previously in this journal we have reported on fundamental transversemode selection (TMS#0) of broad area semiconductor lasers
(BALs) with integrated twice-retracted 4f set-up and film-waveguide lens as the Fourier-transform element. Now we choose and
report on a simpler approach for BAL-TMS#0, i.e., the use of a stable confocal longitudinal BAL resonator of length L with a
transverse constriction.The absolute value of the radius R of curvature of both mirror-facets convex in one dimension (1D) is R = L
= 2f with focal length f.The round trip length 2L = 4f againmakes up for a Fourier-optical 4f set-up and the constriction resulting
in a resonator-internal beam waist stands for a Fourier-optical low-pass spatial frequency filter. Good TMS#0 is achieved, as long
as the constriction is tight enough, but filamentation is not completely suppressed.
1. Introduction
Broad area (semiconductor diode) lasers (BALs) are intended
to emit high optical output powers (where “high” is relative
and depending on the material system). As compared to
conventional narrow stripe lasers, the higher power is distributed
over a larger transverse cross-section, thus avoiding
catastrophic optical mirror damage (COMD). Typical BALs
have emitter widths of around 100 ????m.
Thedrawback is the distribution of the high output power
over a large number of transverse modes (in cases without
countermeasures) limiting the portion of the light power in
the fundamental transverse mode (mode #0), which ought to
be maximized for the sake of good light focusability.
Thus techniques have to be used to support, prefer, or
select the fundamental transverse mode (transverse mode
selection TMS#0) by suppression of higher order modes
already upon build-up of the laser oscillation.
In many cases reported in the literature, either a BAL
facet, the
Covering edges in networks
(2019)
In this paper we consider the covering problem on a networkG=(V,E)withedgedemands. The task is to cover a subsetJ⊆Eof the edges with a minimum numberof facilities within a predefined coverage radius. We focus on both the nodal andthe absolute version of this problem. In the latter, facilities may be placed every-where in the network. While there already exist polynomial time algorithms to solvethe problem on trees, we establish a finite dominating set (i.e., a finite subset ofpoints provably containing an optimal solution) for the absolute version in generalgraphs. Complexity and approximability results are given and a greedy strategy isproved to be a (1+ln(|J|))-approximate algorithm. Finally, the different approachesare compared in a computational study.
Hajós' conjecture asserts that a simple Eulerian graph on n vertices can be decomposed into at most [(n-1)/2] cycles. The conjecture is only proved for graph classes in which every element contains vertices of degree 2 or 4. We develop new techniques to construct cycle decompositions. They work on the common neighborhood of two degree-6 vertices. With these techniques, we find structures that cannot occur in a minimal counterexample to Hajós' conjecture and verify the conjecture for Eulerian graphs of pathwidth at most 6. This implies that these graphs satisfy the small cycle double cover conjecture.
Destructive diseases of the lung like lung cancer or fibrosis are still often lethal. Also in case of fibrosis in the liver, the only possible cure is transplantation.
In this thesis, we investigate 3D micro computed synchrotron radiation (SR\( \mu \)CT) images of capillary blood vessels in mouse lungs and livers. The specimen show so-called compensatory lung growth as well as different states of pulmonary and hepatic fibrosis.
During compensatory lung growth, after resecting part of the lung, the remaining part compensates for this loss by extending into the empty space. This process is accompanied by an active vessel growing.
In general, the human lung can not compensate for such a loss. Thus, understanding this process in mice is important to improve treatment options in case of diseases like lung cancer.
In case of fibrosis, the formation of scars within the organ's tissue forces the capillary vessels to grow to ensure blood supply.
Thus, the process of fibrosis as well as compensatory lung growth can be accessed by considering the capillary architecture.
As preparation of 2D microscopic images is faster, easier, and cheaper compared to SR\( \mu \)CT images, they currently form the basis of medical investigation. Yet, characteristics like direction and shape of objects can only properly be analyzed using 3D imaging techniques. Hence, analyzing SR\( \mu \)CT data provides valuable additional information.
For the fibrotic specimen, we apply image analysis methods well-known from material science. We measure the vessel diameter using the granulometry distribution function and describe the inter-vessel distance by the spherical contact distribution. Moreover, we estimate the directional distribution of the capillary structure. All features turn out to be useful to characterize fibrosis based on the deformation of capillary vessels.
It is already known that the most efficient mechanism of vessel growing forms small torus-shaped holes within the capillary structure, so-called intussusceptive pillars. Analyzing their location and number strongly contributes to the characterization of vessel growing. Hence, for all three applications, this is of great interest. This thesis provides the first algorithm to detect intussusceptive pillars in SR\( \mu \)CT images. After segmentation of raw image data, our algorithm works automatically and allows for a quantitative evaluation of a large amount of data.
The analysis of SR\( \mu \)CT data using our pillar algorithm as well as the granulometry, spherical contact distribution, and directional analysis extends the current state-of-the-art in medical studies. Although it is not possible to replace certain 3D features by 2D features without losing information, our results could be used to examine 2D features approximating the 3D findings reasonably well.
In computer graphics, realistic rendering of virtual scenes is a computationally complex problem. State-of-the-art rendering technology must become more scalable to
meet the performance requirements for demanding real-time applications.
This dissertation is concerned with core algorithms for rendering, focusing on the
ray tracing method in particular, to support and saturate recent massively parallel computer systems, i.e., to distribute the complex computations very efficiently
among a large number of processing elements. More specifically, the three targeted
main contributions are:
1. Collaboration framework for large-scale distributed memory computers
The purpose of the collaboration framework is to enable scalable rendering
in real-time on a distributed memory computer. As an infrastructure layer it
manages the explicit communication within a network of distributed memory
nodes transparently for the rendering application. The research is focused on
designing a communication protocol resilient against delays and negligible in
overhead, relying exclusively on one-sided and asynchronous data transfers.
The hypothesis is that a loosely coupled system like this is able to scale linearly
with the number of nodes, which is tested by directly measuring all possible
communication-induced delays as well as the overall rendering throughput.
2. Ray tracing algorithms designed for vector processing
Vector processors are to be efficiently utilized for improved ray tracing performance. This requires the basic, scalar traversal algorithm to be reformulated
in order to expose a high degree of fine-grained data parallelism. Two approaches are investigated: traversing multiple rays simultaneously, and performing
multiple traversal steps at once. Efficiently establishing coherence in a group
of rays as well as avoiding sorting of the nodes in a multi-traversal step are the
defining research goals.
3. Multi-threaded schedule and memory management for the ray tracing acceleration structure
Construction times of high-quality acceleration structures are to be reduced by
improvements to multi-threaded scalability and utilization of vector processors. Research is directed at eliminating the following scalability bottlenecks:
dynamic memory growth caused by the primitive splits required for high-
quality structures, and top-level hierarchy construction where simple task par-
allelism is not readily available. Additional research addresses how to expose
scatter/gather-free data-parallelism for efficient vector processing.
Together, these contributions form a scalable, high-performance basis for real-time,
ray tracing-based rendering, and a prototype path tracing application implemented
on top of this basis serves as a demonstration.
The key insight driving this dissertation is that the computational power necessary
for realistic light transport for real-time rendering applications demands massively
parallel computers, which in turn require highly scalable algorithms. Therefore this
dissertation provides important research along the path towards virtual reality.
The production of nylon-6.6 is one of the largest scale syntheses in industrial chemistry. The standard procedure is based on an energy consuming low-level conversion of cyclohexane to yield adipic acid in two steps that is converted to nylon-6.6 in a separate step. Therefore, there is a strong intent to optimize the synthetic route in an economic and ecologic matter. In this work, we present a one-pot oxygenation of cyclohexane with hydrogen peroxide and a µ4-oxido-copper cluster catalyst to yield dicarboxylic acids with adipic acid as the main product.
Was in der vorliegenden empirischen Analyse des Einzelfalls mit Blick auf eine umfassende organisationale Transformation als inhärent-emergenter Prozess beschrieben wird, ist gewiss ein Sonderfall: Nach dem Abbruch eines Beratungsprozesses treibt ein System seine Transformation autonom voran, ohne weitere Unterstützung einer Prozessberatung und stellt damit seine Selbstentwicklungsfähigkeit in einem transformativen Prozess der Organisationsentwicklung unter Beweis. Dies ist in der Organisationsentwicklung nicht die Regel und wird sehr wahrscheinlich auch nicht von anderen Organisationen als Modell aufgegriffen, auch nicht von Organisationen desselben Typs (familiengeführte mittelständische Organisationen). Dass ein Eintritt in eine radikale Transformation als autopoietischer Prozess wie hier überhaupt möglich ist, ist den spezifischen Eigenschaften einer Organisation und ihrer zentralen Entscheidungsakteure, besonderen, kontingent geprägten Ereignisketten sowie der aktuellen Konstellation der zweiten Führungsebene zuzuschreiben. Die hier vorgestellte Untersuchung entspricht daher einem „neuen und unbeschriebenen Fall“ (Hering/Jungmann, 2005: 621), einem „per se interessanten Fall“ (ebd.), der sich in keinen Forschungsstand einordnen lässt.
Die räumliche Planung begegnet häufig Herausforderungen, zu deren Bewältigung nicht auf existierendes Wissen zurückgegriffen werden kann. Um neuartiges Wissen zu erzielen, werden insbesondere Modellvorhaben – kleinmaßstäbliche, befristete reale Feldexperimente – als Instrument eingesetzt. Diese zielen darauf ab, wiederverwendbares Wissen reproduzierbar zu erzeugen. Im Rahmen eines Modellvorhabens werden in verschiedenen Modellräumen vielfältige innovative Projekte initiiert, über einen festen Zeitraum umgesetzt sowie bewertet. Akademische oder private Institutionen begleiten Modellvorhaben wissenschaftlich, um allgemeingültige und übertragbare Erkenntnisse zu identifizieren. Die Ergebnisse dieser umfassenden Evaluation werden in einem Abschlussbericht dokumentiert. Erfahrungen zeigen allerdings, dass dies zur Verteilung der Ergebnisse nicht ausreicht, um die Nutzung und Wiederverwendung der in Modellvorhaben generierten Erkenntnisse sicherzustellen. Dies liegt insbesondere daran, dass die Abschlussberichte zu wenig anwendungsorientiert und zu umfangreich sind. So ist der Vergleich zwischen vorhandenen Berichten und einem laufenden Modellvorhaben mit einem zu hohen Aufwand verbunden, wodurch sich ein unausgeglichenes Aufwand-Ertrag-Verhältnis ergibt. Somit wird das Lernen aus Modellvorhaben erschwert.
Um eine effektive und effiziente Dissemination und Verstetigung sowie Wiederverwendbarkeit von Wissen generiert in Modellvorhaben zu erzielen, wurde im Rahmen der vorliegenden Forschungsarbeit ein Modell entwickelt. In einem ersten Schritt wurde für die Analyse von Modellvorhaben eine allgemeingültige Struktur geschaffen, die mit dem generellen Ablauf eines Projekts im Rahmen des Projektmanagements vergleichbar ist. Diese Struktur reduziert den Aufwand Erkenntnisse und Wissen jeweils für die folgenden hier definierten Phasen zu nutzen: Identifikation einer neuen Herausforderung; Projektaufruf; Bewerbungen der möglichen Teilnehmer; Bewertungen der Bewerbungen durch den Initiator; Durchführung; Auswertung; Dissemination, Transfer und Verstetigung.
Im nächsten Schritt wurde in die einzelnen Phasen eines Modellvorhabens ein Wissensmanagementprozess – die Bausteine Wissensziele, -identifikation, -erwerb, - entwicklung, -bewertung, -bewahrung, -(ver)teilung und -nutzung – integriert, um die gemeinsame Nutzungseinheit vom umfassenden Abschlussbericht auf kleinere, in sich abgeschlossene Informationseinheiten zu reduzieren. Auf diese Weise wird der Aufwand für die Identifikation, den Erwerb und die Nutzung von Wissen verringert. Am Ende jeder Phase wird eine Bewertung durchgeführt sowie das erzielte Wissen effizient geteilt. Dafür ist eine systematische Interaktion zwischen Akteuren von Modellvorhaben und eine zentrale Sammlung des Wissens notwendig. Ein wesentliches Ergebnis dieser Arbeit ist die Entwicklung einer neuartigen Austauschinfrastruktur, die das generierte Wissen einerseits bewahrt und andererseits systematisch verteilt. Dadurch kann bereits im Verlauf eines Modellvorhabens gewonnenes Wissen ausgetauscht und wiederverwendet werden, sodass
die Phase der Dissemination, Transfer und Verstetigung in den Prozess verschoben wird. Die Infrastruktur soll frei zugänglich sein und nutzerfreundlich gestaltet werden.
Durch das entwickelte Modell wird eine effektive und effiziente Wiederverwendung von Wissen generiert in Modellvorhaben ermöglicht sowie eine belastbare Grundlage für neue Projekte in der räumlichen Planung geschaffen.
Novel image processing techniques have been in development for decades, but most
of these techniques are barely used in real world applications. This results in a gap
between image processing research and real-world applications; this thesis aims to
close this gap. In an initial study, the quantification, propagation, and communication
of uncertainty were determined to be key features in gaining acceptance for
new image processing techniques in applications.
This thesis presents a holistic approach based on a novel image processing pipeline,
capable of quantifying, propagating, and communicating image uncertainty. This
work provides an improved image data transformation paradigm, extending image
data using a flexible, high-dimensional uncertainty model. Based on this, a completely
redesigned image processing pipeline is presented. In this pipeline, each
step respects and preserves the underlying image uncertainty, allowing image uncertainty
quantification, image pre-processing, image segmentation, and geometry
extraction. This is communicated by utilizing meaningful visualization methodologies
throughout each computational step.
The presented methods are examined qualitatively by comparing to the Stateof-
the-Art, in addition to user evaluation in different domains. To show the applicability
of the presented approach to real world scenarios, this thesis demonstrates
domain-specific problems and the successful implementation of the presented techniques
in these domains.
Nachfolgend ist ein modularer Multilevel-Umrichter mit einer Mehrzahl von Einzelmodulen beschrieben, bei dem eine erste Gruppe von Modulen hintereinander zu einem geschlossenen Ring verschaltet sind und mindestens zwei Abgriffe jeweils zwischen zwei benachbarten Einzelmodulen des Rings angeordnet sind. An mindestens zwei Abgriffen ist je eine zweite weitere Gruppe von Modulen als von der Ringanordnung abzweigendes und einen Sternstrang bildendes Phasenmodul vorgesehen ist. Diese letztgenannten Gruppen von Modulen bilden an den Enden jeweils Anschlüsse oder Abgriffe. Die Module erlauben durch Schaltelemente ein Verschalten von Energiespeichern benachbarter Einzelmodule, wodurch zwischen zwei benachbarten Phasenanschlüssen eine Spannungsdifferenz bereitstellbar ist, die von einer Steuereinheit entsprechend eines Verlaufs eines mehrphasigen Drehfeldes regelbar ist. Ferner betrifft die vorliegende Erfindung ein Polyphasensystem und ein Verfahren zum effizienten Leistungsaustausch zwischen Modulen.
Dieser Arbeits- und Forschungsbericht skizziert die Erprobung des wissenschaftlichen Zertifikatskurses
Ethik und Recht in gemeindenaher Gesundheitsversorgung und beschreibt die
Evaluationsergebnisse. Die Zielgruppe für das Bildungsangebot waren berufserfahrene
Pflegefachpersonen aus der ambulanten Gesundheitsversorgung. Der Kurs wurde im Sommersemester
2019 an der Hochschule für Wirtschaft und Gesellschaft Ludwigshafen erprobt
und durch Mitarbeitende des Teilprojektes E-hoch-B – Pflege und Gesundheit begleitet und evaluiert.
Die Evaluation erfolgte qualitativ durch Fokusgruppeninterviews und quantitativ durch Fragebögen.
Ziel war es, die soziodemografischen Merkmale sowie bildungs- und berufsbiografischen
Kennzeichen der Teilnehmenden des Zertifikatskurses herauszuarbeiten. Weiterhin
sollte festgehalten werden, wie die Teilnehmenden den Zertifikatskurs erlebt haben und welche
Handlungsempfehlungen für die Weiterentwicklung und Verstetigung des Kurses abgeleitet
werden können.
Der Werkstoff Sheet Molding Compound (SMC) wurde in den 1960er Jahren entwickelt
und ermöglichte erstmals die großserientaugliche Herstellung von Faser-
Kunststoff-Verbund (FKV) Bauteilen. Heutzutage werden ca. 20 % aller in Europa
hergestellten Glasfasern in diesem Verfahren zu FKV verarbeitet. Die ökologischen
und ökonomischen Anforderungen an FKV-Bauteile steigen kontinuierlich. Es werden
immer leichtere, mechanisch höher belastbare und auch bio-basierte Pendants zu
bekannten Lösungen gefordert. Im Rahmen dieser Arbeit wurde der Einsatz von biobasierten
und nachwachsenden Rohstoffen als alternative Füllstoffe für duroplastische
SMC-Halbzeuge untersucht. Die Verarbeitung der alternativen Füllstoffe in
SMC-Halbzeugen darf keine negativen Einflüsse auf die Produktions- und Verarbeitungsabläufe
mit sich bringen. Weiterhin soll durch den Einsatz der alternativen Füllstoffe
eine Dichtereduktion um ca. 15 %, bei gleichbleibenden mechanischen Eigenschaften,
erreicht werden. Die Verwendung der bio-basierten und nachwachsenden
Füllstoffe darf nicht in Konkurrenz zur Nahrungsmittelindustrie stehen.
Zu Beginn der Arbeit wurden in Kooperation mit SMC-Experten und SMC-Herstellern
die Spezifikationen und Anforderungen an ein Standard-SMC definiert. Anschließend
wurde ein SMC-Halbzeug auf Basis eines ungesättigten Polyesterharzes, konventioneller
mineralischer Füllstoffe und Glasfasern entwickelt. Dieses Halbzeug erfüllt mit
einer Dichte von 1,95 g/cm³, einem E-Modul von 10,4 GPa und einer Zugfestigkeit
von 100 MPa die geforderten Spezifikationen und diente im weiteren Verlauf der Arbeit
als Referenz.
Im Rahmen der Arbeit wurde nachgewiesen, dass die Verarbeitung von bio-basierten
und nachwachsenden Rohstoffen eine Adaption der zuvor entwickelten Harzpaste
erfordert und Sonnenblumenkernschalenmehl als Füllstoff die konventionellen Füllstoffe
zu 100 % ersetzen kann. Die resultierende Halbzeugdichte beträgt 1,55 g/cm³
und liegt damit 20 % unter dem Referenzmaterial. Sowohl die mechanischen Kennwerte
(E-Modul 10,8 GPa und Zugfestigkeit 96 MPa) als auch die Herstellung und
Verarbeitung der Harzpaste erreichen die Referenzwerte und sind mit konventionellen
Halbzeugen vergleichbar. Im Rahmen der Arbeit konnte somit die Tauglichkeit
bio-basierter und nachwachsender Füllstoffe für einen möglichen Serieneinsatz in
SMC-Halbzeugen nachgewiesen werden.
Sheet Molding Compound (SMC) was developed in the 1960s and initially enabled
the production of glass fiber reinforced polymer composite (GFRPC) in mass scale
production. Nowadays, both material and process are well established for the production
of semi-structural components in various applications from construction industry
to automotive components. Currently, approximately 20% of all glass fibers produced
in Europe are processed to SMC. Increasing strict ecological and economical requirements
for construction materials, force further development of SMC in order to
strengthen its sales markets and open up new ones.
The objective of this work is the development of a SMC semi-finished product, using
bio-based and renewable materials as alternative filler materials. The processing of
the alternative fillers must not have any negative influence on the production and
processing procedures. Furthermore, the use of alternative fillers should achieve a
density reduction of 15% while maintaining the same mechanical properties. The use
of bio-based and renewable fillers must not compete with the food industry.
At first, specifications and requirements for a standard SMC were defined in cooperation
with SMC experts and producers. Afterwards a SMC semi-finished product
based on unsaturated polyester resin, glass fibers and conventional mineral fillers
was developed. With a density of 1.95 g/cm³, a Young’s modulus of 10.4 GPa and a
tensile strength of 100 MPa this SMC fulfills the specifications and is used as a reference
for further development.
In a second step a SMC with bio-based and renewable fillers was developed. This
work proofs the complete replacement of conventional filler materials by bio-based
and renewable filler materials. Therefore an adaption of the resin paste is necessary.
The best results were achieved with a resin paste using sunflower hulls flour as filler
material. The resulting semi-finished product shows a density of 1.55 g/cm³ and both
processability and mechanical properties are comparable to conventional SMC materials With a fiber mass content of 30% by weight, a Young’s modulus of 10.8 GPa
and a tensile strength of 96 MPa are achieved.
Integrationskurslehrkräfte stehen im Bemühen der Bundesrepublik Deutschland um die gesellschaftliche Integration von Neuzugewanderten an „vorderster Front“. Sie erleben Integrationskurse als Orte der interkulturellen Begegnung und müssen gleichzeitig die besonderen Bedingungen des Lernens Erwachsener berücksichtigen. Die Arbeit untersucht mithilfe von Experteninterviews die Frage, welche Herausforderungen für die Lehrkräfte damit verbunden sind und wie sie diesen begegnen. Der Fokus liegt dabei auf dem Umgang mit weiblichen Teilnehmenden. Diese sind zum Zeitpunkt der Untersuchung überwiegend Geflüchtete aus dem arabischen Raum. Im ersten Hauptteil wird sich zunächst mit dem Kulturbegriff und dem Phänomen der Interkulturalität auseinandergesetzt. Konzepte zur interkulturellen Kompetenz werden vorgestellt. Ferner wird beschrieben, wie interkulturelles Lernen in der Erwachsenenbildung erfolgen kann. Die Curricula der Integrationskurse messen den Themen Interkulturalität und Wertevermittlung eine herausragende Bedeutung zu. Die Arbeit zeigt auf, dass an die Qualifikation der Lehrkräfte auf diesem Gebiet jedoch keinerlei verpflichtende Anforderungen gestellt werden. Der zweite Hauptteil der Arbeit umfasst die empirische Untersuchung: eine leitfadengestützte Befragung von acht Integrationskurslehrkräften. Die Auswertung der Interviews erfolgte kategorienbasiert mithilfe der inhaltlich strukturierenden qualitativen Inhaltsanalyse nach Kuckartz unter Verwendung von MAX-QDA-Software. Die Befragung zeigt, dass Integrationskurslehrkräften eine außerordentlich hohe interkulturelle Kompetenz abverlangt wird. Einerseits begegnen ihnen im Kurs lernfreudige Frauen, die an Bildung interessiert sind und eine Berufstätigkeit anstreben. Diese Frauen können ihren Bedürfnissen oft nicht in dem gewünschten Maße nachkommen. Gründe sind Mehrfachbelastungen durch Familienaufgaben, Rollenzuschreibungen durch das Familienumfeld aber auch das Fehlen einer wirkungsvollen Unterstützung der deutschen Behörden. Andererseits treffen die Lehrkräfte auf Teilnehmerinnen, die kein Interesse an Bildung und Beruf zeigen und kaum Lernfortschritte machen. Auf die beschriebene Heterogenität sind die Lehrkräfte weder kulturell noch didaktisch-methodisch vorbereitet. Sie meistern die interkulturellen Herausforderungen aufgrund ihrer biographischen Erfahrungen und mithilfe kollegialer Unterstützung. Allerdings wird deutlich, dass eine (selbst-)reflexive Haltung zu interkulturellen Themen, Wissen über die Herkunftskultur der Teilnehmerinnen sowie Kenntnisse zur Methodik der Wertevermittlung nur selten erworben wurden.
Im Rahmen dieser Dissertationsarbeit wurden 2,6-Bis(pyrazol-3-yl)pyridinliganden im Ligandenrückgrat und in N-Position funktionalisiert, um chirale C2-symmetrische tridentate Liganden mit Stickstoffdonoratomen bzw. bifunktionelle pentadentate Liganden mit Stickstoff- und Phosphordonoratomen zu generieren. Die C2-symmetrischen tridentaten Liganden wurden mit Eisen(II)- und Ruthenium(II)vorstufen zu monometallischen Katalysatoren umgesetzt. Diese wurden erfolgreich in der Hydrosilylierung und Transferhydrierung von Carbonylverbindungen angewendet. Ebenso wurden erste Untersuchungen der Reaktionsmechanismenverläufe durchgeführt. Mit Hilfe der gut zugänglichen bifunktionellen Bispyrazolylpyridinliganden konnten zahlreiche mono- und multimetallische Übergangsmetallkomplexverbindungen synthetisiert und teilweise auf Kooperativität in der katalytischen Reduzierung von Ketonen getestet werden. Dabei wurde bei den durchgeführten Hydrierungs- und Transferhydrierungsreaktionen eine deutliche Aktivitätssteigerung einiger multimetallischer Katalysatoren im Vergleich zu deren monometallischen Derivaten beobachtet. Durch geschickte Wahl der Übergangsmetallkombinationen konnten zusätzlich erste Erkenntnisse über die Kooperativität innerhalb der multimetallischen Katalysatoren gewonnen werden.
Die Alterungsbeständigkeit und Sicherheit von geklebten Verbindungen sind von großer
Bedeutung in industriellen Anwendungen. Die Ausfallwahrscheinlichkeit einer geklebten
Verbindung nach einer bestimmten Zeit kann hierbei durch verschiedene Alterungseffekte,
wie beispielsweise Temperatur und Luftfeuchtigkeit, beeinflusst werden. Die Korrelation der
Ergebnisse aus beschleunigten Laboralterungstests mit dem Langzeitverhalten der
Verbindungen unter Einsatzbedingungen bleibt häufig eine ungelöste Herausforderung. In der
vorliegenden Arbeit wurden computerbasierte Methoden für die nichtlineare Regressionsanalyse,
die Abschätzung der Zuverlässigkeit und die Vorhersage der Sicherheit auf
experimentelle Daten angewendet, die durch beschleunigte Alterung von Zugscherproben
sowie Substanz-Schulterproben generiert wurden. Die Modellierung des Alterungsverhaltens
wurde mit kombinierten Funktionen in Anlehnung an die Modelle nach EYRING und PECK
durchgeführt. Beide Modellierungsansätze erschienen hierbei geeignet zur Beschreibung der
experimentellen Daten. Die Sicherheitsvorhersage wurde anhand der Versagenswahrscheinlichkeit
sowie des Sicherheitsindex β allerdings auf Basis des EYRING-Modells
durchgeführt, da dieses die experimentellen Daten der Referenzbedingung konservativer
beschreibt.