Refine
Year of publication
- 2023 (146)
- 2021 (117)
- 2022 (109)
- 2015 (100)
- 2020 (99)
- 2016 (92)
- 2017 (84)
- 2018 (79)
- 2014 (78)
- 2009 (76)
- 2019 (74)
- 2006 (68)
- 2012 (66)
- 2013 (65)
- 2007 (64)
- 2008 (63)
- 2011 (62)
- 2010 (61)
- 2005 (58)
- 2004 (55)
- 2002 (50)
- 2003 (50)
- 2024 (47)
- 2001 (35)
- 2000 (34)
- 1999 (28)
- 1998 (7)
- 1995 (3)
- 1996 (2)
- 1997 (2)
- 1994 (1)
Document Type
- Doctoral Thesis (1875) (remove)
Language
- English (939)
- German (930)
- Multiple languages (6)
Has Fulltext
- yes (1875) (remove)
Keywords
- Visualisierung (21)
- Simulation (19)
- Katalyse (15)
- Stadtplanung (15)
- Apoptosis (12)
- Finite-Elemente-Methode (12)
- Phasengleichgewicht (12)
- Modellierung (11)
- Infrarotspektroskopie (10)
- Mobilfunk (10)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (390)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (370)
- Kaiserslautern - Fachbereich Mathematik (292)
- Kaiserslautern - Fachbereich Informatik (234)
- Kaiserslautern - Fachbereich Biologie (132)
- Kaiserslautern - Fachbereich Bauingenieurwesen (94)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (92)
- Kaiserslautern - Fachbereich ARUBI (71)
- Kaiserslautern - Fachbereich Sozialwissenschaften (64)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (37)
Since their introduction, robots have primarily influenced the industrial world, providing new opportunities and challenges for humans and machinery. With the introduction of lightweight robots and mobile robot platforms, the field of robot applications has been expanded, diversified, and brought closer to society. The increased degree of digitalization and the personalization of goods and products require an enhanced and flexible robot deployment by operating several multi-robot systems along production processes, industrial applications, assembly and packaging lines, transport systems, etc.
Efficient and safe robot operation relies on successful task planning followed by the computation and execution of task-performing motion trajectories. This thesis addresses these issues by developing, implementing, and validating optimization-based methods for task and trajectory planning in robotics, considering certain optimality and performance criteria. The focus is mainly on the time optimality of the presented approaches with respect to both execution and computation time without compromising safe robot use.
Driven by a systematic approach, the basis for the algorithm development is established first by modeling the kinematics and dynamics of the considered robots and identifying required dynamic parameters. In a further step, time-optimal task and trajectory planning algorithms for a single robotic arm are developed. Initially, a hierarchical approach is introduced consisting of two decoupled optimization-based control policies, a binary problem for task planning, and a continuous model predictive trajectory planning problem. The two layers of the hierarchical structure are then merged into a monolithic layer, resulting in a hybrid structure in the form of a mixed-integer optimization problem for inherent task and trajectory planning.
Motivated by a multi-robot deployment, the hierarchical control structure for time-optimal task and trajectory planning is extended for the case of a two-arm robotic system with highly overlapping operational spaces, leading to challenging robot motions with high inter-robot collision potential. To this end, a novel predictive approach for collision avoidance is proposed based on a continuous approximation of the robot geometry, resulting in a nonlinear optimization problem capable of online applications with real-time requirements. Towards a mobile and flexible robot platform, a model predictive path-following controller for an omnidirectional mobile robot is introduced. Here, a time-minimal approach is also applied, which consists of the robot following a given parameterized path as accurately as possible and at maximum speed.
The performance of the proposed algorithms and methods is experimentally analyzed and validated under real conditions on robot demonstrators. Implementation details, including the resulting hardware and software architecture, are presented, followed by a detailed description of the results. Concrete and industry-oriented demonstrators for integrating robotic arms in existing manual processes and the indoor navigation of a mobile robot complete the work.
Schneckengetriebe werden meist aus einer Stahlschnecke und einem Bronze-Schneckenrad gefertigt. Diese werden zur einstufigen Übertragung von Drehbewegungen bei hohen Übersetzungen eingesetzt. Einen Nachteil von Schneckengetrieben stellt der relativ hohe Verschleiß infolge der hohen Gleitreibung im Zahneingriff dar. Durch eine geeignete Schmierung können Reibung und Verschleiß reduziert werden. Dies reduziert den Temperaturanstieg
im Betrieb und führt somit zu einer längeren Lebensdauer des Getriebes. Aufgrund der ausgeprägten Kühlwirkung erfolgt die Schmierung von Schneckengetrieben in der Praxis überwiegend mit Schmierölen. Fettartige Schmierstoffe werden ebenfalls verwendet, weisen jedoch eine geringere Kühlwirkung als flüssige Schmierstoffe auf. Bei Vakuumanwendungen oder unter extremen Betriebsbedingungen, wie z.B. Hoch- oder Tieftemperaturanwendungen
sowie bei niedrigen hydrodynamischen Geschwindigkeiten, verlieren die oben genannten konventionellen Schmierstoffe ihre Schmierwirkung. Als Alternative
werden Festschmierstoffe eingesetzt.
Festschmierstoffe können im Allgemeinen auf verschiedene Weise in den Kontaktstellen von Maschinenelementen verwendet werden. In dieser Arbeit wird das Prinzip der Transferschmierung durch ein Opferbauteil eingesetzt. Hierbei werden Compounds aus strahlenmodifiziertem Polytetrafluorethylen (PTFE) und Polyamid (PA) als Opferbauteil im Schneckengetriebe verwendet, sodass die Stahlschnecke zeitgleich mit dem Bronze-Schneckenrad und dem Opferrad aus PA-PTFE-Compound im Zahneingriff steht. Durch die Belastung des Opferrades mit einem relativ kleinen Drehmoment verschleißt das Opferrad, wodurch der PTFE-Festschmierstoff freigesetzt und an der Stahloberfläche deponiert wird. Dies führt zur Bildung eines Transferfilms, welcher zur Schmierung des Kontakts
zwischen der Stahlschnecke und dem Bronze-Schneckenrad führt. Die Mechanismen des Auf- und Abbaus solcher Transferfilme in Schneckengetrieben sind derzeit unbekannt und werden in dieser Arbeit anhand experimenteller Untersuchungen erforscht. Hierzu wurden tribologische Versuche an Modellprüfständen durchgeführt, wodurch das reib- und Verschleißverhalten an Stahl-Bronze-Kontakten untersucht wurde. Als Modellprüfstände kamen der Block-auf-Ring-, der Block-Zwei-Scheiben- und der Drei-Scheiben-Prüfstand zum Einsatz. Anschließend wurden Bauteilversuche auf einem Schneckengetriebeprüfstand durchgeführt, um die aus den Modellversuchen gewonnenen Erkenntnisse zu validieren. Mit Hilfe von oberflächenanalytischen Techniken wurden die Prüfkörper auf der Mikroskala untersucht, um die Qualität und Quantität des aufgebauten Transferfilms zu bestimmen.
Cancer, a complex and multifaceted disease, continues to challenge the boundaries of biomedical research. In this dissertation, we explore the complexity of cancer genesis, employing multiscale modeling, abstract mathematical concepts such as stability analysis, and numerical simulations as powerful tools to decipher its underlying mechanisms. Through a series of comprehensive studies, we mainly investigate the cell cycle dynamics, the delicate balance between quiescence and proliferation, the impact of mutations, and the co-evolution of healthy and cancer stem cell lineages. The introductory chapter provides a comprehensive overview of cancer and the critical importance of understanding its underlying mechanisms. Additionally, it establishes the foundation by elucidating key definitions and presenting various modeling perspectives to address the cancer genesis. Next, cell cycle dynamics have been explored, revealing the temporal oscillatory dynamics that govern the progression of cells through the cell cycle.
The first half of the thesis investigates the cell cycle dynamics and evolution of cancer stem cell lineages by incorporating feedback regulation mechanisms. Thereby, the pivotal role of feedback loops in driving the expansion of cancer stem cells has been thoroughly studied, offering new perspectives on cancer progression. Furthermore, the mathematical rigor of the model has been addressed by deriving wellposedness conditions, thereby strengthening the reliability of our findings and conclusions. Then, expanding our modeling scope, we explore the interplay between quiescent and proliferating cell populations, shedding light on the importance of their equilibrium in cancer biology. The models developed in this context offer potential avenues for targeted cancer therapies, addressing perspective cell populations critical for cancer progression. The second half of the thesis focuses on multiscale modeling of proliferating and quiescent cell populations incorporating cell cycle dynamics and the extension thereof with mutation acquisition. Following rigorous mathematical analysis, the wellposedness of the proposed modeling frameworks have been studied along with steady-state solutions and stability criteria.
In a nutshell, this thesis represents a significant stride in our understanding of cancer genesis, providing a comprehensive view of the complex interplay between cell cycle dynamics, quiescence, proliferation, mutation acquisition, and cancer stem cells. The journey towards conquering cancer is far from over. However, this research provides valuable insights and directions for future investigation, bringing us closer to the ultimate goal of mitigating the impact of this formidable disease.
Mixed Isogeometric Methods for Hodge–Laplace Problems induced by Second-Order Hilbert Complexes
(2024)
Partial differential equations (PDEs) play a crucial role in mathematics and physics to describe numerous physical processes. In numerical computations within the scope of PDE problems, the transition from classical to weak solutions is often meaningful. The latter may not precisely satisfy the original PDE, but they fulfill a weak variational formulation, which, in turn, is suitable for the discretization concept of Finite Elements (FE). A central concept in this context is the
well-posed problem. A class of PDE problems for which not only well-posedness statements but also suitable weak formulations are known are the so-called abstract Hodge–Laplace problems. These can be derived from Hilbert complexes and constitute a central aspect of the Finite Element Exterior Calculus (FEEC).
This thesis addresses the discretization of mixed formulations of Hodge-Laplace problems, focusing on two key aspects. Firstly, we utilize Isogeometric Analysis (IGA) as a specific paradigm for discretization, combining geometric representations with Non-Uniform Rational B-Splines (NURBS) and Finite Element discretizations.
Secondly, we primarily concentrate on mixed formulations exhibiting a saddle-point structure and generated from Hilbert complexes with second-order derivative operators. We go beyond the well-known case of the classical de Rham
complex, considering complexes such as the Hessian or elasticity complex. The BGG (Bernstein–Gelfand–Gelfand) method is employed to define and examine these second-order complexes. The main results include proofs of discrete well-posedness and a priori error estimates for two different discretization approaches. One approach demonstrates, through the introduction of a Lagrange multiplier, how the so-called isogeometric discrete differential forms can be reused.
A second method addresses the question of how standard NURBS basis functions, through a modification of the mixed formulation, can also lead to convergent procedures. Numerical tests and examples, conducted using MATLAB and the open-source software GeoPDEs, illustrate the theoretical findings. Our primary application extends to linear elasticity theory, extensively
discussing mixed methods with and without strong symmetry of the stress tensor.
The work demonstrates the potential of IGA in numerical computations, particularly in the challenging scenario of second-order Hilbert complexes. It also provides insights into how IGA and FEEC can be meaningfully combined, even for non-de Rham complexes.
Distributed Optimization of Constraint-Coupled Systems via Approximations of the Dual Function
(2024)
This thesis deals with the distributed optimization of constraint-coupled systems. This problem class is often encountered in systems consisting of multiple individual subsystems, which are coupled through shared limited resources. The goal is to optimize each subsystem in a distributed manner while still ensuring that system-wide constraints are satisfied. By introducing dual variables for the system-wide constraints the system-wide problem can be decomposed into individual subproblems. These resulting subproblems can then be coordinated by iteratively adapting the dual variables. This thesis presents two new algorithms that exploit the properties of the dual optimization problem. Both algorithms compute a quadratic surrogate function of the dual function in each iteration, which is optimized to adapt the dual variables. The Quadratically Approximated Dual Ascent (QADA) algorithm computes the surrogate function by solving a regression problem, while the Quasi-Newton Dual Ascent (QNDA) algorithm updates the surrogate function iteratively via a quasi-Newton scheme. Both algorithms employ cutting planes to take the nonsmoothness of the dual function into account. The proposed algorithms are compared to algorithms from the literature on a large number of different benchmark problems, showing superior performance in most cases. In addition to general convex and mixed-integer optimization problems, dual decomposition-based distributed optimization is applied to distributed model predictive control and distributed K-means clustering problems.
Lubricated tribological contact processes are important in both nature and in many technical applications. Fluid lubricants play an important role in contact processes, e.g. they reduce friction and cool the contact zone. The fundamentals of lubricated contact processes on the atomistic scale are, however, today not fully understood. A lubricated contact process is defined here as a process, where two solid bodies that are in close proximity and eventually in parts in direct contact, carry out a relative motion, whereat the remaining volume is submersed by a fluid lubricant. Such lubricated contact processes are difficult to examine experimentally. Atomistic simulations are an attractive alternative for investigating the fundamentals of such processes. In this work, molecular dynamics simulations were used for studying different elementary processes of lubricated tribological contacts. A simplified, yet realistic simulation setup was developed in this work for that purpose using classical force fields. In particular, the two solid bodies were fully submersed in the fluid lubricant such that the squeeze-out was realistically modeled. The velocity of the relative motion of the two solid bodies was imposed as a boundary condition. Two types of cases were considered in this work: i) a model system based on synthetic model substances, which enables a direct, but generic, investigation of molecular interaction features on the contact process; and ii) real substance systems, where the force fields describe specific real substances. Using the model system i), also the reproducibility of the findings obtained from the computer experiments was critically assessed. In most cases, also the dry reference case was studied. Both mechanical and thermodynamic properties were studied -- focusing on the influence of lubrication. The following properties were studied: The contact forces, the coefficient of friction, the dislocation behavior in the solid, the chip formation and the formation of the groove, the squeeze-out behavior of the fluid in the contact zone, the local temperature and the energy balance of the system, the adsorption of fluid particles on the solid surfaces, as well as the formation of a tribofilm. Systematic studies were carried out for elucidating the influence of the wetting behavior, the influence of the molecular architecture of the lubricant, and the influence of the lubrication gap height on the contact process. As expected, the presence of a fluid lubricant reduces the temperature in the vicinity of the contact zone. The presence of the lubricant is, moreover, found to have a significant influence on the friction and on the energy balance of the process. The presence of a lubricant reduces the coefficient of friction compared to a dry case in the starting phase of a contact process, while lubricant molecules remain in the contact zone between the two solid bodies. This is a result of an increased normal and slightly decreased tangential force in the starting phase. When the fluid molecules are squeezed out with ongoing contact time and the contact zone is essentially dry, the coefficient of friction is increased by the presence of a fluid compared to a dry case. This is attributed to an imprinting of individual fluid particles into the solid surface, which is energetically unfavorable. By studying the contact process in a wide range of gap height, the entire range of the Stribeck curve is obtained from the molecular simulations. Thereby, the three main lubrication regimes of the Stribeck curve and their transition regions are covered, namely boundary lubrication (significant elastic and plastic deformation of the substrate), mixed lubrication (adsorbed fluid layers dominate the process), and hydrodynamic lubrication (shear flow is set up between the surface and the asperity). The atomistic effects in the different lubrication regimes are elucidated. Notably, the formation of a tribofilm is observed, in which lubricant molecules are immersed into the metal surface. The formation of a tribofilm is found to have important consequences for the contact process. The work done by the relative motion is found to mainly dissipate and thereby heat up the system. Only a minor part of the work causes plastic deformation. Finally, the assumptions, simplifications, and approximations applied in the simulations are critically discussed, which highlights possible future work.
In dieser Arbeit wird die Co-Konsolidierung im Thermoformen zwischen kontinuierlich faserverstärkten, teilkonsolidierten CF/PEEK Tape-Preforms und kontinuierlich faserverstärkten, vollständig konsolidierten CF/PEEK Tape-Laminaten untersucht. Bei der Co-Konsolidierung handelt es sich um die Herstellung einer Schweißverbindung zwischen zwei oder mehr Thermoplasten durch separates Aufheizen, Zusammenbringen der Fügeflächen und rasches Abkühlen unter Druck im isothermen Werkzeug. Die adressierte Anwendung ist das Verschweißen von Versteifungen auf Tape-Preforms während dem Thermoformen, sodass nachgeschaltete Fügeprozesse solcher Versteifungen obsolet werden und die Zykluszeit des Thermoformens unverändert bleibt.
Die Ergebnisse zeigen, dass der Grad der Teilkonsolidierung der Tape-Preforms -
unabhängig der gewählten Einstellgrößen des Werkzeugdrucks - keinen Einfluss auf die Konsolidierung der Tape-Laminate nach dem Thermoformen nimmt. Im Bereich einer Versteifung ist ein vergleichsweise größerer Werkzeugdruck zur Konsolidierung der teilkonsolidierten Tape-Preform notwendig, damit dort die gleichen Eigenschaften wie fern der Co-Konsolidierung erzeugt werden. Die zwischen Tape-Laminat und Versteifung gemessenen Zugscherfestigkeiten, die mittels Co-Konsolidierung im Thermoformen erzeugt werden, sind niedriger als die der Co-Konsolidierung im Autoklav.
Die von Zhou bereits 1994 erhaltenen tri(tert-butyl)cyclopentadienyltrichloride der vierten Gruppe [Cp'''MCl3] (M = Ti, Zr, Hf) konnten reproduziert, kristallisiert und strukturell untersuchtwerden. Auch konnten neue Di- und Tri(tert-butyl)cyclopentadienylzirconiumbromide und -iodide synthetisiert werden. Von [Cp''ZrI3] wurden röntgendiffraktometertaugliche
Kristalle erhalten, an denen die Struktur der Verbindung
aufgeklärt werden konnte. Bei Substitutionsversuchen mit weiteren Liganden konnten Hydridocluster erhalten werden. Strukturelle Untersuchungen zeigte einen Clusterkomplex mit der Formel (Cp''Zr)4(μ-H)8(μ-Cl)2. Es handelt sich hierbei um einen vierkernigen Zirconiumcluster, welcher von acht Hydrido- und zwei Chloridoliganden verbrückt wird. Jedes Zirconiumatom ist weiterhin
mit einem Di(tert-butyl)cyclopentadienylliganden verbunden. Bei der Untersuchung des Reaktionshergangs wurde ein weiterer Zr-Cluster gefunden. Es konnten röntgendiffraktometertaugliche Kristalle von Tris{di(tert-butyl)cyclopentadienyldi(μ-hydrido)zirconium} {chloridotri(μ-hydrido)aluminat} erhalten werden. Der Cluster besteht aus drei Zirconiumatomen, welche in einem Dreieck angeordnet sind und mit je zwei Hydridoliganden verbrückt. Jedes Zirconium ist über eine Hydridobrücke mit einem Aluminiumchloridfragment verbunden. Zudem ist an je Zirconiumatom je ein Di(tert- butyl)cyclopentadienylligand koordiniert. Weiterhin wurden Experimente zur Herstellung von Alkylderivaten des bislang nicht bekannten
Zirconocengrundkörpers Cp2Zr unternommen. Hierzu wurde Zirconiumtetrachlorid
mit n-Butyllithium zum Dichlorid ZrCl2(THF)2 reduziert. Das Reduktionsprodukt
wurde mit Natriumtetra(isopropyl)cyclopentadienid, Natriumtri(tertbutyl)
cyclopentadienid oder Lithiumpenta(isopropyl)cyclopentadienid umgesetzt.
Die Ergebnisse zeigen keinen eindeutigen erhalt von Zirconocenen, jedoch wurde ein Tri(tert-butyl)cyclopentadienyllithium- salz erhalten, welches strukturell aufgeklärt werden konnte.
Reactive absorption with amines is the most important technique for the removal of CO2
from gas streams, e.g. from flue gas, natural gas or off-gas from the cement industry.
In this work a rigorous simulation model for the absorption and desorption of CO2 with
an amine-containing solvent is validated using data from pilot plants of various sizes.
This model was then coupled with a detailed simulation of a coal-fired power plant.
The power generation efficiency drop with CO2 capture was determined and process
parameters in the power plant and separation process were optimized. It was shown
that the high energy demand of CO2 separation significantly reduces power generation
efficiencies, which underlines the need for improvements. This can be achieved by better
solvents or by advanced process designs. In this work such improved CO2 separation
processes are described and evaluated by detailed simulation studies.
In order to develop detailed rigorous simulation models for reactive absorption with novel
solvent systems, a precise knowledge of the liquid phase reaction kinetics is necessary.
There are well established techniques for measuring species distributions in equilibirated
aqueous amine solutions by NMR spectrosopy. However, the existing NMR techniques
cannot be used for monitoring fast reactions in these solutions. Therefore, in this work
a novel temperature-controlled micro-reactor NMR probe head was developed which
enables studying reaction kinetics with time constants in the range of seconds.
On this basis, modern solvent systems for CO2 absorption can be characterized and
the scale-up of separation process for future plants can be accompanied using rigorous
process simulation.
In 2022 verfehlten Gebäude- und Verkehrssektor die Klimaschutzziele in Deutschland. Im Gegensatz zum Verkehrssektor stehen im Gebäudesektor lange Lebensdauern schnellen Technologiewechseln entgegen, weshalb Strategien besonders frühzeitig umgesetzt werden müssen. Zudem ist der Gebäudebestand durch hohe Investitionskosten bei vergleichsweise geringen Treibhausgaseinsparungen je investiertem Euro geprägt. In Kombination erschweren diese Hemmnisse die Erreichung der Klimaschutzziele für den Wohngebäudebestand deutlich.
Ziel dieser Arbeit ist die Entwicklung eines Wohngebäudebestandsmodells, um Transformationspfade unter dem Einfluss variierender ökonomischer Rahmenbedingungen, wie z.B. dem Einfluss unterschiedlicher CO2-Preisverläufe und eine Reinvestition der CO2-Steuer in die Modernisierung der Gebäude, simulieren und analysieren zu können.
Im ersten Schritt wird ein Wohngebäudebestandsmodell bei Fortschreibung der ökonomischen Rahmenbedingungen im Startjahr entwickelt und angewendet. Hierzu werden wichtige Parameter des Gebäudebestands identifiziert und diese anhand des vergangenen Verlaufs analysiert sowie Szenarien und Prognosen betrachtet. Ergebnis sind Ausgangsbedingungen und Einflussfaktoren auf den weiteren Verlauf, die für die Modellierung genutzt werden. Im zweiten Schritt wird eine Systematik entwickelt, um Modernisierungsraten endogen bei Variation der ökonomischen Rahmenbedingungen berechnen zu können.
In der vorliegenden Arbeit wird ein Modell vorgestellt, dass die ökonomischen Rahmenbedingungen und das Kopplungsprinzip dynamisch bei der Simulation von Vollmodernisierungsraten berücksichtigt. Die Ergebnisse zeigen, dass Vollmodernisierungsraten von 2 %/a über längere Zeiträume extreme Rahmenbedingungen benötigen und unrealistisch sind. Haupthemmnisse sind der Sanierungsbedarf (Kopplungsprinzip), sinkende Energieeinsparpotenziale der jüngeren Baualtersklassen und Mitnahmeeffekte bei verbesserter Förderung. Da eine Erreichung der Klimaschutzziele nur durch Anpassung der CO2-Steuer (auch bei Reinvestition) nicht innerhalb realistischer Steuerhöhen im Modell möglich ist, wird stattdessen ein Maßnahmenpaket aus wirtschaftlichen und legislativen Rahmenbedingungen zur Zielerreichung vorgestellt.
Pervasive human impacts rapidly change freshwater biodiversity. Frequently recorded exceedances of regulatory acceptable thresholds by pesticide concentrations suggest that pesticide pollution is a relevant contributor to broad-scale trends in freshwater biodiversity. A more precise pre-release Ecological Risk Assessment (ERA) might increase its protectiveness, consequently reducing the likelihood of unacceptable effects on the environment. European ERA currently neglects possible differences in sensitivity between exposed ecosystems. If the taxonomic composition of assemblages would differ systematically among certain types of ecosystems, so might their sensitivity toward pesticides. In that case, a single regulatory threshold would be over- or underprotective.
In this thesis, we evaluate (1) whether the assemblage composition of macroinvertebrates, diatoms, fishes, and aquatic macrophytes differs systematically between the types of a European river typology system, and (2) whether these taxonomical differences engender differences in sensitivity toward pesticides. While a selection of ecoregions is available for Europe, only a single typology system that classifies individual river segments is available at this spatial scale - the Broad River Types (BRT).
In the first two papers of this thesis, we compiled and prepared large databases of macroinvertebrate (paper one), diatom, fish, and aquatic macrophyte (paper two) occurrences throughout Europe to evaluate whether assemblages are more similar within than among BRT types. Additionally, we compared its performance to that of different ecoregion systems. We employed multiple tests to evaluate the performances, two of which were also designed in the studies. All typology systems failed to reach common quality thresholds for the evaluated metrics for most taxa. Nonetheless, performance differed markedly between typology systems and taxa, with the BRT often performing worst. We showed that currently available, European freshwater typology systems are not well suited to capture differences in biotic communities and suggest several possible amelioration.
In the third study, we evaluated whether ecologically meaningful differences in sensitivity exist between BRT types. To this end, we predicted the sensitivity of macroinvertebrate assemblages across Europe toward Atrazine, copper, and Imidacloprid using a hierarchical species sensitivity distribution model. The predicted assemblage sensitives differed only marginally between BRT types. The largest difference between
median river type sensitivities was a factor of 2.6, which is far below the assessment factor suggested for such models (6), as well as the factor of variation commonly observed between toxicity tests of the same species-compound pair (7.5 for copper). Our results don’t support the notion that a type-specific ERA might improve the accuracy of thresholds. However, in addition to the taxonomic composition the bioavailability of chemicals, the interaction with other stressors, and the sensitivity of a given species might differ between river types.
Diese Dissertation erläutert die Umsetzung eines RAMI 4.0 konformen Marktplatz in der spanenden Bearbeitung. Ziel ist es einen Lösungsansatz zu definieren, in dem firmenübergreifende Prozessketten für kleine Losgrößen automatisiert identifiziert werden und die Fertigung eines individuellen Produktes realisiert wird. Die Extraktion von Produktinformationen, die Fertigung eines individualisierten Produktes sowie die Beschreibung der Informationen in den Verwaltungsschalen wird validiert. Vor allem stellt sich als Herausforderung für die Zukunft heraus, eine gemeinsame Semantik für die Beschreibung von Capabilities zu definieren. Diese würde ermöglichen, dass ein Matching zwischen proprietären Produktinformationen und Skills möglich wird.
Weak memory consistency models capture the outcomes of concurrent
programs that appear in practice and yet cannot be explained by thread
interleavings. Such outcomes pose two major challenges to formal
methods. First, establishing that a memory model satisfies its
intended properties (e.g., supports a certain compilation scheme) is
extremely error-prone: most proposed language models were initially
broken and required multiple iterations to achieve soundness. Second,
weak memory models make verification of concurrent programs much
harder, as a result of which there are no scalable verification
techniques beyond a few that target very simple models.
This thesis presents solutions to both of these problems.
First, it shows that the relevant metatheory of weak memory
models can be effectively decided (sparing years of manual proof
efforts), and presents Kater, a tool that can answer metatheoretic
queries in a matter of seconds. Second, it presents GenMC, the first
(and only) scalable stateless model checker that is parametric in the
choice of the memory model, often improving the prior state of the art
by orders of magnitude.
This thesis outlines the development of thermoplastic-graphite based plate heat exchangers from material screening to operation including performance evaluation and fouling investi-gations. Polypropylene and polyphenylene sulfide as matrix and graphite as filler were cho-sen as feedstock materials, as they possess a low density and excellent corrosion resistance at a comparatively low price.
For the purpose of material screening, custom-made polymer composite plates with a plate thickness of 1-2 mm and a filler content of up to 80 wt.% were investigated for their thermal and mechanical suitability with regard to their use in plate heat exchangers. Three-point flexural tests show that the loading of polypropylene with graphite leads to mechanical prop-erties that allow the composites to be applied as corrugated heat exchanger plates. The simu-lated maximum overpressure is greater than 7 bar, depending on the wall thickness. The thermal conductivity of the composites was increased by a factor of 12.5 compared to pure polypropylene, resulting in thermal conductivities of up to 2.74 W/mK.
The fabrication of the developed corrugated heat exchanger plates, with a thickness between 0.85 mm and 2.5 mm and a heat transfer surface area of 11.13·10-3 m² was carried out via processes that can be automized, namely extrusion and embossing. With the manufactured plate heat exchanger, overall heat transfer coefficients are determined over a wide range of operating conditions (Re = 200 - 1600), which are used to validate a plate heat exchanger model and consequently to compare the composites with conventional materials. The em-bossing, which seems to result in a shift of the internal graphite structure, leads to a further improvement of the thermal conductivity by 7-20 %, in addition to the impact of the filler. With low plate thicknesses, overall heat transfer coefficients of up to 1850 W/m²K could be obtained. Considering the low density of the manufactured thermal plates, this ensures com-parable performance with metallic materials over a wide range of process conditions (Re = 200 - 4000).
The fouling kinetics and amount of calcium sulfate and calcium carbonate, respectively, on different polypropylene/graphite composites in a flat plate heat exchanger and the developed chevron type plate heat exchanger are determined and compared to the reference material stainless steel. For a straight evaluation of the fouling susceptibility of the materials the for-mation of bubbles on the materials is considered by optical imaging or excluded by a degas-ser. The results are interpreted using surface free energy and roughness of the surfaces. The results show that if bubble formation is avoided, the polymer composites have a very low fouling tendency compared to stainless steel, which is attributed to the low surface free ener-gies of approximately 25 mN/m. This is particularly the case when turbulent flows are pre-sent, as is in plate heat exchangers or when sandblasted specimen are used. Sandblasting also continues to increase heat transfer compared to untreated samples by increasing thermal conductivity and creating local turbulences. Depending on the test conditions, the fouling resistance formed on the stainless steel surface is an order of magnitude greater than on the flat plate polymer composites. In addition, the fouling layers adhere only weakly to the com-posites, which indicates an easy cleaning in place after the formation of deposits. The fouling investigations in the plate heat exchanger reveal sensitivity to calcium sulfate fouling, how-ever, CFD simulations indicate that this is due to flow maldistribution and not the actual pol-ymer composite materials.
Zeolithe werden seit Jahrzehnten als Katalysatoren in der chemischen Industrie und als Ionentauscher in Waschmitteln eingesetzt. Außerdem können Zeolithe als Trägermaterialien für Metalle, die durch Ionenaustausch oder Imprägnierung aufgebracht werden, eingesetzt werden. Ein neuartiges Anwendungsgebiet von Zeolithen ist die Verwendung als antimikrobielles Füllmaterial in Kunststoffen. Hierzu müssen die Zeolithe zuvor mit einem antimikrobiell wirkenden Metall wie z.B. Silber beladen werden. Dieser gefüllte Kunststoff kann zu Filamenten für den 3D-Druck weiterverarbeitet werden. Ein mögliches Anwendungsgebiet für die resultierenden Verbundmaterialien liegt im Bereich der Zahnmedizin in Form von Kronen oder dreigliedrigen Brücken. Ziel dieses Promotionsprojekts war die Modifikation der Zeolithe Beta und ZSM‑5 mit Silber, um die resultierenden Materialien als antimikrobielle Komponenten in einem Polymerverbundwerkstoff einzusetzen. Die beiden Zeolithe sollen mittels Ionenaustausch mit Silberionen beladen werden. Neben der Reaktionstemperatur und dem Gegenion im Zeolithgitter wurde auch die experimentelle Vorgehensweise des Ionenaustauschs (Dauer und Anzahl der Austauschzyklen) variiert, um eine möglichst hohe Beladung mit Silber zu erzielen. Durch die Kombination verschiedener Charakterisierungsmethoden wie Röntgenpulverdiffraktometrie (PXRD) und Festkörper-NMR-Spektrometrie (MAS-NMR) konnte der Erhalt der Zeolithstruktur nach dem Ionenaustausch bestätigt werden. Mittels Atomabsorptionsspektroskopie (AAS) wurde die Silbermenge im Zeolithgitter bestimmt. Da Zeolith ZSM-5 im Einkauf kostengünstiger ist als Zeolith Beta, wurde in den weiteren Schritten mit Silberionen ausgetauschtem Zeolith AgZSM-5 weitergearbeitet. Im nächsten Schritt wurde Zeolith AgZSM‑5 mit verschiedenen Verfahren modifiziert, um eine zeitlich steuerbare Freisetzung der Silberionen aus dem Zeolithgitter zu gewährleisten. Bei der Oberflächenpassivierung mittels Silylierung konnte mittels temperaturprogrammierter Desorption von Ammoniak (NH3-TPD) eine Abschwächung der Säurezentren nachgewiesen werden. Darüber hinaus wurde Zeolith AgZSM-5 noch mittels Imprägnierung mit Calcium bzw. Magnesium sowie durch Reduktion des Silbers im H2-Strom bei unterschiedlichen Temperaturen modifiziert. Bei der Reduktion des Silbers im H2-Strom konnte der Einfluss der Reduktionstemperatur auf die Kristallitgröße des Silbers gezeigt werden.
Machine Learning (ML) is expected to become an integrated part of future mobile networks due to its capacity for solving complex problems. During inference, ML algorithms extract the hidden knowledge of their input data which is delivered to them through wireless links in many scenarios. Transmission of a massive amount of such input data can impose a huge burden on the mobile network. On the other hand, it is known that ML algorithms can tolerate different levels of distortion on their input components, while the quality of their predictions remains unaffected. Therefore, utilization of the conventional approaches
implies a waste of radio resources, since they target an exact reconstruction of transmitted data, i.e., the input of ML algorithms. In this thesis, we propose a novel relevance based framework that focuses on the quality of final ML outputs instead of such syntax based reconstruction of transmitted inputs. To this end, we quantify the semantics or relevancy of input components in terms of the bit allocation aspect of data compression, where a higher tolerance for distortion implies less relevancy. A lower relevance level is translated into the allocation of less radio resources, e.g., bandwidth. The introduced formulation provides the foundations for the efficient support of ML models with their required data in the inference phase, while wireless resources are employed efficiently.
In this dissertation, a generic relevance based framework utilizing the Kullback-Leibler Divergence (KLD) is developed that is applicable to many realistic scenarios. The system model under study contains multiple sources transmitting correlated multivariate input components of a ML algorithm. The ML model is seen as a black box, which is trained and has fixed parameters while operating in the inference phase. Our proposed bit allocation accounts for the rate-distortion tradeoff. Hence, it is simply adjustable for application to
other problems. Here, an extended version of the proposed bit allocation strategy is introduced for signaling overhead reduction, in which the relevancy level of each input attribute changes instantaneously. In another expansion, to take the effect of dynamic channel states into account, a resource allocation approach for ML based centralized control systems is proposed. The novel quality of service metric takes outputs of ML algorithms into consideration,
and in combination with the designed greedy algorithm, provides significantly
improved end-to-end performance for a network of cart inverted pendulums.
The introduced relevance based framework is comprehensively investigated by considering various case studies, real and synthetic data, regression and classification, different estimators for the KLD, various ML models and codebook designs. Furthermore, the reliability of this proposed solution is explored in presence of packet drops, indicating robustness of the relevance based compression. In all of the simulations, the relevance based solutions deliver the best outcome in terms of the carefully chosen key performance indicators. In most of them, significantly high gains are also achieved compared to the conventional techniques, motivating further research on the subject.
Cyber-physische Produktionssysteme (CPPS) ermöglichen die Herstellung kundenindividueller Produkte in kleinen Losgrößen durch Nutzung aktueller Entwicklungen der Informations- und Kommunikationstechnologien. Im Materialfluss in CPPS ist jedoch aufgrund unterschiedlicher physikalischer Eigenschaften der Fördergüter und dynamischer Prozesszuweisungen die Gefahr physikalisch bedingter Störungen erhöht. Diese Arbeit untersucht die Nutzung von Physiksimulation als Basis eines Digitalen Zwillings von Fördermitteln, um diesen Herausforderungen zu begegnen. Das Ziel besteht darin, durch die Simulation der physikalischen Phänomene einzelner Materialflussprozesse die negativen Einflüsse von Störungen zu verringern und somit die Leistungsfähigkeit des Produktionssystems zu erhöhen. Hierzu findet zunächst eine konzeptionelle Entwicklung des Digitalen Zwillings statt, die eine Analyse der beteiligten Systeme, eine Anforderungsdefinition, eine Festlegung von Aufbau- und Ablaufstruktur, sowie eine Formalisierung der einzelnen Funktionsbestandteile umfasst. Im Anschluss wird der Digitale Zwilling softwaretechnisch implementiert, mit einem exemplarischen Fördermittel vernetzt und prototypisch in Betrieb genommen. Die Ergebnisse zeigen die Eignung der Physiksimulation für den beschriebenen Zweck und die Wirksamkeit des Einsatzes auf Produktionssystemebene, indem Materialflussprozesse beschleunigt durchgeführt, überwacht und im Falle von Störungen nachträglich simulativ untersucht werden können.
Mit der vorliegenden Dissertation wurde ein Werkzeug für die Erstellung volldigitaler binnendifferenzierter Arbeitsblätter im Regelunterricht Chemie evaluiert und weiterentwickelt, das ein motivations- und interessensförderndes Potential aufweist. Es konnten Zusammenhänge zur Benutzbarkeit der Anwendung und zum Cognitive Load hergestellt werden. Die Ergebnisse stützen damit die Erkenntnisse im Bereich des Lernens mit digitalen Medien. Die Integration von digitalen Werkzeugen in den Lernprozess ist berechtigt. Sie zeigen einerseits für Schüler:innen ein motivationsförderndes Potential und andererseits für Lehrende praktische Vorteile, indem auf vielfältige Weise Informationen dargeboten werden können – zum Beispiel im Bereich der Differenzierung. Mit HyperDocSystems können binnendifferenzierte digitale Arbeitsblätter erstellt und bearbeitet werden. Diese so genannten HyperDocs können von Lehrenden mit Lernhilfen in verschiedenen Darstellungsformen angereichert und von Lernenden volldigital im Browser mit einem Stylus oder der Tastatur bearbeitet werden.
Im Rahmen einer quasi-experimentellen Feldstudie wurde der Einsatz dieser neuartigen HyperDocs erstmals unter Betrachtung der intrinsischen Motivation und des Interesses, der Usability sowie der Nutzung des multimedialen Differenzierungsangebots analysiert. Die Studie fand über vier Schulstunden im Regelunterricht Chemie der Mittelstufe (Gymnasium / Gesamtschule) und Oberstufe (Gymnasium) statt. Dabei wurden auch der Cognitive Load und die tabletbezogenen Kompetenzen der Lernenden berücksichtigt. Die Ergebnisse lassen auf ein motivationsförderndes Potential der HyperDocs gegenüber analogen Arbeitsblättern schließen. Dabei zeigen sich Unterschiede zwischen den Geschlechtern, die zum Teil auf den Cognitive Load zurückzuführen sind und abhängig vom Alter der Lernenden (Mittel- und Oberstufe) auftreten. Die Lernhilfen werden in diesem Zusammenhang häufig aus Interesse und Neugier verwendet. Schüler:innen nutzen insbesondere Lernhilfen in Form von Text und Bild. Die Nutzungshäufigkeit des Differenzierungsangebots gibt jedoch nicht unmittelbar Aufschlüsse über die Motivation oder den Cognitive Load der Lernenden. Bei der Usability handelt es sich um ein wichtiges Kriterium beim Einsatz von digitalen Lernprogrammen, da sich unter anderem ein Zusammenhang zu den Variablen der intrinsischen Motivation und zum Cognitive Load beim Lernen mit HyperDocs herstellen lässt. Die Usability ist dabei jedoch abhängig vom Messzeitpunkt. HyperDocs weisen eine hohe Usability auf und können daher uneingeschränkt in der Mittel- und Oberstufe eingesetzt werden.
Esse aut non esse - Affirmation und Subversion intergeschlechtlicher Existenzen in der Schule
(2024)
Am 10.10.17 beschloss das Bundesverfassungsgericht in Karlsruhe, ein sog. drittes Geschlecht für den Eintrag im Geburtenregister einzuführen. Intersexuellen Menschen sollte damit ermöglicht werden, ihre geschlechtliche Identität eintragen zu lassen und damit Teilhabe am gesellschaftlichen Leben zu ermöglichen. Zur Begründung verwies das Gericht auf das im Grundgesetz geschützte Persönlichkeitsrecht. Die aktuell geltende Regelung sei mit den grundgesetzlichen Anforderungen insoweit nicht vereinbar, als dass es neben „weiblich" oder „männlich" keine dritte Möglichkeit bietet, ein Geschlecht eintragen zu lassen. Der Gesetzgeber musste nun bis Ende 2018 eine Neuregelung schaffen, in der sie eine Bezeichnung für ein drittes Geschlecht aufnimmt – „divers“.
Schulen als bedeutende soziale Einrichtungen sind nun gefordert, will man die Leitperspektiven der Diversität im Bildungsbereich und damit in der Gesellschaft beibehalten. Schulen stellen Arbeitsfeld, Lebenswelt und Lernumfeld für viele Generationen dar und besitzen damit immer eine gesellschaftliche Vorbildfunktion, wobei Diversität zum stets allgegenwärtigen Imperativ geworden ist. Als Avantgarde müssen Schulen deshalb gerade in gesellschaftlichen Fragen voranschreiten und gleichsam Verantwortung für die Entwicklungen und Lösung wichtiger ethischer Fragen übernehmen ohne dabei die Vermittlung traditioneller Werte und Normen als eine ihrer zentralen Funktionen aufzugeben. Diesen anspruchsvollen Spagat zu vollziehen bleibt konstante Herausforderung der Schulentwicklung.
Mit Vielfalt umgehen bedeutet im schulischen Kontext vor allem neben gegenseitiger Anerkennung und Respekt auch, dass das Zusammenleben der Menschen durch die Eröffnung alternativer Wahrnehmungs-, Denk- und Handlungsansätze bereichert wird. Der Beschluss des Bundesverfassungsgerichts ist folglich in besonderer Weise an Schulen gerichtet.
Doch wie kann dieser Weg erfolgreich und nachhaltig eingeschlagen werden?
Bei Betrachtung der zahlreichen Publikationen zum Thema Gender und Schule sowie der wenigen Entwicklungen in den letzten Jahren wird augenscheinlich, dass das deutsche Schulsystem für die Umsetzung der Entscheidung des Bundesverfassungsgerichts vom 10.10.2017 (1BvR 2019/16) systemisch und strukturell nicht vorbereitet ist.
Daraus lassen sich die Forschungsfragen dieser Promotionsarbeit formulieren:
- Wie verhält sich Schule zum Diskurs des dritten Geschlechts?
- Was sind aus Sicht schulischer Akteure Gelingensbedingungen für eine erfolgreiche Sichtbarmachung des dritten Geschlechts an Schulen?
Es soll in der Arbeit mittels empirischer Untersuchungen eingehend verdeutlicht werden, welche Gelingens- bzw. Misslingensfaktoren bei der Implementierung eines dritten Geschlechts eine Rolle spielen und unter welchen Voraussetzungen überhaupt Schule als Organisation auf die Sichtbarmachung intergeschlechtlicher Kinder und Jugendliche vorbereit ist.
In dieser Arbeit wurde wurde das CASOCI-Programm[1], dessen Implementierung bereits Thema der Dissertation von Dr. Tilmann Bodenstein war und Gegenstand kontinuierlicher Weiterentwicklung in den Arbeitsgruppen Fink (Karlsruher Institut für Technologie) und van Wüllen ist, MPI/OpenMP Hybrid parallelisiert. Dieses wurde im Anschluss daran verwendet, um den fünfkernigen [Ni(tmphen)2]3[Os(CN)6]2- Komplex (tmphen = 3,4,7,8-Tetramethyl-1,10-Phenanthrolin) auf dessen magnetische Eigenschaften hin zu untersuchen. Dieser wurde in der Gruppe von Kim R. Dunbar durch χT-Messungen experimentell untersucht[2,3]. Durch diamagnetische Substitution wurden von diesem Komplex Varianten mir nur ein und zwei aktiven Zentren erzeugt. An diesen wurden CASOCI-Rechnungen durchgeführt und g-Tensoren, Austauschkopplungen, D-Tensoren sowie Tensoren für den anisotropen Austausch bestimmt. Mit Hilfe dieser Tensoren konnte eine χT-Kurve berechnet werden, die eine gute Übereinstimmung mit der aus Dunbars Arbeiten zeigt aufweist. Es konnte gezeigt werden, dass der anisotrope Austausch maßgeblich für den Kurvenverlauf ist und die Einzel-Ionen Nullfeldaufspaltung praktisch keine Rolle spielt.
[1] T. Bodenstein, A. Heimermann, K. Fink, C. van Wüllen, Chem. Phys. Chem. 2022, 23, e202100648.
[2] M. G. Hilfiger, M. Shatruk, A. Prosvirin, K. R. Dunbar, Chem. Commun. 2008, 5752–5754.
[3]A.V.Palii,O.S.Reu,S.M.Ostrovsky,S.I.Klokishner,B.S.Tsukerblat,M.Hilfiger, M. Shatruk, A. Prosvirin, K. R. Dunbar, J. Phys. Chem. A 2009, 113, 6886–6890.