Refine
Year of publication
- 2020 (277) (remove)
Document Type
- Article (113)
- Doctoral Thesis (99)
- Master's Thesis (30)
- Periodical Part (12)
- Working Paper (8)
- Lecture (5)
- Report (4)
- Course Material (2)
- Bachelor Thesis (1)
- Part of a Book (1)
- Diploma Thesis (1)
- Habilitation (1)
Language
- English (159)
- German (116)
- Multiple languages (2)
Has Fulltext
- yes (277) (remove)
Keywords
- Organisationsentwicklung (6)
- Erwachsenenbildung (4)
- Schulentwicklung (4)
- Weiterbildung (4)
- Schule (3)
- B-splines (2)
- Delay Management (2)
- Digitalisierung (2)
- Führung (2)
- Heterogene Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (50)
- Kaiserslautern - Fachbereich Sozialwissenschaften (33)
- Kaiserslautern - Fachbereich Chemie (31)
- Kaiserslautern - Fachbereich Mathematik (30)
- Distance and Independent Studies Center (DISC) (26)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Bauingenieurwesen (20)
- Kaiserslautern - Fachbereich Physik (19)
- Kaiserslautern - Fachbereich Biologie (16)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
Learning From Networked-data: Methods and Models for Understanding Online Social Networks Dynamics
(2020)
Abstract
Nowadays, people and systems created by people are generating an unprecedented amount of
data. This data has brought us data-driven services with a variety of applications that affect
people’s behavior. One of these applications is the emergent online social networks as a method
for communicating with each other, getting and sharing information, looking for jobs, and many
other things. However, the tremendous growth of these online social networks has also led to many
new challenges that need to be addressed. In this context, the goal of this thesis is to better understand
the dynamics between the members of online social networks from two perspectives. The
first perspective is to better understand the process and the motives underlying link formation in
online social networks. We utilize external information to predict whether two members of an online
social network are friends or not. Also, we contribute a framework for assessing the strength of
friendship ties. The second perspective is to better understand the decay dynamics of online social
networks resulting from the inactivity of their members. Hence, we contribute a model, methods,
and frameworks for understanding the decay mechanics among the members, for predicting members’
inactivity, and for understanding and analyzing inactivity cascades occurring during the decay.
The results of this thesis are: (1) The link formation process is at least partly driven by interactions
among members that take place outside the social network itself; (2) external interactions might
help reduce the noise in social networks and for ranking the strength of the ties in these networks;
(3) inactivity dynamics can be modeled, predicted, and controlled using the models contributed in
this thesis, which are based on network measures. The contributions and the results of this thesis
can be beneficial in many respects. For example, improving the quality of a social network by introducing
new meaningful links and removing noisy ones help to improve the quality of the services
provided by the social network, which, e.g., enables better friend recommendations and helps to
eliminate fake accounts. Moreover, understanding the decay processes involved in the interaction
among the members of a social network can help to prolong the engagement of these members. This
is useful in designing more resilient social networks and can assist in finding influential members
whose inactivity may trigger an inactivity cascade resulting in a potential decay of a network.
The advent of heterogeneous many-core systems has increased the spectrum
of achievable performance from multi-threaded programming. As the processor components become more distributed, the cost of synchronization and
communication needed to access the shared resources increases. Concurrent
linearizable access to shared objects can be prohibitively expensive in a high
contention workload. Though there are various mechanisms (e.g., lock-free
data structures) to circumvent the synchronization overhead in linearizable
objects, it still incurs performance overhead for many concurrent data types.
Moreover, many applications do not require linearizable objects and apply
ad-hoc techniques to eliminate synchronous atomic updates.
In this thesis, we propose the Global-Local View Model. This programming model exploits the heterogeneous access latencies in many-core systems.
In this model, each thread maintains different views on the shared object: a
thread-local view and a global view. As the thread-local view is not shared,
it can be updated without incurring synchronization costs. The local updates
become visible to other threads only after the thread-local view is merged
with the global view. This scheme improves the performance at the expense
of linearizability.
Besides the weak operations on the local view, the model also allows strong
operations on the global view. Combining operations on the global and the
local views, we can build data types with customizable consistency semantics
on the spectrum between sequential and purely mergeable data types. Thus
the model provides a framework that captures the semantics of Multi-View
Data Types. We discuss a formal operational semantics of the model. We
also introduce a verification method to verify the correctness of the implementation of several multi-view data types.
Frequently, applications require updating shared objects in an “all-or-nothing” manner. Therefore, the mechanisms to synchronize access to individual objects are not sufficient. Software Transactional Memory (STM)
is a mechanism that helps the programmer to correctly synchronize access to
multiple mutable shared data by serializing the transactional reads and writes.
But under high contention, serializable transactions incur frequent aborts and
limit parallelism, which can lead to severe performance degradation.
Mergeable Transactional Memory (MTM), proposed in this thesis, allows accessing multi-view data types within a transaction. Instead of aborting
and re-executing the transaction, MTM merges its changes using the data-type
specific merge semantics. Thus it provides a consistency semantics that allows
for more scalability even under contention. The evaluation of our prototype
implementation in Haskell shows that mergeable transactions outperform serializable transactions even under low contention while providing a structured
and type-safe interface.
Der Erfolg von Transformationen hängt von sehr vielen Faktoren ab. In der vorliegenden Arbeit wurden einige ausgewählte Faktoren aufgegriffen und validiert. Die vorliegende
Arbeit enthält keine abschließende Beurteilung, der in der Literatur dargestellten Erfolgsfaktoren.
Change-Prozesse beeinflussen im organisationalen Kontext in den meisten Fällen die sozialen Beziehungen, sei es auf individueller, Team- oder gesamtorganisationaler
Ebene. Je grösser, einschneidender, tiefgehender oder radikaler die Veränderung, desto schwieriger sind der Ausgang und insbesondere die Erfolgsaussichten vorhersehbar. Gemäß den Forschungsergebnissen spielen neben den geprüften Erfolgsfaktoren auch die bisherigen Erlebnisse eine wichtige Rolle. Die Organisation kann die bisherigen Erfahrungen zu einem großen Teil selber steuern, reflektieren und daraus lernen. Die individuellen Change-Erfahrungen der Mitarbeitenden hingegen sind schwer zu fassen und können höchstens durch individuelle Begleitung verarbeitet werden.
Grundsätzlich kann bestätigt werden, dass die gewählten und validierten Maßnahmen erfolgsversprechend zur positiven Entwicklung der Organisationskultur eingesetzt werden
können. Neben der Prägung der Organisationskultur sollten Organisationen eine grundsätzliche Change-Affinität entwickeln und fördern. Die Interviews belegen, was in der Literatur postuliert wird: Die Organisationskultur ist die Basis der Zusammenarbeit in Organisationen und darf aus diesem Grund nicht vernachlässigt werden. Die Organisationskultur wird von allen befragten Personen als ein sehr wichtiges (wenn nicht sogar als wichtigstes) Element der Organisation betrachtet.
Die Kulturentwicklung in der Praxis wird als Nebeneffekt anderer Interventionen wahrgenommen. Eine klare Aussage, wie die Kultur in eine bestimmte Richtung entwickelt werden kann, wurde nicht getroffen.
LinTim is a scientific software toolbox that has been under development since 2007, giving the possibility to solve the various planning steps in public transportation. Although the name originally derives from "Lineplanning and Timetabling", the available functions have grown far beyond this scope.
This document is the documentation for version 2020.02.
For more information, see https://www.lintim.net
Gemeinnützige Organisationen sind aus unserem Alltag nicht mehr wegzudenken, da diese soziale sowie kulturelle Aufgaben übernehmen und eine nicht unwesentliche Rolle bei der demokratischen Entwicklung der Gesellschaft spielen.
In Deutschland gibt es mehr als 615.000 Non-Profit-Organisationen (NPO), darunter bildet die Rechtsform der eingetragenen Vereine mit 580 000 (94%) den größten Teil des Dritten Sektors, dicht gefolgt von gemeinnützigen GmbHs mit rund 10.000 Organisationen. Somit ist jeder zweite Einwohner Deutschlands Mitglied in mindestens einem der mehr als 580.000 Vereine.
Auch wenn dies zunächst eine positive Tendenz von einer vitalen Zivilgesellschaft aufweist, befinden sich Vereine in einem strukturellen Wandel, denn die Konkurrenz wächst in Bezug auf die Ressourcensicherung, sowohl im Bereich der Finanzierung aufgrund von stagnierenden öffentlichen Mitteln und einem fehlenden Finanzierungsmix als auch in Hinblick auf die Gewinnung freiwillig Engagierter. Zudem sind die Überalterung und das nachlassende Gemeinschaftsgefühl der Gesellschaft ein weiteres Problem im dritten Sektor. Soziale Milieus haben sich im Laufe der Zeit verändert, im Gegensatz zu früher sind sie nicht mehr eindeutig definierbar, damit wird es beschwerlicher explizite Zielgruppen anzusprechen. Dies ist einer der Gründe, warum klassischen Mitgliederorganisationen, die Stammkunden verloren gehen.
Eine sich derart verändernde Zivilgesellschaft hat zunehmende Anforderungen an das Leistungsspektrum der Vereinslandschaft. Vor allem für kleine, ehrenamtlich getragene Vereine wird es schwierig, sich mit derartigen Problemlagen auseinanderzusetzen. Aus diesem Grund legt die vorliegende Masterthesis den Fokus auf diese kleinen Vereinssparten, um zu untersuchen, ob ein Vereinssterben in Westdeutschland ein Mythos ist oder zur Realität wird.
Um zu einem Ergebnis zu gelangen, wird in den nächsten Kapiteln zunächst das Vereinsmodell in Deutschland näher betrachtet. Danach werden die hauptsächlichen Herausforderungen untersucht, mit denen die heutige Vereinslandschaft zu kämpfen hat, um dann der Frage nach zugehen, ob die Rechtsform des Vereins ein Auslaufmodell ist. Zum Schluss wird anhand eines praktischen Beispiels ein Changemanagementprozess durchlaufen. Dieser soll beweisen, dass die Professionalisierung des Vereinswesen, zumindest in Teilbereichen, wie beispielsweise bei der Kommunikation, ein Lösungsansatz sein kann, damit auch kleine, ehrenamtlich getragene Vereine weiterhin bestehen können.
Using molecular dynamics simulation, we study the cutting of an Fe single crystal using
tools with various rake angles α. We focus on the (110)[001] cut system, since here, the crystal
plasticity is governed by a simple mechanism for not too strongly negative rake angles. In this
case, the evolution of the chip is driven by the generation of edge dislocations with the Burgers
vector b = 1
2
[111], such that a fixed shear angle of φ = 54.7◦
is established. It is independent of
the rake angle of the tool. The chip form is rectangular, and the chip thickness agrees with the
theoretical result calculated for this shear angle from the law of mass conservation. We find that the
force angle χ between the direction of the force and the cutting direction is independent of the rake
angle; however, it does not obey the predictions of macroscopic cutting theories, nor the correlations
observed in experiments of (polycrystalline) cutting of mild steel. Only for (strongly) negative rake
angles, the mechanism of plasticity changes, leading to a complex chip shape or even suppressing the
formation of a chip. In these cases, the force angle strongly increases while the friction angle tends
to zero.
More than ten years ago, ER-ANT1 was shown to act as an ATP/ADP antiporter and to exist in the endoplasmic reticulum (ER) of higher plants. Because structurally different transporters generally mediate energy provision to the ER, the physiological function of ER-ANT1 was not directly evident.
Interestingly, mutant plants lacking ER-ANT1 exhibit a photorespiratory phenotype. Although many research efforts were undertaken, the possible connection between the transporter and photorespiration also remained elusive. Here, a forward genetic approach was used to decipher the role of ER-ANT1 in the plant context and its association to photorespiration.
This strategy identified that additional absence of a putative HAD-type phosphatase partially restored the photorespiratory phenotype. Localisation studies revealed that the corresponding protein is targeted to the chloroplast. Moreover, biochemical analyses demonstrate that the HAD-type phosphatase is specific for pyridoxal phosphate. These observations, together with transcriptional and metabolic data of corresponding single (ER-ANT1) and double (ER-ANT1, phosphatase) loss-of-function mutant plants revealed an unexpected connection of ER-ANT1 to vitamin B6 metabolism.
Finally, a scenario is proposed, which explains how ER-ANT1 may influence B6 vitamer phosphorylation, by this affects photorespiration and causes several other physiological alterations observed in the corresponding loss-of-function mutant plants.
Biological clocks exist across all life forms and serve to coordinate organismal physiology with periodic environmental changes. The underlying mechanism of these clocks is predominantly based on cellular transcription-translation feedback loops in which clock proteins mediate the periodic expression of numerous genes. However, recent studies point to the existence of a conserved timekeeping mechanism independent of cellular transcription and translation, but based on cellular metabolism. These metabolic clocks were concluded based upon the observation of circadian and ultradian oscillations in the level of hyperoxidized peroxiredoxin proteins. Peroxiredoxins are enzymes found almost ubiquitously throughout life. Originally identified as H2O2 scavengers, recent studies show that peroxiredoxins can transfer oxidation to, and thereby regulate, a wide range of cellular proteins. Thus, it is conceivable that peroxiredoxins, using H2O2 as the primary signaling molecule, have the potential to integrate and coordinate much of cellular physiology and behavior with metabolic changes. Nonetheless, it remained unclear if peroxiredoxins are passive reporters of metabolic clock activity or active determinants of cellular timekeeping. Budding yeast possess an ultradian metabolic clock termed the Yeast Metabolic Cycle (YMC). The most obvious feature of the YMC is a high amplitude oscillation in oxygen consumption. Like circadian clocks, the YMC temporally compartmentalizes cellular processes (e.g. metabolism) and coordinates cellular programs such as gene expression and cell division. The YMC also exhibits oscillations in the level of hyperoxidized peroxiredoxin proteins.
In this study, I used the YMC clock model to investigate the role of peroxiredoxins in cellular timekeeping, as well as the coordination of cell division with the metabolic clock. I observed that cytosolic 2-Cys peroxiredoxins are essential for robust metabolic clock function. I provide direct evidence for oscillations in cytosolic H2O2 levels, as well as cyclical changes in oxidation state of a peroxiredoxin and a model peroxiredoxin target protein during the YMC. I noted two distinct metabolic states during the YMC: low oxygen consumption (LOC) and high oxygen consumption (HOC). I demonstrate that thiol-disulfide oxidation and reduction are necessary for switching between LOC and HOC. Specifically, a thiol reductant promotes switching to HOC, whilst a thiol oxidant prevents switching to HOC, forcing cells to remain in LOC. Transient peroxiredoxin inactivation triggered rapid and premature switching from LOC to HOC. Furthermore, I show that cell division is normally synchronized with the YMC and that deletion of typical 2-Cys peroxiredoxins leads to complete uncoupling of cell division from metabolic cycling. Moreover, metabolic oscillations are crucial for regulating cell cycle entry and exit. Intriguingly, switching to HOC is crucial for initiating cell cycle entry whilst switching to LOC is crucial for cell cycle completion and exit. Consequently, forcing cells to remain in HOC by application of a thiol reductant leads to multiple rounds of cell cycle entry despite failure to complete the preceding cell cycle. On the other hand, forcing cells to remain in LOC by treating with a thiol oxidant prevents initiation of cell cycle entry.
In conclusion, I propose that peroxiredoxins – by controlling metabolic cycles, which are in turn crucial for regulating the progression through cell cycle – play a central role in the coordination of cellular metabolism with cell division. This proposition, thus, positions peroxiredoxins as active players in the cellular timekeeping mechanism.
Die vorliegende Masterarbeit befasst sich mit der kulturellen Partizipation der einwandernden Bewölkerung an kulturellen Entwicklungsprozessen in deutschen Städten. Zum
einen fokussiert sich die Masterarbeit auf die Kulturorganisationen des sogenannten Dritten Sektors und den Nutzen, den diese durch einen besseren Zugang Neuzugewanderter in der Stadt zum Kulturangebot ziehen können. Es wird der Frage nachgegangen, wie die Einbindung der Bevölkerung mit Zuwanderungsgeschichte in die Kulturarbeit optimiert werden kann. Das könnte für lokale Kulturanbieter den Anschluss
an ein neues Publikum bedeuten und sich also positiv auf die Einnahmen auswirken.
Ein weiterer bedeutender Faktor, der damit in Verbindung stehen kann, ist das künstlerische Potenzial, das einzelne der neuen Stadtbürger womöglich mitbringen. Ein besserer
Zugang zu dieser Zielgruppe könnte für Kulturorganisationen auch gleichzeitig ein Durchbruch zu anderen Kunst- und Kulturtraditionen bedeuten. Es könnten andere Themen herausgearbeitet werden und das Programmangebot innovativer ausfallen.
Die kulturelle Einbindung Neuzugewanderter setzt aber eine intensive Auseinandersetzung
mit der soeben skizzierten Thematik voraus, für die Ressourcen wie Zeit notwendig
sind, aber auch die Bereitschaft, neue Wege einzuschlagen. Insofern erscheint es als zwingend notwendig, die kulturellen Bedürfnisse dieser Bevölkerungsgruppe zu erkunden, was als eine zentrale Aufgabe dieser Arbeit angesehen wird.
In this thesis, we present the basic concepts of isogeometric analysis (IGA) and we consider Poisson's equation as model problem. Since in IGA the physical domain is parametrized via a geometry function that goes from a parameter domain, e.g. the unit square or unit cube, to the physical one, we present a class of parametrizations that can be viewed as a generalization of polar coordinates, known as the scaled boundary parametrizations (SB-parametrizations). These are easy to construct and are particularly attractive when only the boundary of a domain is available. We then present an IGA approach based on these parametrizations, that we call scaled boundary isogeometric analysis (SB-IGA). The SB-IGA derives the weak form of partial differential equations in a different way from the standard IGA. For the discretization projection
on a finite-dimensional space, we choose in both cases Galerkin's method. Thanks to this technique, we state an equivalence theorem for linear elliptic boundary value problems between the standard IGA, when it makes use of an SB-parametrization,
and the SB-IGA. We solve Poisson's equation with Dirichlet boundary conditions on different geometries and with different SB-parametrizations.
Micro machining with micro pencil grinding tools (MPGTs) is an emerging technology that can be used to manufacture closed microchannel structures in hard and brittle materials as well as hardened steels like 16MnCr5. At their current operating conditions, these tools have a comparatively short tool life. In previous works, MPGTs in combination with a minimum quantity lubrication (MQL) system were used to manufacture microchannels in 16MnCr5 hardened steel. The study has shown that steel adhesions clog the abrasive layer of MPGTs, most likely resulting from insufficient lubrication. In this paper, a metalworking fluid (MWF) supply method was developed to improve the process: a submerged micro grinding process, in which machining takes place inside a pool of MWF. In this study, the effect of seven types of MWFs on material adhesions at the bottom surface of the tool is evaluated. Equivalent good MWFs are then compared in a micro pendulum grinding experiment till failure.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Der flächendeckende Ausbau der Kläranlagen in Deutschland hat in den letzten Jahrzehnten zu einer deutlichen Verbesserung der Gewässerqualität geführt. Dennoch ist der ökologische Zustand vieler Gewässer immer noch unbefriedigend. Einen negativen Einfluss auf den Gewässerzustand haben Stoßbelastungen aus Mischwassereinleitungen, die empfindliche aquatische Ökosysteme aufgrund von hydraulischem Stress und stofflichen Belastungen nachhaltig schädigen können.
Diese Arbeit liefert einen Beitrag dazu, wie hoch aufgelöste Online-Messdaten zur Optimierung des Kanalnetzbetriebs genutzt werden können. Hierfür wurden zwei reale Regenüberlaufbecken (RÜB) im Mischsystem in Süddeutschland für zwei Jahre mit Online-Spektrometersonden zur Erfassung von Äquivalenzkonzentrationen von abfiltrierbaren Stoffen (AFS), chemischem Sauerstoffbedarf (CSB, gesamt und gelöst) und Nitrat ausgestattet. Zusätzlich wurden hydrometrische Messdaten an den RÜB vom Betreiber des Entwässerungssystems bereitgestellt.
Den ersten Teil der Arbeit bilden Fracht- und Volumenauswertungen der Einstauereignisse an den beiden RÜB. Die Untersuchungen sollen zum besseren Verständnis der stoffspezifischen und hydraulischen Vorgänge im Mischsystem beitragen. Im zweiten Teil der Arbeit wird ein neuer Ansatz zur Verbesserung des Kanalnetzbetriebes unter direkter Verwendung von Messdaten erprobt. Für diese messdatenbasierte Simulation werden gemessene Ganglinien von Abflussmenge und Feststoffkonzentration direkt als Systeminput eines Transportmodells verwendet. Anhand dieses Modells werden verschiedene Kanalnetzbewirtschaftungsstrategien untersucht. Die folgenden Erkenntnisse lassen sich anhand der durchgeführten Auswertungen ableiten:
Eine Vorhersage der Spülstoßintensitäten anhand der Charakteristiken der Trockenphasen vor den Ereignissen oder der Eigenschaften der Niederschlagsereignisse selbst ist im Untersuchungsgebiet nicht möglich. Eine konstante Akkumulation der Schmutzstoffe auf der Gebietsoberfläche, wie sie in gängigen Qualitätsmodellen angesetzt wird, ist in den Untersuchungsgebieten ebenso wenig vorhanden. Somit kann die Abflussqualität im Untersuchungsgebiet nicht zuverlässig simuliert werden. Betriebsentscheidungen, die auf Basis von Schmutzfrachtmodellen getroffen werden, sind demnach höchst unsicher.
Die in dieser Arbeit neu vorgestellte messdatenbasierte Simulation umgeht diese Unsicherheiten und ersetzt sie durch die Messunsicherheiten selbst. Sie kann die Effizienz verschiedener Bewirtschaftungsstrategien, wie die Verwendung statisch optimierter Drosselabflüsse oder die dynamische Echtzeit-Steuerung von Speicherräumen, zuverlässig bewerten. Eine Dauer der zugrunde liegenden Messdatenzeitreihe von etwa vier Monaten mit mittlerer Niederschlagscharakteristik und etwa 10 Niederschlagsereignissen ist im untersuchten fiktiven System ausreichend für verlässliche Ergebnisse der messdatenbasierten Simulation. In komplexeren Gebieten kann der Datenbedarf höher sein. Die Methodik liefert unter Berücksichtigung der üblichen Messunsicherheiten robuste Ergebnisse.
Im Rahmen der Promotion wurden zwei Projekte bearbeitet, die sich mit der Darstellung und Untersuchung Cyclopeptid-basierter Derivate zur Erkennung von Anionen beschäftigten.
Dabei wurde im ersten Projekt der Arbeit eine neue, modulare Synthesestrategie zur Darstellung von dreifach verbrückten Bis(cyclopeptiden) entwickelt, die auf der Verwendung eines Templats und der Ausbildung von Amidbindungen zwischen den Untereinheiten basiert. Mit Hilfe dieser Methode gelang es ein Käfig-artiges Bis(cyclopeptid) mit Diglycolsäure als Linker zwischen den beiden Cyclopeptidringen darzustellen und dieses hinsichtlich seiner Anionenaffinität zu untersuchen. Dabei zeigte sich, dass Sulfat von diesem Rezeptor mit der höchsten bisher gemessenen Bindungskonstante Amid-verbrückter Bis(cyclopeptide) in kompetitiven, wässrigen Lösungsmittelgemischen gebunden wird. Ein Vergleich mit dem ebenfalls synthetisierten einfach verbrückten Analogon und weiteren, bekannten Vertretern dieser Rezeptorklasse erlaubte darüber hinaus eine Korrelation zwischen der Anzahl und Struktur der Linker und der daraus resultierenden Anionenaffinität. Dabei wurde deutlich, dass eine Erhöhung der Linkeranzahl einen signifikanten Anstieg der Anionenaffinität bewirkte, wenngleich diese durch weitere Optimierung der Linkerstruktur potenziell noch weiter verbessert werden kann. Dies sollte im Fokus zukünftiger Arbeiten stehen, wobei auf Basis der erarbeiteten Synthesestrategie weitere Derivate dreifach verbrückter Bis(cyclopeptide) einfach zugänglich sein sollten.
Im zweiten Projekt der Arbeit wurde eine optische Sonde entwickelt, die einen einfachen Nachweis von Anionen in Wasser ermöglicht. Dazu wurde mittels eines zweistufigen Verfahrens ein gemischt-funktionalisierter Goldnanopartikel dargestellt, auf dessen Oberfläche solubilisierende Triethylengycol-haltige Liganden und funktionelle Cyclopeptid-haltige Liganden immobilisiert wurden. Die so erhaltenen Goldnanopartikel waren homogen und in Wasser löslich, aggregierten aber, sobald der Lösung Natriumsulfat zugesetzt wurde. Sie erlaubten entsprechend den Sulfat-Nachweis mit bloßem Auge, da die Nanopartikel-Aggregation zu einer Entfärbung der ursprünglich roten Lösung und der Bildung eines Niederschlags führte. Keines von acht weiteren getesteten Anionen hatte einen analogen Effekt, sodass sich der Nachweis von Sulfat als überaus selektiv erwies. Somit wurde ein vielversprechendes Konzept für die Entwicklung optischer Sonden für Anionen entwickelt, das in zukünftigen Arbeiten auf den Nachweis anderer Anionen übertragen werden sollte.
In a (linear) parametric optimization problem, the objective value of each feasible solution is an affine function of a real-valued parameter and one is interested in computing a solution for each possible value of the parameter. For many important parametric optimization problems including the parametric versions of the shortest path problem, the assignment problem, and the minimum cost flow problem, however, the piecewise linear function mapping the parameter to the optimal objective value of the corresponding non-parametric instance (the optimal value function) can have super-polynomially many breakpoints (points of slope change). This implies that any optimal algorithm for such a problem must output a super-polynomial number of solutions. We provide a method for lifting approximation algorithms for non-parametric optimization problems to their parametric counterparts that is applicable to a general class of parametric optimization problems. The approximation guarantee achieved by this method for a parametric problem is arbitrarily close to the approximation guarantee of the algorithm for the corresponding non-parametric problem. It outputs polynomially many solutions and has polynomial running time if the non-parametric algorithm has polynomial running time. In the case that the non-parametric problem can be solved exactly in polynomial time or that an FPTAS is available, the method yields an FPTAS. In particular, under mild assumptions, we obtain the first parametric FPTAS for each of the specific problems mentioned above and a (3/2 + ε) -approximation algorithm for the parametric metric traveling salesman problem. Moreover, we describe a post-processing procedure that, if the non-parametric problem can be solved exactly in polynomial time, further decreases the number of returned solutions such that the method outputs at most twice as many solutions as needed at minimum for achieving the desired approximation guarantee.
This contribution presents the results of a replication study on the learning effect of tablet-supported video analysis compared to traditional teaching sequences using non-digital experimental materials in the subject areas of uniform and accelerated motion in high school physics lessons. In addition to the replication of the preliminary study results recently published in this journal (Becker et al 2018, 2019), the investigation of the effect on the cognitive load as well as the emotional state of the students is another focal point. Compared to the preliminary study, the sample size was significantly increased from N = 109 to N = 294. The individual effects of the preliminary study could be replicated in this way. For both topics, a significant reduction of extraneous cognitive load and a positive effect on intervention-induced emotions could be demonstrated. Moreover, the theoretically founded causal relationship between emotion, cognitive load, and learning achievement could be empirically verified by means of structural equation modeling.
Die Ergebnisse der vorliegenden Synopsis konnten an vergleichsweise hohen Probandenzahlen zeigen, dass die auftretenden Amplituden der Kopfbeschleunigungen stark von der Herangehensweise (Stand, Sprung, Lauf) abhängen. Was zunächst trivial erscheint, ist nun evidenzbasiert und von hoher praktischer Relevanz. Bei der Technikvermittlung sind somit zunächst Kopfballvarianten aus der Standposition vorzuziehen, da diese zu einer geringeren Beschleunigung des Kopfes führen als Varianten welche mit einem Anlauf gekoppelt werden (Stand vs. Sprung). Kopfballvarianten mit einem erhöhten koordinativen Anforderungsprofil (Sprung) führen nicht zwangsläufig zu einer erhöhten Kopfbeschleunigung, sollten jedoch aus methodischen Gründen trotzdem zu einem späteren Zeitpunkt trainiert werden. Das eingesetzte Kopfballpendel führte zu Kopfbeschleunigungen zwischen 5.2 und 7.8 G. Diese Werte liegen deutlich unterhalb derer, die bei beschleunigten Bällen gemessen werden, was für den Einsatz des Kopfballpendels bei der Technikschulung spricht. Der Rumpfmuskulatur wird eine große Bedeutung bei der technischen Umsetzung von Kopfbällen zugesprochen [120]. Die vorliegenden Ergebnisse konnten jedoch keinen Anstieg der Kopfbeschleunigung nach Ermüdung der Rumpfmuskulatur darlegen. Ein Pre-Post-Vergleich bei beschleunigten Bällen muss folgen, um dies weiterführend untersuchen zu können. Vergleichbare Ergebnisse und Interpretationen liegen nun zur Wirksamkeit einer 6-wöchigen Hals-Nackenkräftigung vor, welche bei dem statischen Kopfballpendel keine Änderungen der Kopfbeschleunigung zur Folge hatten. Kritisch reflektiert werden müssen insbesondere die Art und Dauer sowie die Inhalte einer solchen Intervention. Dennoch steckt hinter dieser Hypothese weiterhin ein vielversprechender Ansatz das Kopfballspiel sicherer zu machen. Die Ausrichtung des Kopf-Hals-Rumpfsegmentes steht in keinem direkten Zusammenhang zur resultierenden Beschleunigung des Kopfes, wonach eine erhöhte Nickbewegung nicht mit einer erhöhten Kopfbeschleunigung korreliert. Im nächsten Schritt muss ein intraindividueller Vergleich vorgenommen werden, da die Kompensationsmechanismen höchst individuell sind. Außerdem sollte zukünftig die maximale Kopfbeschleunigung - unabhängig von dem Zeitpunkt - mit dem Winkel (Kopf, HWS) während des ersten Ballkontaktes verglichen werden, statt den zeitsynchronen Vergleich des Winkels und der in diesem Moment messbaren Kopfbeschleunigung vorzunehmen.
In search of new technologies for optimizing the performance and space requirements of electronic and optical micro-circuits, the concept of spoof surface plasmon polaritons (SSPPs) has come to the fore of research in recent years. Due to the ability of SSPPs to confine and guide the energy of electromagnetic waves in a subwavelength space below the diffraction limit, SSPPs deliver all the tools to implement integrated circuits with a high integration rate. However, in order to guide SSPPs in the terahertz frequency range, it is necessary to carefully design metasurfaces that allow one to manipulate the spatio-temporal and spectral properties of the SSPPs at will. Here, we propose a specifically designed cut-wire metasurface that sustains strongly confined SSPP modes at terahertz frequencies. As we show by numerical simulations and also prove in experimental measurements, the proposed metasurface can tightly guide SSPPs on straight and curved pathways while maintaining their subwavelength field confinement perpendicular to the surface. Furthermore, we investigate the dependence of the spatio-temporal and spectral properties of the SSPP modes on the width of the metasurface lanes that can be composed of one, two or three cut-wires in the transverse direction. Our investigations deliver new insights into downsizing effects of guiding structures for SSPPs.
In recent years, thermoplastic composites (TPCs) have been increasingly used for
aerospace and automotive applications. But also other industrial sectors, such as the
medical technology, have discovered the benefits of this material class. Compared to
thermoset composites, TPCs can be recycled more easily, remelted, and welded. In
addition to that, TPC parts can be produced economically and efficiently. As an example,
short cycle times and high production rates of TPCs can be realised with the
injection moulding processing technology. Injection moulded parts have the advantage
that function integration is feasible with relatively little effort.
However, these parts are characterised by discontinuous fibre reinforcement. Fibres
are randomly distributed within the part and fibre orientation can show significant local
variations. Whereas the highest stiffness and strength values of the material are
achieved parallel to fibre orientation, the lowest values are present in transverse direction.
As a consequence, structural mechanical properties of injection moulded
discontinuous fibre reinforced parts are lower compared to their continuous fibre reinforced
counterparts. Continuous fibre reinforced components show excellent specific
mechanical properties. However, their freedom in geometrical product design is restricted.
The aim of this work is to extend the applicability of TPCs for structural mass products
due to the realisation of a high-strength interface between discontinuous and
continuous fibre reinforced material. A hybrid structure with unique properties is produced
by overmoulding a continuous unidirectional endless carbon fibre (CF) reinforced
polyether ether ketone (PEEK) insert with discontinuous short CF reinforced
PEEK. This approach enables the manufacturing of structural mass products in short
cycle times which require both superior structural mechanical properties and sufficient
freedom in product design. However, sufficient interface strength between the discontinuous
and continuous component is required.
This research is based on the application case of a pedicle screw system which is
a spinal implant used for spine stabilisation and fusion. Since the 1990s, CF-PEEK
has been successfully used for spinal cages, and recently also for pedicle screws and
pedicle screw systems. Compared to metallic implants, CF-PEEK implants show several
advantages, such as the reduction of stress shielding, the prevention of artefacts
in medical imaging technologies (X-ray, computer tomography scan, or magnetic resonance
imaging) or the avoidance of backscattering during radiotherapy. Pedicle screws,
which are used in the lumbar spine region, are subjected to high forces and moments.
Therefore, a hybrid composite pedicle screw was developed which is based on the
overmoulding process described before.
Different adherence tests were conducted to characterise the interface strength between
short and endless CF reinforced PEEK. However, no standardised test method
existed for interface strength characterisation of overmoulded structures. Sufficient interface
strength could only be achieved if a cohesive interface was formed. Cohesive
interface formation due to the melting of the surface of the endless CF reinforced PEEK
insert after contact with the molten mass required an insert pre-heating temperature of
at least 260 °C prior to overmoulding. Because no standardised test method existed
for interface strength characterisation of overmoulded structures, a novel test body was
developed. This cylinder pull-out specimen did not require any relevant rework steps
after manufacturing so that the interface strength could be directly tested after overmoulding.
Pre-heating of the endless CF reinforced PEEK inserts resulted in a 73%
increase in interface strength compared to non-pre-heated inserts.
In addition to that, a parametric finite element pedicle screw-bone model was developed.
By parametric optimisation, the optimal hybrid composite pedicle screw design
in terms of pull-out resistance was found. Within the underlying design space, the
difference in screw stability between the worst and the best screw design was approximately
12 %. The resulting design recommendations had to be opposed to the
manufacturing requirements to define the final screw design. The moulds of the injection
moulding machine were manufactured according to this design so that the hybrid
composite pedicle screw could be produced.
The findings of extensive material and interface characterisation were crucial for the
achievement of a cohesive interface between insert and overmould so that superior
structural mechanical properties of the hybrid composite pedicle screw could be
achieved. For example, the bending strength of hybrid composite screws was approximately
48% higher than the bending strength of discontinuous short CF reinforced
PEEK screws. Additionally, fatigue resistance was enhanced by the hybrid screw configuration
so that the risk of premature pedicle screw failure could be reduced. In the
breaking torque test, hybrid composite screws showed a reduction of 11% in their
breaking torque values compared to their discontinuous fibre reinforced counterparts.
However, not only in this test but also in the quasi-static and cyclic bending test, structural
integrity of the hybrid composite screws could be maintained which is important
for implant components.
Whole-body electromyostimulation (WB-EMS) is an extension of the EMS application known in physical therapy. In WB-EMS, body composition and skinfold thickness seem to play a decisive role in influencing the Ohmic resistance and therefore the maximum intensity tolerance. That is why the therapeutic success of (WB-)EMS may depend on individual anatomical parameters. The aim of the study was to find out whether gender, skinfold thickness and parameters of body composition have an influence on the maximum intensity tolerance in WB-EMS. [Participants and Methods] Fifty-two participants were included in the study. Body composition (body impedance, body fat, fat mass, fat-free mass) and skinfold thicknesses were measured and set into relation to the maximum intensity tolerance. [Results] No relationship between the different anthropometric parameters and the maximum intensity tolerance was detected for both genders. Considering the individual muscle groups, no similarities were found in the results. [Conclusion] Body composition or skinfold thickness do not seem to have any influence on the maximum intensity tolerance in WB-EMS training. For the application in physiotherapy this means that a dosage of the electrical voltage within the scope of a (WB-) EMS application is only possible via the subjective feedback (BORG Scale).
The difference in the efficacy of altered stimulation parameters in whole-body-electromyostimulation (WB-EMS) training remains largely unexplored. However, higher impulse frequencies (>50 Hz) might be most adequate for strength gain. The aim of this study was to analyze potential differences in sports-related performance parameters after a 10-week WB-EMS training with different frequencies. A total of 51 untrained participants (24.9 ± 3.9 years, 174 ± 9 cm, 72.4 ± 16.4 kg, BMI 23.8 ± 4.1, body fat 24.7 ± 8.1 %) was randomly divided into three groups: one inactive control group (CON) and two training groups. They completed a 10-week WB-EMS program of 1.5 sessions/week, equal content but different stimulation frequencies (training with 20 Hz (T20) vs. training with 85 Hz (T85)). Before and after intervention, all participants completed jumping (Counter Movement Jump (CMJ), Squat Jump (SJ), Drop Jump (DJ)), sprinting (5m, 10m, 30m), and strength tests (isometric trunk flexion/extension). One-way ANOVA was applied to calculate parameter changes. Post-hoc least significant difference tests were performed to identify group differences. Significant differences were identified for CMJ (p = 0.007), SJ (p = 0.022), trunk flexion (p = 0.020) and extension (p=.013) with significant group differences between both training groups and CON (not between the two training groups T20 and T85). A 10-week WB-EMS training leads to significant improvements of jump and strength parameters in untrained participants. No differences could be detected between the frequencies. Therefore, both stimulation frequencies can be regarded as adequate for increasing specific sport performance parameters. Further aspects as regeneration or long term effects by the use of different frequencies still need to be clarified.
Red fruits and their juices are rich sources of polyphenols, especially anthocyanins.
Some studies have shown that such polyphenols can inhibit enzymes of the carbohydrate metabolism,
such as α-amylase and α-glucosidase, that indirectly regulate blood sugar levels. The presented
study examined the in vitro inhibitory activity against α-amylase and α-glucosidase of various
phenolic extracts prepared from direct juices, concentrates, and purees of nine different berries which
differ in their anthocyanin and copigment profile. Generally, the extracts with the highest phenolic
content—aronia (67.7 ± 3.2 g GAE/100 g; cyanidin 3-galactoside; chlorogenic acid), pomegranate
(65.7 ± 7.9 g GAE/100 g; cyanidin 3,5-diglucoside; punicalin), and red grape (59.6 ± 2.5 g GAE/100 g;
malvidin 3-glucoside; quercetin 3-glucuronide)—showed also one of the highest inhibitory activities
against α-amylase (326.9 ± 75.8 µg/mL; 789.7 ± 220.9 µg/mL; 646.1 ± 81.8 µg/mL) and α-glucosidase
(115.6 ± 32.5 µg/mL; 127.8 ± 20.1 µg/mL; 160.6 ± 68.4 µg/mL) and, partially, were even more potent
inhibitors than acarbose (441 ± 30 µg/mL; 1439 ± 85 µg/mL). Additionally, the investigation of single
anthocyanins and glycosylated flavonoids demonstrated a structure- and size-dependent inhibitory
activity. In the future in vivo studies are envisaged.
Die vorliegende Arbeit nimmt den Rahmen für den Transformationsprozess, in dem sich gegenwärtig die österreichische Schulaufsicht befindet, in den Blick indem sie
- Herausforderungen für die Aufgaben und die Rolle der Schulaufsicht, die durch gesellschaftliche Veränderungsprozesse und veränderte bildungspolitische Vorgaben entstanden sind, skizziert
- aus einem kurzen historischen Überblick heraus schulaufsichtliche Spannungsfelder identifiziert, die durch die gegenwärtige Reform der Schulaufsicht aufgelöst (oder zumindest abgeschwächt) werden sollen
- die aktuellen Rahmenbedingungen für schulaufsichtliche Tätigkeit (Schulautonomie und die Einführung der externen Schulevaluation) darstellt.
Auf dieser Grundlage, werden Perspektiven für die Entwicklung der Schulaufsicht in der Rolle als
- Vermittlerin und Verantwortungsträgerin hinsichtlich der Implementierung von Reformvorhaben,
- professionelle Unterstützerin bzw. Beraterin (im Kontext der Rechenschaftslegung eigenverantwortlicher Schulen und der in Österreich erst neu zu definierenden Arbeitsbeziehungen zur externen Schulevaluation) und
- strategische Führungskraft, die in supervidierender Form Schulleitungen einer Bildungsregion führt, vorgeschlagen.
Diese Perspektiven verstehen sich als ein Beitrag zur Diskussion, wie künftig Schulqualitätsmanager/innen ihre Rolle als Schulaufsichtsorgane entwickeln können. In Zeiten tiefgreifender Veränderungen, die auch eine beträchtliche Unsicherheit im Rollenbild ausgelöst haben, werden damit konkrete Vorschläge zur Entwicklung einer stabilen Rolle von Schulaufsichtspersonen vorgelegt.
Synapses are connections between different nerve cells that form an essential link in neural signal transmission. It is generally distinguished between electrical and chemical synapses, where chemical synapses are more common in the human brain and are also the type we deal with in this work.
In chemical synapses, small container-like objects called vesicles fill with neurotransmitter and expel them from the cell during synaptic transmission. This process is vital for communication between neurons. However, to the best of our knowledge no mathematical models that take different filling states of the vesicles into account have been developed before this thesis was written.
In this thesis we propose a novel mathematical model for modeling synaptic transmission at chemical synapses which includes the description of vesicles of different filling states. The model consists of a transport equation (for the vesicle growth process) plus three ordinary differential equations (ODEs) and focuses on the presynapse and synaptic cleft.
The well-posedness is proved in detail for this partial differential equation (PDE) system. We also propose a few different variations and related models. In particular, an ODE system is derived and a delay differential equation (DDE) system is formulated. We then use nonlinear optimization methods for data fitting to test some of the models on data made available to us by the Animal Physiology group at TU Kaiserslautern.
Nowadays a large part of communication is taking place on social media platforms such as Twitter, Facebook, Instagram, or YouTube, where messages often include multimedia contents (e.g., images, GIFs or videos). Since such messages are in digital form, computers can in principle process them in order to make our lives more convenient and help us overcome arising issues. However, these goals require the ability to capture what these messages mean to us, that is, how we interpret them from our own subjective points of view. Thus, the main goal of this dissertation is to advance a machine's ability to interpret social media contents in a more natural, subjective way.
To this end, three research questions are addressed. The first question aims at answering "How to model human interpretation for machine learning?" We describe a way of modeling interpretation which allows for analyzing single or multiple ways of interpretation of both humans and computer models within the same theoretic framework. In a comprehensive survey we collect various possibilities for such a computational analysis. Particularly interesting are machine learning approaches where a single neural network learns multiple ways of interpretation. For example, a neural network can be trained to predict user-specific movie ratings from movie features and user ID, and can then be analyzed to understand how users rate movies. This is a promising direction, as neural networks are capable of learning complex patterns. However, how analysis results depend on network architecture is a largely unexplored topic. For the example of movie ratings, we show that the way of combining information for prediction can affect both prediction performance and what the network learns about the various ways of interpretation (corresponding to users).
Since some application-specific details for dealing with human interpretation only become visible when going deeper into particular use-cases, the other two research questions of this dissertation are concerned with two selected application domains: Subjective visual interpretation and gang violence prevention. The first application study deals with subjectivity that comes from personal attitudes and aims at answering "How can we predict subjective image interpretation one would expect from the general public on photo-sharing platforms such as Flickr?" The predictions in this case take the form of subjective concepts or phrases. Our study on gang violence prevention is more community-centered and considers the question "How can we automatically detect tweets of gang members which could potentially lead to violence?" There, the psychosocial codes aggression, loss and substance use serve as proxy to estimate the subjective implications of online messages.
In these two distinct application domains, we develop novel machine learning models for predicting subjective interpretations of images or tweets with images, respectively. In the process of building these detection tools, we also create three different datasets which we share with the research community. Furthermore, we see that some domains such as Chicago gangs require special care due to high vulnerability of involved users. This motivated us to establish and describe an in-depth collaboration between social work researchers and computer scientists. As machine learning is incorporating more and more subjective components and gaining societal impact, we have good reason to believe that similar collaborations between the humanities and computer science will become increasingly necessary to advance the field in an ethical way.
The 22 wt.% Cr, fully ferritic stainless steel Crofer®22 H has higher thermomechanical
fatigue (TMF)- lifetime compared to advanced ferritic-martensitic P91, which is assumed to be caused
by different damage tolerance, leading to differences in crack propagation and failure mechanisms.
To analyze this, instrumented cyclic indentation tests (CITs) were used because the material’s
cyclic hardening potential—which strongly correlates with damage tolerance, can be determined
by analyzing the deformation behavior in CITs. In the presented work, CITs were performed for
both materials at specimens loaded for different numbers of TMF-cycles. These investigations show
higher damage tolerance for Crofer®22 H and demonstrate changes in damage tolerance during
TMF-loading for both materials, which correlates with the cyclic deformation behavior observed in
TMF-tests. Furthermore, the results obtained at Crofer®22 H indicate an increase of damage tolerance
in the second half of TMF-lifetime, which cannot be observed for P91. Moreover, CITs were performed
at Crofer®22 H in the vicinity of a fatigue crack, enabling to locally analyze the damage tolerance.
These CITs show differences between crack edges and the crack tip. Conclusively, the presented
results demonstrate that CITs can be utilized to analyze TMF-induced changes in damage tolerance.
Ein Beitrag zur Zustandsschätzung in Niederspannungsnetzen mit niedrigredundanter Messwertaufnahme
(2020)
Durch den wachsenden Anteil an Erzeugungsanlagen und leistungsstarken Verbrauchern aus dem Verkehr- und Wärmesektor kommen Niederspannungsnetze immer näher an ihre Betriebsgrenzen. Da für die Niederspannungsnetze bisher keine Messwerterfassung vorgesehen war, können Netzbetreiber Grenzverletzungen nicht erkennen. Um dieses zu ändern, werden deutsche Anschlussnutzer in Zukunft flächendeckend mit modernen Messeinrichtungen oder intelligenten Messsystemen (auch als Smart Meter bezeichnet) ausgestattet sein. Diese sind in der Lage über eine Kommunikationseinheit, das Smart-Meter-Gateway, Messdaten an die Netzbetreiber zu senden. Werden Messdaten aber als personenbezogene Netzzustandsdaten deklariert, so ist aus Datenschutzgründen eine Erhebung dieser Daten weitgehend untersagt.
Ziel dieser Arbeit ist es eine Zustandsschätzung zu entwickeln, die auch bei niedrigredundanter Messwertaufnahme für den Netzbetrieb von Niederspannungsnetzen anwendbare Ergebnisse liefert. Neben geeigneten Algorithmen zur Zustandsschätzung ist dazu die Generierung von Ersatzwerten im Fokus.
Die Untersuchungen und Erkenntnisse dieser Arbeit tragen dazu bei, den Verteilnetzbetreibern bei den maßgeblichen Entscheidungen in Bezug auf die Zustandsschätzung in Niederspannungsnetzen zu unterstützen. Erst wenn Niederspannungsnetze mit Hilfe der Zustandsschätzung beobachtbar sind, können darauf aufbauende Konzepte zur Regelung entwickelt werden, um die Energiewende zu unterstützen.
In dieser Masterarbeit wird der Frage nachgegangen, wie erklärt werden kann, dass es bisher kein Bundeszentralabitur in Deutschland gibt. Vor dem Hintergrund der Theorie des Historischen Institutionalismus und dem Konzept der Pfadabhängigkeit werden handlungsleitende Akteure, ihre Positionen und Begründungen identifiziert. Kritische Situationen seit dem PISA-Schock mit der Möglichkeit der Einführung eines Bundeszentralabiturs sowie Mechanismen der Stagnation und Zeichen des Wandels werden mithilfe einer Dokumentenanalyse untersucht.
Verbunddübelleisten stellen eine wirtschaftlich sowie technisch sinnvolle Alternative zu den konventionellen Verbundmitteln, den Kopfbolzendübeln, dar. Ihre Konkurrenzfähigkeit wird jedoch durch die Tatsache eingeschränkt, dass sie bauaufsichtlich, und damit lediglich national sowie zeitlich limitiert, zugelassen sind, wohingegen Kopfbolzendübel fest in den europäischen Regelwerken verankert sind. Um eine Integration der Verbunddübelleisten in die europäischen Normen zu ermöglichen, sind zahlreiche Untersuchungen erforderlich, die seit einigen Jahrzehnten auf nationaler und internationaler Ebene durchgeführt werden.
Die vorliegende Arbeit konzentriert sich dabei auf oberflächennah positionierte Verbunddübelleisten, was entweder in Randpositionen oder bei horizontal in schlanken Betonplatten liegenden Leisten gegeben ist. Bei einer derartigen Anwendung des Verbundmittels kann ein spezifisches Bauteilversagen eintreten, das sich in einem Abplatzen der seitlichen Betondeckung äußert. Vorangegangene Untersuchungen verzeichneten dieses Versagensmuster ebenfalls, konnten es allerdings noch nicht vollumfänglich in Bemessungsmodellen abbilden.
Im Rahmen der umfangreichen experimentellen und numerischen Untersuchungen dieser Arbeit wird ein Kleinteilversuchsprogramm ausgeführt, auf dessen Basis der Einfluss einzelner Parameter auf das Trag- und Verformungsverhalten oberflächennaher Verbunddübelleisten analysiert wird. Darüber hinaus werden Bauteilversuche an Verbundträgern durchgeführt, anhand derer die Übertragbarkeit der Kleinteiluntersuchungen auf reale Bauteilabmessungen geprüft wird.
Auf Grundlage all dieser Beobachtungen wird schließlich ein Ingenieurmodell entwickelt, welches das Trag- und Verformungsverhalten idealisiert abbildet. Eine darauf abgestimmte Bemessungsgleichung ermöglicht es infolgedessen, die Tragfähigkeit oberflächennaher Verbunddübelleisten rechnerisch vorherzusagen. Ein Vorschlag zur Integration des Bemessungsmodells in das Sicherheitskonzept der Eurocodes bietet eine Möglichkeit zur künftigen Dimensionierung und zum Nachweis der entsprechenden Verbundkonstruktionen im Rahmen der gesellschaftlich geforderten Bauwerkszuverlässigkeit.
A detailed study of a cylinder activation concept by efficiency loss analysis and 1D simulation
(2020)
Cylinder deactivation is a well-known measure for reducing fuel consumption, especially when applied to gasoline engines. Mostly, such systems are designed to deactivate half of the number of cylinders of the engine. In this study, a new concept is investigated for deactivating only one out of four cylinders of a commercial vehicle diesel engine (“3/4-cylinder concept”). For this purpose, cylinders 2–4 of the engine are operated in “real” 3-cylinder mode, thus with the firing order and ignition distance of a regular 3-cylinder engine, while the first cylinder is only activated near full load, running in parallel to the fourth cylinder. This concept was integrated into a test engine and evaluated on an engine test bench. As the investigations revealed significant improvements for the low-to-medium load region as well as disadvantages for high load, an extensive numerical analysis was carried out based on the experimental results. This included both 1D simulation runs and a detailed cylinder-specific efficiency loss analysis. Based on the results of this analysis, further steps for optimizing the concept were derived and studied by numerical calculations. As a result, it can be concluded that the 3/4-cylinder concept may provide significant improvements of real-world fuel economy when integrated as a drive unit into a tractor.
Die Entdeckung der Einzelschule als Motor der Entwicklung im Jahre 1989 hatte eine veränderte Gesetzeslage zur Folge und damit auch eine veränderte Beziehung von Schule und Schulaufsicht. Die vorliegende Masterarbeit arbeitet die Historie der Beziehung von Schule und Schulaufsicht im Rahmen von Qualitätsentwicklung und -sicherung auf und überprüft das veränderte bzw. das sich verändernde Verhältnis im Spannungsfeld zwischen Kontrolle und Unterstützung. Im empirischen Teil kommen Schulleiter und Schulaufsichtsbeamte zu Wort.
Ein ressourcenschonender Umgang mit Rohstoffen ist eines der vorrangigen Ziele des 21. Jahrhunderts und erfährt immer mehr Aufmerksamkeit in der Öffentlichkeit. Einen nicht unerheblichen Beitrag zur Reduzierung des Ressourcenbedarfs kann der Einsatz von Hohlkörpern in Stahlbetondecken beisteuern. Durch den verminderten Betoneinsatz wird weniger CO2 bei der für den Beton erforderlichen Zementherstellung emittiert. Einen weiteren positiven Aspekt für den Einbau von Hohlkörpern in Stahlbetondecken stellt das deutlich reduzierte Eigengewicht dar, welches größere Spannweiten bei gleicher Deckenstärke ermöglicht.
Während sich die Biegetragfähigkeit einer Stahlbetonhohlkörperdecke lediglich geringfügig von der Biegetragfähigkeit einer massiven Stahlbetondecke unterscheidet, wird die Querkrafttragfähigkeit durch den Einbau der Hohlkörper deutlich reduziert. Die Querkrafttragfähigkeit der Hohlkörperdecke liegt bei den bislang im Bauwesen eingesetzten Hohlkörpern bei ungefähr 50 % der Querkrafttragfähigkeit einer baugleichen Vollmassivdecke, so dass die Hohlkörper in den Bereichen einer Decke, in denen hohe Querkräfte vorliegen, nicht eingebaut werden dürfen. Dies führt zu einer deutlichen Einschränkung des Einsatzbereiches der Hohlkörper. Da die Hohlkörperformen bislang keinem Optimierungsprozess hinsichtlich der Querkrafttragfähigkeit unterzogen wurden, sind die in der Baupraxis verwendeten Hohlkörperformen keinesfalls als optimal anzusehen.
In dieser Arbeit wird mit Hilfe eines mehrkriteriellen Optimierungsprozesses, basierend auf der Methode der Genetischen Programmierung, eine Hohlkörperform identifiziert, die hinsichtlich der beiden konträren Optimierungskriterien „hohe Querkrafttragfähigkeit“ und „hohe Betonvolumenverdrängung“ einen guten Kompromiss darstellt. Neben den numerischen FEM-Berechnungen zur Ermittlung der Querkrafttragfähigkeit, welche u.a. auch während des Optimierungsprozesses zur Anwendung kommen, wird die Querkrafttragfähigkeit von Plattenstreifen mit den optimierten Hohlkörpern zusätzlich in Bauteilversuchen überprüft. Um ein ganzheitlich durchdachtes neues Hohlkörperdeckensystem zu entwickeln, werden neben der Optimierung der Querkrafttragfähigkeit auch zahlreiche weitere Untersuchungen zur Optimierung des Materialeinsatzes sowie zur Transport- und Einbausituation durchgeführt.
Des Weiteren bildet die Entwicklung eines mechanisch begründeten Bemessungsmodells zur Ermittlung der Querkrafttragfähigkeit einer Hohlkörperdecke einen wesentlichen Bestandteil der vorliegenden Arbeit. Um ein abgesichertes Modell zu erstellen, welches die Querkrafttragfähigkeit realitätsnah abbildet, sind fundierte Kenntnisse zum Querkrafttragverhalten erforderlich. Dafür werden neben einer mittels der Finite Elemente Methode durchgeführten umfangreichen Parameterstudie, in der zahlreiche Einflussfaktoren auf die Querkrafttragfähigkeit von Hohlkörperdecken untersucht werden, ergänzend Bauteilversuche mit variierender Hohlkörperhöhenlage durchgeführt.
Habitat fragmentation and forest management have been considered to drastically alter the nature of forest ecosystems globally. However, much uncertainty remains regarding the causative mechanisms mediating temperate forest responses, such as forest physical environment and the structure of woody plant assemblages, regardless of the role these forests play for global sustainability. In this paper, we examine how both habitat fragmentation and timber exploitation via silvicultural operations affect these two factors at local and habitat spatial scales in a hyper-fragmented landscape of mixed beech forests spanning more than 1500 km2 in SW Germany. Variables were recorded across 57 1000 m2 plots covering four habitats: small forest fragments, forest edges within large control forests, as well as managed and unmanaged forest interior sites. As expected, forest habitats differed in disturbance level, physical conditions and community structure at plot and habitat scale. Briefly, diversity of plant assemblages differed across all forest habitats (highest in edge forests) and correlated with integrative indices of edge, fragmentation and management effects. Surprisingly, managed and unmanaged forests did not differ in terms of species richness at local spatial scale, but managed forests exhibited a clear signal of physical/floristic homogenization as species promoted by silviculture proliferated; i.e. impoverished communities at landscape scale. Moreover, functional composition of plant communities responded to the microclimatic regime within forest fragments, resulting in a higher prevalence of species adapted to these microclimatic conditions. Our results underscore the notion that forest fragmentation and silvicultural management (1) promote changes in microclimatic regimes, (2) alter the balance between light-demanding and shade-adapted species, (3) support diverse floras across forest edges, and (4) alter patterns of beta diversity. Hence, in human-modified landscapes edge-affected habitats can be recognized as biodiversity reservoirs in contrast to impoverished managed interior forests. Furthermore, our results ratify the role of unmanaged forests as a source of environmental variability, species turnover, and distinct woody plant communities.
Introducing parallelism and exploring its use is still a fundamental challenge for the computer algebra community. In high-performance numerical simulation, on the other hand, transparent environments for distributed computing which follow the principle of separating coordination and computation have been a success story for many years. In this paper, we explore the potential of using this principle in the context of computer algebra. More precisely, we combine two well-established systems: The mathematics we are interested in is implemented in the computer algebra system SINGULAR, whose focus is on polynomial computations, while the coordination is left to the workflow management system GPI-Space, which relies on Petri nets as its mathematical modeling language and has been successfully used for coordinating the parallel execution (autoparallelization) of academic codes as well as for commercial software in application areas such as seismic data processing. The result of our efforts is a major step towards a framework for massively parallel computations in the application areas of SINGULAR, specifically in commutative algebra and algebraic geometry. As a first test case for this framework, we have modeled and implemented a hybrid smoothness test for algebraic varieties which combines ideas from Hironaka’s celebrated desingularization proof with the classical Jacobian criterion. Applying our implementation to two examples originating from current research in algebraic geometry, one of which cannot be handled by other means, we illustrate the behavior of the smoothness test within our framework and investigate how the computations scale up to 256 cores.
Die Konstruktion eines Schrittzählers mit einem Arduino-Mikrocontroller und einem Bewegungssensor ist ein spannendes Technikprojekt. Wir erläutern den Grundgedanken hinter der produktorientierten Modellierung und die vielfältigen Möglichkeiten, die Fragestellung zu bearbeiten. Darüberhinaus werden die technischen Details der verwendeten Hardware diskutiert, um einen schnellen Einstieg ins Thema zu ermöglichen.
This DFG-funded research project aimed to gain a better understanding of the mechanisms of the W-Cl repair principle within the framework of fundamental investigations, to contribute to the creation of the necessary basis for a broader application of the repair principle in practice. The focus was on the development of a model to describe the chloride redistribution after the application of a system sealing surface protective coating. On the basis of Fick's second law of diffusion, a mathematical model with a self-contained analytical solution was developed, with the help of which the chloride redistribution after application of a system sealing surface protective coating can be calculated under the idealized assumption of complete water saturation of the concrete. Furthermore, the influence of the dehydration of the concrete, expected as a result of the application of the repair principle W-Cl, on the chloride redistribution was investigated. On the basis of laboratory tests and numerical simulations, material-specific reduction functions were developed to quantify the relationship between the chloride diffusion coefficient and the ambient humidity.
Industry 4.0 defines the organization of production and manufacturing processes based on technological advanced solutions and devices autonomously communicating with each other.
Within the context of this industrial revolution, the smart reconfigurable manufacturing systems are introduced. These systems shall be able to provide a dynamic level of reconfigurability based on the production demand and system availability. The introduction of the manufacturing reconfigurability constitutes a particularly important and expensive decision for the organizations and therefore scoping methods are becoming constantly essential.
The present work covers a first approach to defining reconfigurability methods and drivers for the manufacturing systems within the context of Industry 4.0. The thesis introduces five main reconfigurability use case scenarios for manufacturing systems and the description of a two – dimensional model of scoping parameters.
The first dimension is based on the potential business targets and reconfigurability drivers, while the second dimension focuses on the system functions and technologies, which are
required for the successful realization of the reconfigurability use case scenarios. Finally, the thesis concludes with a brief comparison between the traditional software product line scoping approach and purposed scoping method for the reconfigurability of manufacturing systems.
Editorial
(2020)
Die Gefährdungsbeurteilung der psychischen Belastung (Psych GB) birgt auf den Ebenen Organisation, Team und Individuum ein bisher wenig genutztes Potenzial für Organisationen. Nicht nur die gesetzlichen Vorgaben werden erfüllt, sondern zusätzliches Entwicklungspotenzial zur gesunden und agilen Organisationsentwicklung erschlossen. Es werden u.a. Rückkopplungseffekte für die Kommunikation und Führung im Zusammenhang mit VUCA sowie eine resiliente Organisationskultur behandelt.
Problems, Chances and Limitations of Facilitating Self-Directed Learning at a German Gymnasium
(2020)
Self-directed learning is becoming more important than ever. In a rapidly changing world, learners must be ready to face new obstacles. Self-directed learning gives the learners the chance to adapt to these social contextual changes. But facilitating self-directed learning in formal settings seems to be a risky task and venture. To accomplish its facilitation, many limits must be overcome.
In this thesis, lessons at a German school called a Gymnasium – the type of school where learners can get the highest school level degree – were observed in order to find out in how far elements of self-directed learning can be found in the observed lessons. For the comparison, the process elements of Knowles’ book “Self-Directed Learning: A Guide for Learners and Teachers” from 1975 were adapted to the observations of the lessons.
A central part of the observations and interviews of the teachers was to find out which limitations in the facilitation of self-directed learning can be found in terms of the institutional framework and the attitude of the teachers. The results of the observations highly differentiated. Whereas in many of the observed scientific lessons, many elements of self-directed learning were found, the lessons in social studies were teacher-directed. Also, a different attitude between the teachers was found in terms of the support for self-directed learning.
Importantly, the thesis includes the scientific critic of self-directed learning instead of excluding it and proposes the facilitation of Grow’s “Self-Directed-Learning Model” (1991) where the level of the learner’s self-directed learning is supposed to progress during school. This thesis is relevant for educators, curriculum developers, teachers and policymakers to help them identify the difficulties and chances to facilitate SDL in formal settings.
We study a multi-scale model for growth of malignant gliomas in the human brain.
Interactions of individual glioma cells with their environment determine the gross tumor shape.
We connect models on different time and length scales to derive a practical description of tumor growth that takes these microscopic interactions into account.
From a simple subcellular model for haptotactic interactions of glioma cells with the white matter we derive a microscopic particle system, which leads to a meso-scale model for the distribution of particles, and finally to a macroscopic description of the cell density.
The main body of this work is dedicated to the development and study of numerical methods adequate for the meso-scale transport model and its transition to the macroscopic limit.
Without actors, there is no action: How interpersonal interactions help to explain routine dynamics
(2020)
In this paper, we argue that it is important to gain a better understanding on how people interact with each other to explain routine dynamics. Thus, we propose to focus on the interpersonal interactions of actors which is not only the fact that actors interact with each other but that the manner and quality of these interactions is important to understand routine dynamics. By drawing on social exchange theory, we propose a framework that seeks to explain routine dynamics based on different relationships between actors. Building on this framework, we provide different process models indicating how routine performing and patterning is enacted due to the respective relationship of actors. Our insights contribute to research on routine dynamics by arguing (1) that actions of patterning are dependent on the relationship of actors; (2) that trust works as an enabler for creating new patterns of actions; (3) that distrust functions as an enhancer for interrupting and dissolving patterns of actions.
Die Monomere Ethen und Propen gehören zu den wichtigsten Grundbausteinen der chemischen Industrie. Die zahlreichen Einsatzmöglichkeiten dieser kurzkettigen Alkene sorgen dafür, dass der Bedarf stetig steigt. Um diesen decken zu können, werden Olefine durch diverse Syntheserouten großtechnisch hergestellt. Das Steamcracken und katalytische Cracken (FCC) von Naphtha oder Ethan gehören zu den am meisten verbreiteten Verfahren, um leichte Olefine zu synthetisieren. Diese Technologien sind allerdings mit einigen Nachteilen, wie zum Beispiel einem relativ hohen Energieverbrauch und einer geringen Selektivität für bestimmte Olefine verbunden. Endliche Erdölreserven und steigende Erdölpreise führen schlussendlich zur Entwicklung neuartiger Synthesemethoden für leichte Olefine über nachhaltige Rohstoffe speziell für Produktionsanlagen, die nicht völlig rückintegriert zu Raffinerien oder Steamcracker sind.
Ethen, Propen und Butene können auch selektiv aus den korrespondierenden Alkanen durch Dehydrierung erhalten werden. Der Vorteil der selektiven Dehydrierung besteht darin, dass kein kompliziertes Produktgemisch vorliegt und die Reaktion somit nicht mit einer aufwendigen Produkttrennung verbunden ist. Die Dehydrierung von Propan zu Propen ist mit einer erheblichen Wertsteigerung am Markt verbunden und wird bereits vielfältig eingesetzt. Ethan kommt als große Nebenkomponente im preiswerten Erdgas vor. Es ist daher interessant, Ethan zu dehydrieren und anschließend in situ zu Propen und Butenen zu dimerisieren. Neben der Dehydrierung von Ethan kann Ethen aber auch aus Ethanol hergestellt werden.
Durch die Dehydratisierung von Ethanol kann Ethen aus nachwachsenden Rohstoffen, wie zum Beispiel aus zucker- oder stärkehaltigen Materialien oder auch aus Lignocellulose hergestellt werden. Über Fermentation und anschließende Aufreinigung ist Bioethanol leicht aus Korn, Zuckerrohr und Cellulose zugänglich.
Zeolithe werden als azide, feste Katalysatoren in der chemischen Industrie eingesetzt. Diverse Porenarchitekturen und unterschiedliche Dimensionalitäten ermöglichen eine sehr gute Steuerung der Selektivität in Bezug auf ein erwünschtes Produkt. Über das Silizium zu Aluminium-Verhältnis kann die Anzahl der sauren Zentren angepasst und können säurekatalysierte Reaktionen beeinflusst werden. Die einfache Herstellung sowie Abtrennung des Katalysators aus dem Produktgemisch sorgen dafür, dass feste Katalysatoren, insbesondere Zeolithe, einen hohen Stellenwert in der Industrie haben. Deshalb werden sie in dieser Arbeit als Katalysatoren verwendet.
Der Schwerpunkt dieser Arbeit liegt in der Untersuchung von Verfahren zur Produktion leichter Olefine aus Ethan und Ethanol. Je nachdem welche Reaktionsbedingungen bei der oder bei der Dehydrierung gewählt werden, ist Ethen das Hauptprodukt. Die anschließende Oligomerisierung von Ethen zu Propen, Butenen oder sogar zu BTX-Aromaten ist hingegen eine Herausforderung. Im ersten Teil dieser Arbeit wird Dehydratisierung die Dehydratisierung von Ethanol zu leichten Olefinen untersucht. Hierbei wird die Abhängigkeit des Produktspektrums von Zeolithen mit unterschiedlicher Dimensionalität und Porengröße ermittelt. Anschließend wird die Abhängigkeit der Olefinausbeute von der Partikelgröße untersucht und das Produktspektrum der Dehydrierung von Ethan über den Einsatz ausgewählter Metalle optimiert.
Die eingesetzten Zeolithe werden je nach gewünschter Porenarchitektur und Dimensionalität synthetisiert und entsprechend physikochemisch charakterisiert.
Am 1. Januar 2014 trat das Notfallsanitätergesetz in Kraft, das die Berufsausbildung im Rettungsdienst auf eine völlig neue Basis stellen sollte. Anstatt der gewohnten Vermittlung von nach Unterrichtsfächern gegliederten Inhalten sollte nun eine kompetenzorientierte, nach Lernfeldern geordnete Ausbildung eingeführt werden.
Anders als in allen anderen Bundesländern tat man sich in Bayern schwer mit dem Ansatz, die gewohnte Fächerstruktur aufzugeben, weshalb hier ein Hybridlehrplan entstand, der sowohl nach Unterrichtsfächern als auch nach Lernfeldern gegliedert ist. Die vorliegende Arbeit untersucht, ob es geglückt ist, diesen beiden unterschiedlichen didaktischen Ansätzen gerecht zu werden. Dabei werden zunächst aus der wissenschaftlichen Literatur die grundsätzlichen Unterschiede zwischen Fächer- und Lernfeldkonzept erarbeitet und die wesentlichen Elemente des kompetenzorientierten Unterrichts dargestellt. Anschließend wird anhand einer unter Lehrkräften und Lernenden durchgeführten Befragung untersucht, inwieweit die kompetenzorientierte Ausbildung an bayerischen Notfallsanitäterschulen bereits umgesetzt wird.
Es zeigt sich, dass in der Wahrnehmung der Lernenden nach wie vor die Orientierung nach Fachinhalten und Unterrichtsfächern das Denken der Schüler bestimmt, obwohl deutliche Bemühungen seitens des Lehrpersonals bestehen, sich stärker an Kompetenzzielen zu orientieren. Dabei wird insbesondere deutlich, dass der Bedarf an fachübergreifenden Absprachen an den Schulen noch nicht ausreichend befriedigt oder von Lehrkräften noch nicht im erforderlichen Maß verfolgt wird.
Dieser Arbeits- und Forschungsbericht beschreibt die Analyse der Wirkung der durch das Teil- projekt etablierten (Weiter-)Bildungsangebote an der Hochschule Kaiserslautern. Zu diesem Zweck wurden sowohl in der Programmentwicklung beteiligte Unternehmen als auch die Stu- dierenden, welche die entwickelten Angebote derzeit wahrnehmen, befragt. Ziel war es, unter anderem die Zielgruppenerreichung, einen Outcome sowie einen Impact messbar zu machen und zu analysieren. Aus den gewonnen Ergebnissen lassen sich Rückschlüsse auf die anvi- sierte Wirkung der (Weiter-)Bildungsangebote zum einen auf Studierende und zum anderen auf die in der Region ansässigen Unternehmen ziehen. Gleichzeitig wird der Bekanntheitsgrad der Hochschule Kaiserslautern als Bildungsträgerin analysiert und wichtige Erkenntnisse für die nachhaltige Qualitätssicherung der wissenschaftlichen (Weiter-)Bildung gezogen.
Purpose
We investigated the cytosolic and membrane-associated contents of polyphenols after 4 hours of incubation (50 μM of each polyphenol) in the colon carcinoma cell line T84 using a novel, rapid, and convenient method based on permeabilization of the cell membrane using digitonin. The colon carcinoma cell line was used to investigate the intestinal uptake of polyphenols present in apple products.
Recent Findings
The results showed that hydroxycinnamic acids (caffeic and 5-caffeoylquinic acid) were only detected in the cytosolic fractions. In contrast, 0.3 to 8.2% of the initial concentrations (50 μM) of the flavonoids phloretin, quercetin, phloretin 2′-O-glucoside, and quercetin 3-O-rhamnoside were found in the membrane-associated fractions. In the cytosolic fractions, 0.2–2.9% of these compounds were detected, corresponding to 25 to 40% of the total cell-associated (cytosolic plus membrane-associated fractions) polyphenol content.
Summary
Our results showed that after uptake, polyphenols were present in the cytosolic fraction of the cells as well as associated with the cell membrane. The presented method provides a useful in vitro tool for determining biologically active compounds in cellular fractions.
A palladium-catalyzed three-component synthesis of α-arylglycines from benzoic acids, sulfonamides and glyoxylic acid is reported. This novel reaction offers straightforward access to the important arylglycine motif in good yields and high structural diversity. By replacing boronic with carboxylic acids as nucleophilic component, this method can be considered as a more sustainable version of the classical Petasis reaction for synthesis of arylglycines.
This work describes the development of a continuum phase field model that can describe static as well as dynamic wetting scenarios on the nano- and microscale.
The model reaches this goal by a direct integration of an equation of state as well as a direct integration of the dissipative properties of a specific fluid, which are both obtained from molecular simulations. The presented approach leads to good agreement between the predictions of the phase field model and the physical properties of the regarded fluid.
The implementation of the model employs a mixed finite element formulation, a newly developed semi-implicit time integration scheme, as well as the concept of hyper-dual numbers. This ensures a straightforward and robust exchangeability of the constitutive equation for the regarded fluid.
The presented simulations show good agreement between the results of the present phase field model and results from molecular dynamics simulations. Furthermore, the results show that the model enables the investigation of wetting scenarios on the microscale. The continuum phase field model of this work bridges the gap between the molecular models on the nanoscale and the phenomenologically motivated continuum models on the macroscale.
Many machine learning models show black box characteristics and, therefore, a lack of transparency, interpretability, and trustworthiness. This strongly limits their practical application in clinical contexts. For overcoming these limitations, Explainable Artificial Intelligence (XAI) has shown promising results. The current study examined the influence of different input representations on a trained model’s accuracy, interpretability, as well as clinical relevancy using XAI methods. The gait of 27 healthy subjects and 20 subjects after total hip arthroplasty (THA) was recorded with an inertial measurement unit (IMU)-based system. Three different input representations were used for classification. Local Interpretable Model-Agnostic Explanations (LIME) was used for model interpretation. The best accuracy was achieved with automatically extracted features (mean accuracy Macc = 100%), followed by features based on simple descriptive statistics (Macc = 97.38%) and waveform data (Macc = 95.88%). Globally seen, sagittal movement of the hip, knee, and pelvis as well as transversal movement of the ankle were especially important for this specific classification task. The current work shows that the type of input representation crucially determines interpretability as well as clinical relevance. A combined approach using different forms of representations seems advantageous. The results might assist physicians and therapists finding and addressing individual pathologic gait patterns
Water quality in urban streams is highly influenced by emissions from WWTP and from sewer systems particularly by overflows from combined systems. During storm events, this causes random fluctuations in discharge and pollutant concentrations over a wide range. The aim of this study is an appraisal of the environmental impact of micropollutant loads emitted from combined sewer systems. For this purpose, high-resolution time series of river concentrations were generated by combining a detailed calibrated model of a sewer system with measured discharge of a small natural river to a virtual urban catchment. This river base flow represents the remains of the natural hydrological system in the urban catchment. River concentrations downstream of the outlets are simulated based on mixing ratios of base flow, WWTP effluent, and CSO discharge. The results show that the standard method of time proportional sampling of rivers does not capture the risk of critical stress on aquatic organisms. The ratio between average and peak concentrations and the duration of elevated concentrations strongly depends on the source and the properties of the particular substance. The design of sampling campaigns and evaluation of data should consider these characteristics and account for their effects.
Spin-crossover and valence tautomeric complexes are of tremendous interest in the field of molecular electronics, electronic storage devices and information processing. Herein, synthesis and characterization of the spin-crossover and valence tautomeric cobalt dioxolene complexes are reported. All the synthesized complexes contain N,N'-di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophane (L-N4tBu2) as ancillary ligands. Only various types of co-ligands which are different dioxolene ligands, have been used. The mononuclear cobalt dioxolene complexes have been synthesized by using dideprotonated form of the dioxolene ligand 4,5-dichlorocatechol (H2DCCat) as co-ligands, and the cobalt bis(dioxolene) complexes have been synthesized by using dideprotonated form of the 3,3'-dihydroxy-diphenoquinone-(4,4') (H2(SQ-SQ)) as co-ligands.
Analytically pure samples of the complexes [Co(L-N4tBu2)(DCCat)] (1), [Co(L-N4tBu2)(DCCat)](BPh4) (2b), [Co2(L-N4tBu2)2(SQ-SQ)](BPh4)2.4 DMF (3b), [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d), have been synthesized and characterized by X-ray crystallography, magnetic and electrochemical measurements. The complexes have been investigated by UV/Vis/NIR-, IR-, and NMR spectroscopic measurements.
The complex [Co(L-N4tBu2)(DCCat)] (1) shows temperature invariant high-spin cobalt(II) catecholate state. One-electron oxidation of 1 has yielded the complex [Co(L-N4tBu2)(DCCat)](BPh4) (2b). The solid state properties of 2b are best described by the low-spin cobalt(III) catecholate state, but the solution state properties of the complex 2b are best described by the valence tautomeric transition from the low-spin cobalt(III) catecholate to the low-spin cobalt(II) semiquinonate state.
For the cobalt bis(dioxolene) complexes, it is found that spin-crossover for the two cobalt(II) centers is accompanied by the electronic state changes of the coordinated bis(dioxolene) unit from singlet open-shell biradicaloid to singlet closed-shell quinonoid form in complex 3b. Approaching similar synthetic method to 3b, but performing the metathesis reaction with sodium tetrafluoroborate rather than sodium tetraphenylborate has resulted in the formation of the complex [Co2(L-N4tBu2)2(Cat-SQ)](BF4)2.Et2O (3d). The solid state properties of the complex are best described by the temperature induced valence tautomeric transition for the low-spin cobalt(III) center which is accompanied by the spin-crossover process for the cobalt(II) center. Thus, the electronic state of the complex 3d changes from LS-CoIII-Cat-SQ-CoII-LS to HS-CoII-(SQ-SQ)CS-CoII-HS state upon change in temperature.
Temperature-induced electronic configuration changes of the (SQ-SQ)CS2- ligands from open-shell biradicaloid to closed-shell quinonoid configurations are not observed for the nickel-, copper- and zinc bis(dioxolene) complexes 4a, 5a and 6b, respectively. For these complexes, the metal ions are bridged by (SQ-SQ)CS2- ligand and the paramagnetic metal ions are very weakly antiferromagnetically coupled.
Additive 3D-Drucksverfahren ermöglichen eine automatisierte wie flexible Fertigung
komplexer 3D-Geometrien direkt aus einem CAD-Modell ohne die Notwendigkeit ei
nes bauteilspezifischen Werkzeugs. Nachteil vor allem beim 3D-Drucken von Kunst
stoffen sind jedoch die geringen mechanischen Eigenschaften, die auf verfahrensbe
dingte Herausforderungen, aber auch auf eine eingeschränkte Auswahl verarbeitba
rer Materialien zurückzuführen sind. Eine Möglichkeit die mechanischen Eigenschaf
ten von Kunststoffen zu verbessern, ist die Kombination mit Verstärkungsfasern. Die
höchste Verstärkungswirkung entfalten Faser-Kunststoff-Verbunde (FKV) wenn die
Fasern kontinuierlich und in Lastrichtung vorliegen. Um ihr volles Potential zu entfal
ten, müssen FKV daher möglichst gut an die jeweiligen Anwendungen angepasst
werden. Das erschwert eine automatisierte und effiziente Fertigung, gerade von
komplexeren Strukturen. Ziel der Arbeit war daher die Entwicklung eines 3D
Verfahrens für kontinuierlich faserverstärkte Kunststoffe. Hierdurch soll das Anwen
dungsspektrum kunststoffbasierter 3D-Druck-Verfahren vergrößert und gleichzeitig
eine effiziente sowie flexible Fertigung komplexer FKV-Strukturen ermöglicht werden.
Das entwickelte Prozesskonzept basiert dabei auf 3D-Druck-Extrusionsverfahren für
thermoplastische Kunststoffe. Im sogenannten Fiber Integrated Fused Deposition
Modeling Prozess, kurz FIFDM, werden bereits imprägnierte Halbzeuge in Form von
kontinuierlich faserverstärkten Thermoplaststrängen (FTS) verarbeitet. Um die Fa
serorientierung frei einstellen zu können, werden die Stränge nicht wie herkömmlich
nur schichtweise, sondern frei in alle Raumrichtungen positioniert. Realisiert wird dies
über die Steuerung der FTS-Temperatur nach der Extrusion. Im Rahmen dieser Ar
beit wurde zur Quantifizierung und zum einfachen Vergleich der Halbzeugqualität ein
Qualitätsanalyseverfahren entwickelt und damit ein geeigneter FTS für weitere Pro
zessuntersuchungen ausgewählt. Zudem wurde eine FIFDM-Prototypenanlage ent
wickelt und aufgebaut. Mithilfe der thermischen Simulation des Extrusions- und Ab
kühlprozesses konnten thermische Prozessgrenzen auch für die 3D-Ablage im Raum
definiert werden. In einer umfassenden experimentellen Prozessanalyse wurde zu
dem untersucht, welche Prozessparameter einen Einfluss auf verschiedene Zielgrö
ßen der Prozessstabilität und Bauteilqualität besitzen. Ausgehend von den Erkennt
nissen aus dieser Arbeit wurden eine erste Einschätzung des Prozesspotentials vor
genommen und Vorschläge zur Prozessoptimierung formuliert.
3D printing enables automated and flexible production of complex 3D geometries
directly from a CAD model without the need for a component-specific tool. However,
the disadvantage, especially in the Additive Manufacturing (AM) of polymers, is the
low mechanical properties, which can be attributed to process-related challenges and
to a limited selection of processable materials. One way of improving the mechanical
properties of polymers is to combine them with reinforcing fibers. The highest rein
forcing effect for Fiber Reinforced Polymer Composites (FRPC) is achieved when the
fibers are continuously present in load direction. In order to develop their full poten
tial, FRPC must therefore be adapted as well as possible to the respective applica
tion. This complicates automated and efficient production, especially of more com
plex structures. The aim of the work was therefore to develop an AM process for con
tinuously fiber-reinforced polymers. This should increase the range of applications for
polymer-based AM processes and at the same time enable efficient and flexible pro
duction of complex FRPC structures. The developed process concept is based on 3D
printing extrusion processes for thermoplastics. In the so-called Fiber Integrated
Fused Deposition Modeling Process (FIFDM) already impregnated semi-finished
products are processed in the form of continuously fiber-reinforced thermoplastic
strands (FTS). In order to be able to freely adjust the fiber orientation, the strands can
be positioned in all spatial directions, not just layer by layer as is the case with con
ventional AM systems. This is realized by controlling the FTS temperature after ex
trusion. As part of this work, a quality analysis method was developed for quantifying
and comparing the semi-finished product quality and a suitable FTS was thus select
ed for further process investigations. In addition, a FIFDM prototype unit was devel
oped and set up. With the help of thermal simulation of the extrusion and cooling
process, thermal process limits could also be defined for the 3D placement in all spa
tial directions. In a comprehensive experimental process analysis, it was investigated
which process parameters have an influence on different target parameters of pro
cess stability and component quality. Based on the results of this work, an initial as
sessment of the process potential was made and proposals for process optimization
were formulated.
Diese Arbeit verbessert einige Prozessschritte zur Auslegung hochbeanspruchter Bauteile aus
endlosfaserverstärkten Faser-Thermoplast-Verbunden am Beispiel von CF-PA6 Mehrschichtverbunden.
Hierzu werden neue Verfahren zur Konditionierung hygroskopischer Werkstoffe und der
Bestimmung des relativen Faservolumenanteils entwickelt, wodurch der Aufwand zur Werkstoffcharakterisierung
signifikant reduziert werden kann.
Durch Versuche an CF-PA6 Schichten wird das mechanische Verhalten des Werkstoffs hinsichtlich
dem Spannungs-Verzerrungs- und Bruchverhalten analysiert. Dazu werden speziell die Unterschiede
zu Faser-Duroplast-Verbunden durch Berechnungen auf mikromechanischer Ebene herausgearbeitet.
Zusätzlich wird der Einfluss des verwendeten Verarbeitungsverfahrens (Tapelegen) auf
die mechanischen Werkstoffkennwerte charakterisiert.
Auf Basis der gewonnenen Erkenntnisse wird eine neue Werkstoffroutine entwickelt und in ein Berechnungsprogramm
zur Analyse mechanischer Strukturen mit Hilfe der Finiten Elemente Methode
implementiert. Dadurch kann unter anderem das nichtlineare Verhalten von Faser-Thermoplast-
Verbunden unter großen Verzerrungen und die Degradation einzelner Schichten eines Mehrschichtverbunds
abgebildet werden. Ein Vergleich der Ergebnisse von Versuchen an Mehrschichtverbunden
und der Berechnung zeigt gute Übereinstimmung und die Leistungsfähigkeit der Routine auf Bauteilebene.
This work improves the process steps for the design of highly stressed components made of continuous
fiber-reinforced thermoplastics using as example CF-PA6 multilayer composites. For this
purpose, new methods for conditioning hygroscopic materials and determining the relative fiber
volume fraction were developed. This reduces the expense of material characterization significantly.
Tests on CF-PA6 layers are used to analyze the mechanical behavior of the material in terms of
stress-strain and fracture behavior. In particular, the differences to fiber-reinforced thermosets are
highlighted by using calculations on a micromechanical level. Additionally, the influence of the
processing method (tape laying) on the mechanical material properties is characterized.
Based on the knowledge gained, a new material routine is developed and implemented into a
calculation program for the analysis of mechanical structures using the finite element method.
Through this work it is now possible to calculate nonlinear behavior of fiber-reinforced thermoplastics
under large distortions and the degradation of individual layers of a multi-layer composite.
A comparison of experimental data with the calculation of multilayer composites shows good
agreement and the performance for the application on a component-level.
Endocytosis of the amyloid precursor protein (APP) is critical for generation of β-amyloid, aggregating in Alzheimer's disease. APP endocytosis depending on the intracellular NPTY motif is well investigated, whereas involvement of the YTSI (also termed BaSS) motif remains controversial. Here, we show that APP lacking the YTSI motif (ΔYTSI) displays reduced localization to early endosomes and decreased internalization rates, similar to APP ΔNPTY. Additionally, we show that the YTSI-binding protein, PAT1a interacts with the Rab5 activator RME-6, as shown by several independent assays. Interestingly, knockdown of RME-6 decreased APP endocytosis, whereas overexpression increased the same. Similarly, APP ΔNPTY endocytosis was affected by PAT1a and RME-6 overexpression, whereas APP ΔYTSI internalization remained unchanged. Moreover, we could show that RME-6 mediated increase of APP endocytosis can be diminished upon knocking down PAT1a. Together, our data identify RME-6 as a novel player in APP endocytosis, involving the YTSI-binding protein PAT1a.
Obwohl die Durchführung von Stadtfesten vielerorts auf eine jahrzehntelange Tradition zurückgeht, sehen sich die Organisatoren von Großveranstaltungen in den letzten Jahren mit erhöhten Anforderungen an die Umsetzung ihrer Aufgaben konfrontiert. Insbesondere die Tragödie auf der Loveparade in Duisburg 2010 stieß eine Diskussion zu bestehenden Sicherheitsstandards an und zeigte, dass diese überdacht und neu geprüft werden mussten. Aber auch neue Gefährdungslagen durch terroristische Bedrohungen, ein sich zunehmend durchsetzender Präventionsgedanke und der gesellschaftliche Trend zur „Eventisierung“ wirken sich auf die Planungspraxis und die Genehmigungsverfahren von Großveranstaltungen aus. Da die Erstellung eines Sicherheitskonzeptes für eine Open-Air Veranstaltung in Deutschland (bislang) nicht obligatorisch ist, sind Praktiken der Sicherheitsproduktion vor dem Hintergrund lokalspezifischer Bedingungen zu betrachten.
In der vorliegenden Arbeit wurde den Fragen nachgegangen, inwiefern sich lokale Praktiken der Sicherheitsproduktion auf Stadtfesten unterscheiden, wie sie sich in der nahen Vergangenheit gewandelt haben und wie unterschiedliche Entwicklungsprozesse begründet werden können. Mit Hilfe eines empirischen Fallvergleichs von zwei Stadtfesten wurden Organisationsstrukturen, Sicherheitskonzepte und Sicherheitsgefühle untersucht. Methodisch basiert die Arbeit auf Experteninterviews mit relevanten Entscheidungsträgern, zwei Dokumentenanalysen von Sicherheitskonzepten, der Beschreibung sicherheitsrelevanter räumlicher Parameter auf den Veranstaltungsflächen und zwei quantitativen Befragungen von Stadtfestbesuchern. Die Forschungsfrage wurde vor dem Hintergrund einer sich wandelnden Sicherheitskultur diskutiert.
Die Ergebnisse zeigen, dass sich insbesondere Praktiken der Sicherheitskonzeption auf beiden Stadtfesten trotz ähnlicher Rahmenbedingungen unterschiedlich entwickelt haben. Empirisch lässt sich der eingetretene Wandlungsprozess durch verschiedene Faktoren begründen. Dazu zählen u.a. eine positive Grundhaltung und eine solide fachliche Kenntnis der Entscheidungsbefugten in Bezug auf Sicherheitsfragen, ein empfundener Handlungsdruck, eine zugrundeliegende Innovationsbereitschaft, unmittelbar erlebte und folgenreiche Negativerfahrungen, ein positives Feedback und die Unterstützung und Förderung durch übergeordnete lokalpolitische Instanzen, die sowohl ideelle Leitlinien vorgeben als auch finanzielle Unterstützung leisten. Professionell gestaltete Sicherheitskonzepte fördern zwar die Umsetzung zusätzlicher Sicherheitsmaßnahmen, jedoch konnte nicht festgestellt werden, dass sich Sicherheitskonzepte oder einzelne Sicherheitsmaßnahmen auf das subjektive Sicherheitsgefühl der Festbesucher auswirken. Ob sich sicherheitskulturelle Wandlungsprozesse vollziehen, hängt in erster Linie von den lokalen Bedingungen ab, d.h. von den einzelnen Personen vor Ort und von deren Erfahrungen, Werten, Einstellungen und deren Kooperationsbereitschaft. Die lokalen Bedingungen innerhalb des untersuchten Ereignisraums erscheinen in ihrer Wirkung auf Wandlungsprozesse deshalb stärker als der tiefe Kontext der Sicherheitskultur.
The weight of evidence pro/contra classifying the process-related food contaminant (PRC) acrylamide (AA) as a genotoxic carcinogen is reviewed. Current dietary AA exposure estimates reflect margins of exposure (MOEs) < 500. Several arguments support the view that AA may not act as a genotoxic carcinogen, especially not at consumer-relevant exposure levels: Biotransformation of AA into genotoxic glycidamide (GA) in primary rat hepatocytes is markedly slower than detoxifying coupling to glutathione (GS). Repeated feeding of rats with AA containing foods, bringing about uptake of 100 µg/kg/day of AA, resulted in dose x time-related buildup of AA-hemoglobin (Hb) adducts, whereas GA-Hb adducts remained within the background. Since hepatic oxidative biotransformation of AA into GA was proven by simultaneous urinary mercapturic acid monitoring it can be concluded that at this nutritional intake level any GA formed in the liver from AA is quantitatively coupled to GS to be excreted as mercapturic acid in urine. In an oral single dose–response study in rats, AA induced DNA N7-GA-Gua adducts dose-dependently in the high dose range (> 100 µg/kg b w). At variance, in the dose range below 100 µg/kg b.w. down to levels of average consumers exposure, DNA N7 -Gua lesions were found only sporadically, without dose dependence, and at levels close to the lower bound of similar human background DNA N7-Gua lesions. No DNA damage was detected by the comet assay within this low dose range. GA is a very weak mutagen, known to predominantly induce DNA N7-GA-Gua adducts, especially in the lower dose range. There is consensus that DNA N7-GA-Gua adducts exhibit rather low mutagenic potency. The low mutagenic potential of GA has further been evidenced by comparison to preactivated forms of other process-related contaminants, such as N-Nitroso compounds or polycyclic aromatic hydrocarbons, potent food borne mutagens/carcinogens. Toxicogenomic studies provide no evidence supporting a genotoxic mode of action (MOA), rather indicate effects on calcium signalling and cytoskeletal functions in rodent target organs. Rodent carcinogenicity studies show induction of strain- and species-specific neoplasms, with MOAs not considered likely predictive for human cancer risk. In summary, the overall evidence clearly argues for a nongenotoxic/nonmutagenic MOA underlying the neoplastic effects of AA in rodents. In consequence, a tolerable intake level (TDI) may be defined, guided by mechanistic elucidation of key adverse effects and supported by biomarker-based dosimetry in experimental systems and humans.
Bacterial cell appendix formation supports cell-cell interaction, cell adhesion and cell movement. Additionally, in bioelectrochemical systems (BES), cell appendages have been shown to participate in extracellular electron transfer. In this work, the cell appendix formation of Clostridium acetobutylicum in biofilms of a BES are imaged and compared with conventional biofilms. Under all observed conditions, the cells possess filamentous appendages with a higher number and density in the BES. Differences in the amount of extracellular polymeric substance in the biofilms of the electrodes lead to the conclusion that the cathode can be used as electron donor and the anode as electron acceptor by C. acetobutylicum. When using conductive atomic force microscopy, a current response of about 15 nA is found for the cell appendages from the BES. This is the first report of conductivity for clostridial cell appendices and represents the basis for further studies on their role for biofilm formation and electron transfer.
The famous Mather-Yau theorem in singularity theory yields a bijection of isomorphy classes of germs of isolated hypersurface singularities and their respective Tjurina algebras.
This result has been generalized by T. Gaffney and H. Hauser to singularities of isolated singularity type. Due to the fact that both results do not have a constructive proof, it is the objective of this thesis to extract explicit information about hypersurface singularities from their Tjurina algebras.
First we generalize the result by Gaffney-Hauser to germs of hypersurface singularities, which are strongly Euler-homogeneous at the origin. Afterwards we investigate the Lie algebra structure of the module of logarithmic derivations of Tjurina algebra while considering the theory of graded analytic algebras by G. Scheja and H. Wiebe. We use the aforementioned theory to show that germs of hypersurface singularities with positively graded Tjurina algebras are strongly Euler-homogeneous at the origin. We deduce the classification of hypersurface singularities with Stanley-Reisner Tjurina ideals.
The notion of freeness and holonomicity play an important role in the investigation of properties of the aforementioned singularities. Both notions have been introduced by K. Saito in 1980. We show that hypersurface singularities with Stanley--Reisner Tjurina ideals are holonomic and have a free singular locus. Furthermore, we present a Las Vegas algorithm, which decides whether a given zero-dimensional \(\mathbb{C}\)-algebra is the Tjurina algebra of a quasi-homogeneous isolated hypersurface singularity. The algorithm is implemented in the computer algebra system OSCAR.
Much reading research has found that informative parafoveal masks lead to a reading benefit for native speakers (see, Schotter et al., 2012). However, little reading research has tested the impact of uninformative parafoveal masks during reading. Additionally, parafoveal processing research is primarily restricted to native speakers. In the current study we manipulated the type of uninformative preview using a gaze contingent boundary paradigm with a group of L1 English speakers and a group of late L2 English speakers (L1 German). We were interested in how different types of uninformative masks impact on parafoveal processing, whether L1 and L2 speakers are similarly impacted, and whether they are sensitive to parafoveally viewed language-specific sub-lexical orthographic information. We manipulated six types of uninformative masks to test these objectives: an Identical, English pseudo-word, German pseudo-word, illegal string of letters, series of X’s, and a blank mask. We found that X masks affect reading the most with slight graded differences across the other masks, L1 and L2 speakers are impacted similarly, and neither group is sensitive to sub-lexical orthographic information. Overall these data show that not all previews are equal, and research should be aware of the way uninformative masks affect reading behavior. Additionally, we hope that future research starts to approach models of eye-movement behavior during reading from not only a monolingual but also from a multilingual perspective.
In dieser Masterarbeit wird der Frage nachgegangen, wie Schulleiter und Schulleiterinnen an sonderpädagogischen Bildungs- und Beratungszentren ihre Führungsrolle im Kontext inklusiver Schulentwicklung verstehen. Artikel 24 der UN-Behindertenrechtskonvention (UN-BRK), die die Rechte von Menschen mit Behinderung stärkt und sich für die Entwicklung einer inklusiven Gesellschaft einsetzt, schreibt das Recht auf Bildung aller Menschen vor. D.h., dass Menschen mit Behinderung zukünftig nicht mehr vom allgemeinen Bildungssystem ausgeschlossen werden dürfen. Daraus ergibt sich für alle Schulen die Aufgabe, sich zu entwickeln: Für allgemeine Schulen bedeutet die Umsetzung der UN-BRK eine Entwicklung hin zu inklusiven Schulen. Für sonderpädagogische Bildungs- und Beratungszentren (SBBZen), früher Sonderschulen, bedeutet inklusive Schulentwicklung nicht nur eine Veränderung der Organisation, sondern ggf. auch die Auflösung bzw. Schließung einer Schule. Sonderpädagogische Expertise wird zukünftig vermehrt in den allgemeinen Schulen benötigt, was zur Folge hat, dass Lehrkräfte von SBBZen an allgemeine Schulen abgeordnet oder versetzt werden. Dies wiederum bedeutet eine immense Veränderung der SBBZen und ihrer Strukturen und damit auch eine immense Veränderung der Anforderungen an Führungspersonen, sprich Schulleitungen von SBBZen. Schulleiterinnen und Schulleiter nehmen bei solchen Veränderungsprozessen eine besondere und zentrale Rolle ein. Ihr Verständnis von und ihre innere Haltung zu Inklusion sind im Kontext von inklusiven Schulentwicklungsprozessen nach Auffassung der Autorin von zentraler Bedeutung und richtungsweisend für eine erfolgreiche oder auch erfolglose Entwicklung der Organisation Schule. Der Hypothese, dass das Verständnis von und die Haltung zu Inklusion das Führungsverständnis und auch die Art und Weise, wie geführt wird, beeinflussen, wird mittels der Methode leitfadengestützter Interviews nachgegangen. Im Theorieteil werden die Themen Schule, Schulentwicklung, Führung und Inklusion ausgeführt. Darüber hinaus wird der bisherige Forschungsstand dargelegt. Im empirischen Teil der Arbeit werden die Ergebnisse der Befragung dargestellt und hinsichtlich der zentralen Fragestellung diskutiert.
Die Verwendung von Sheet-Molding-Compounds (SMCs) unter dauerhaft wirkenden
statischen Lasten und erhöhten Temperaturen lässt die Frage nach der Materialkriechneigung
aufkommen. Während der Kriecheffekt bisher viel Aufmerksamkeit im thermoplastischen
Polymerbereich erhielt, zeigt diese Arbeit auf, dass auch duroplastische,
wirrfaserverstärkte Matrixsysteme von dem Phänomen in kritischen Größenordnungen
betroffen sein können. Es wurden Kriechuntersuchungen an einem glas- und einem
carbonfaserverstärkten SMC durchgeführt. Die Untersuchungen wurden bei einer
Temperatur von 120 °C durchgeführt, welche von einer möglichen Anwendung in einem
E-Motor herrührt. Die Charakterisierung des Kriechens in der Faserebene zeigte
die Schwierigkeit einer zuverlässigen Kriechversagensvorhersage bei der Beanspruchung
in der Faserebene auf. Kriechdehnungsverläufe zeigen deutliche Unterschiede
bei Beanspruchung auf Zug und Druck bei den vorgestellten Wirrfasermaterialien.
Gängige FE- (Finite Elemente) Anwendungen sind, wie Untersuchungen in dieser Arbeit
feststellen, über Standardverfahren nicht in der Lage, zuverlässige Kriechvorhersagen
von Faserkunststoffverbundbauteilen bei einer Mischbeanspruchung vorherzusagen.
Es wurden mögliche Implementierungsansätze für FE-Programme vorgeschlagen,
um eine beschriebene Kriechvorhersage zu bewerkstelligen.
Es wurde jedoch herausgefunden, dass die isotrope Kriechmodellierung, welche in
gängigen FE-Programmen bereits implementiert ist, bei uniaxialem Spannungszustand
im eigentlich anisotropen SMC-Material verwendbar ist. Ein solcher uniaxialer
Spannungszustand mit relevantem Anwendungsszenario ist beispielsweise bei Verschraubungen
vorhanden. Die Druckbeanspruchung im Faserkunststoffverbundmaterial
durch die Schraubenvorspannkraft führt zu einem Kriechen in Dickenrichtung. Die
Charakterisierung des Kriechens in Dickenrichtung ermöglichte die zuverlässige Vorhersage,
der über die Zeit schwindenden Vorspannkraft von verschraubten SMC-Testplatten.
Vorteilhaft ist hier, für die künftige Auslegung von verschraubten SMC-Verbindungselementen,
dass die Kriechuntersuchungen für die verwendete Materialkarte in
der Simulation vergleichbar geringen Versuchsaufwand benötigen. Die Messung kann
in einer Universalprüfmaschine durchgeführt werden. Die Basis für die Kriechmessdaten
bildeten zwei Druckversuche an gestackten Coupons über einen Zeitraum von je
84 h.Die Extrapolation dieser Messdaten ermöglicht eine zuverlässige Schraubenkraftvorhersage für Zeiten von (mindestens) 1000 h. Die Kriechmessdaten
wurden mit dem Norton-Bailey-Kriechgesetz approximiert. Das Norton-Bailey-Kriechgesetz
ist standardmäßig in allen gängigen FE-Programmen verwendbar, was dem
Anwender eine einfache Berechnung ermöglicht.
Die Arbeit fokussiert sich auf den menschlichen Einflussfaktor auf der Führungsebene im Veränderungsprozess, speziell in Bezug auf den filialbasierten Einzel-handel. Im Zentrum steht hierbei die Fragestellung, welche Kompetenzen Führungskräfte mitbringen müssen, um einen Veränderungsprozess erfolgreich bewältigen zu können. Des Weiteren ist zu eruieren, wie sich Personen in Führungspositionen in Zeiten des Wandels verhalten müssen, damit der Veränderungsprozess zielführend verläuft.
Validierung einer Farmer-Kammer für die Dosimetrie von Elektronenstrahlung mit geringer Reichweite
(2020)
In dieser Arbeit wurde die Auswirkung der Bezugspunktverschiebung [19, 20, 21, 22, 30, 31, 32, 36] des DIN-Entwurfes 6800-2 2016 bei Elektronenstrahlung, so-wie die Durchführbarkeit der Elektronen-Absolutdosimetrie mit Farmer-Kammern untersucht. Des Weiteren wurde der kE,R-Faktor für Farmerkammern bestimmt. Verwendet wurden vier Flachkammern unterschiedlicher Bauart (Roos-Kammer, Markus-Kammer, Advanced-Markus-Kammer der Firma PTW; PPC40-Kammer der Firma IBA) und drei Farmer-Kammer gleicher Bauart (PTW). Die Messungen wurden mit Elektronenenergien von 4 MeV bis 15 MeV durchgeführt.
In den aufgenommenen Tiefendosiskurven ist die Bezugspunktverschiebung (Δz) deutlich zu sehen. Die Kurven sind je nach Verschiebung parallel nach links (+Δz) oder rechts (-Δz) versetzt. Entsprechend verkürzt oder verlängert sich das Eintrittsfenster. Die sich dadurch veränderten Werte für die Halbwerttiefen der Ionendosis wirken sich widerrum auf die für die Absolutdosimetrie benötigten Referenztiefen zref aus. Diese Änderung der Messtiefe wird allerdings durch die neuen Formeln zur Berechnung der Halbwerttiefe der Wasser-Energiedosis nahezu egalisiert. Die neuen Berechnungsvorschriften für den Korrektionsfaktor zur Berücksichtigung des Einflusses der Strahlungsqualität der Elektronenstrahlung hin-gegen haben größere Auswirkungen auf die Dosiswerte.
Der kE,R-Faktor der Farmer-Kammern wurde durch einen Dosisvergleich mit der Roos-Kammer ermittelt. Der Mittelwert der Dosis aller drei Farmer-Kammern pro Energie wurde mit der Dosis der Roos-Kammer verglichen, der Unterschied als kE,R-Faktor bestimmt. Zusätzlich wurde das Verhalten der Farmer-Kammer bei der Absolutdosimetrie mit Elektronenstrahlung betrachtet. Hierbei wurde eine hohe Stabilität sowohl in den Tiefendosiskurven als auch in der Absolutdosimetrie deutlich, sodass die Farmer-Kammer der Firma PTW als für die Absolutdosimetrie mit Elektronenstrahlung < 10 MeV geeignet eingestuft wird.
Winery by-products arise in high amounts during winemaking processes. Hence, recovery alternatives are of great interest. In this study, effects of extracts from winery by-products (Vitis vinifera L. cv. Riesling) on mitochondrial functions in human hepatocellular carcinoma (HepG2) cells were examined. Polyphenolic profiles of pomace (PE), stem (SE), vine leaf (VLE), and vine shoot extracts (VSE) were characterized by HPLC-UV/Vis-ESI-MS/MS. The extracts induced dose-dependent cytotoxic effects (PE > SE > VLE > VSE). VSE showed protective effects regarding modulation of tert-butyl hydroperoxide (TBH)-induced intracellular reactive oxygen species (ROS) levels. PE, SE and VLE increased the mitochondrial membrane potential (MMP), whereas VSE decreased it owing to mildly impaired mitochondrial respiration. Cells may try to compensate reduced respiration chain complex activities by increasing the mitochondrial mass, as indicated by enhanced citrate synthase activity and mRNA expression levels after VSE incubation. Thus, winery by-products represent interesting sources of bioactive compounds that exert positive or negative effects on mitochondrial functions.
Verbundkonstruktionen aus Stahl und Beton haben sich in den letzten Jahrzehnten
zu einer wirtschaftlichen und konkurrenzfähigen Bauweise im Hoch- und Brückenbau
entwickelt. Eine wesentliche Rolle im Verbundbau nehmen dabei die Verbundmittel
ein, an die hohe Anforderungen hinsichtlich der Tragfähigkeit und der Verformbarkeit
gestellt werden. Am Fachgebiet Stahlbau der TU Kaiserslautern wurden Versuche
zur Trag- und Verformungsfähigkeit randnaher Betondübel in Abscher- und
Ausziehversuchen durchgeführt.
Der Einsatz der Betondübel in innovativen Verbundkonstruktionen ist trotz noch
fehlender normativer Regelwerke von weiter steigendem Interesse. Betondübel
können in neuartigen Verbundkonzepten auch in einer randnahen Lage eingesetzt
werden. Dadurch lassen sich Querschnitte materialgerecht und kostengünstig in
optimierter Verbundbauweise herstellen und verbauen. Eine geringere seitliche
Betondeckung der Betondübel kommt neben den Plattenbalkenquerschnitten in
Konstruktionen vor, in welchen die Verbundleiste liegend eingebaut wird. Solche
parallel zur Betongurtebene positionierte Betondübelleisten sind z. B. in Slim-Floor-
oder modernen Klimadecken in Sandwichverbundbauweise denkbar. Das Trag- und
Verformungsverhalten einer Betondübelleiste, welche in Verbundkonstruktionen in
Kombination mit einer schlanken Betonplatte liegend integriert wird, wurde aufgrund
ihrer randnahen Lage genauer betrachtet. Die ersten Untersuchungen hierzu zeigen,
dass die Verbunddübelleisten, nach dem die Spalt- und Rückhängerisse entstehen,
mit Kantenbruch versagen. Wenn ausreichend Bewehrung vorhanden ist, führen die
primären Spalt- und Rückhängerisse nicht zum Versagen. Der Einsatz einer
Wendelbewehrung in den Verbundübelleisten steigert das Trag- und
Verformungsvermögen deutlich.
Es existiert zwar noch keine einheitliche normative Regelung zur Anwendung und
Bemessung der Verbunddübel, häufig als Puzzleleiste bezeichnet, jedoch wurde
aktuell eine Zulassung Z-26.4-56 2013 erarbeitet, welche die Anwendung der
Verbunddübelleisten, kurz VDL, möglich macht. Die Anwendungsgrenzen sind dabei
zu beachten. Darüber hinaus wird derzeit in mehreren Forschungsarbeiten daran
gearbeitet, die Verwendung der puzzleartigen Verbundmittel zu erleichtern, indem
einheitliche Anwendungs- und Bemessungsregeln dieser in die Eurocodes
eingepflegt werden sollen. Diese Arbeit soll ebenfalls dazu beitragen, die
Versagensmechanismen der am Rand eingebauten Puzzleleisten zu erforschen und
ein für die Anwender handhabbares Bemessungskonzept zu erarbeiten. Die ersten
Erkenntnisse sollen eine Grundlage für ein in der Zukunft gültiges Bemessungs-
konzept bilden.
Anhand der Abscherversuche wurde der Einfluss der Randnähe untersucht. Darüber
hinaus wurden numerische Untersuchungen vorgenommen. Die FE-Modelle wurden
insbesondere zur Analyse des Lastabtrags der randnahen Betondübel verwendet.
Darüber hinaus wurde eine Parameterstudie durchgeführt, welche die Variation der
Materialien und geometrischen Größen der FE-Modelle beinhaltete.
Aufbauend auf den experimentellen und numerischen Beobachtungen und
theoretischen Überlegungen wurde ein Ingenieurmodell für Verbunddübelleisten mit
und ohne Wendelbewehrung entwickelt. Das Modell wird abschließend auf das
Bemessungsniveau überführt.
Verkehrsflächenbürtige Feststoffe enthalten Schadstoffe wie Schwermetalle, die im Regenereignis abfließen und in Gewässern toxisch wirken können. Da ein großer Teil vieler Schwermetalle partikulär vorliegt, können diese durch eine Behandlung mittels Sedimentation zurückgehalten werden. Zur Optimierung des Feststoff- und damit Schadstoffrückhaltes ist eine Erweiterung des Kenntnisstandes zum Absetzverhalten schadstofftragender Feststoffe nötig. Es ist bekannt, dass das Schadstoffaufkommen standortspezifisch variiert. Bezüglich der für die Sedimentation absetzrelevanten Kenngrößen wie Partikelgröße und Dichte wurde der Einfluss standortspezifischer Randbedingungen auf die Zusammensetzung noch nicht umfassend untersucht. Weiter mangelt es an einer Methode zur Messung des Absetzverhaltens unter kontrollierten Bedingungen. Diese Arbeit liefert hierzu einen Beitrag.
Anhand einer Literaturstudie zu Feststoffdepositionen und -abflüssen von Verkehrsflächen wurde für die absetzrelevanten Kenngrößen Partikelgröße, -form, -dichte und organischer Anteil eine Metadatenauswertung hinsichtlich methoden- und standortspezifischen Randbedingungen durchgeführt. Für organische Anteile in Abflüssen konnte eine gesicherte Datengrundlage und Durchschnittswerte ermittelt werden. Die Datengrundlage für die weiteren Kenngrößen ist bislang gering. Der Mangel an Befunden zu absetzrelevanten Kenngrößen unterstreicht die Notwendigkeit vertiefter Untersuchungen zur Charakterisierung verkehrsflächenbürtiger Feststoffe.
In einem umfangreichen Messprogramm wurden an zehn Standorten in Frankfurt am Main von 2016 bis 2018 Feststoffe in der Trockenperiode auf der Verkehrsfläche gewonnen und hinsichtlich der genannten absetzrelevanten Kenngrößen untersucht. Standortspezifische Einflüsse wurden statistisch nachgewiesen. Feststoffaufkommen und deren Partikelgröße liegen unabhängig vom Standort nur mit geringer Variabilität vor. Es besteht ein positiver Zusammenhang zwischen der Verkehrsstärke und dem Feststoffaufkommen. Organische Anteile sind eine Funktion der vorherrschenden Vegetation am Standort. Sie variieren saisonal. Es konnte ein negativ linearer Zusammenhang zwischen der Dichte und den organischen Anteilen nachgewiesen werden. Diese Arbeit liefert damit eine neue Datengrundlage für die Modellierung von Transportprozessen von Feststoffen und ihren absetzrelevanten Kenngrößen von unterschiedlichen Verkehrsflächen.
Weiter wurde ein Laborverfahren zur Bestimmung des Absetzverhaltens verkehrsflächenbürtiger Feststoffe in konstanter Zusammensetzung (Partikelgrößenverteilung und Feststoffkonzentration) entwickelt und mit der geschaffenen Datengrundlage validiert. Es wurden erste Erkenntnisse zum Absetzverhalten von Feststoffen, organischen Anteilen und Schwermetallen gewonnen. Im untersuchten Szenario sedimentieren die Partikel diskret bedingt durch die Partikelgröße und organischen Anteile. Das Absetzverhalten der Schwermetalle korreliert mit den Feststoffen. Überproportional hohe Schwermetallkonzentrationen in feinen Partikelanteilen bedeuten jedoch eine verringerte Absetzbarkeit der jeweiligen Schwermetallanteile.
Für die Behandlung von Abflüssen aus Verkehrsflächen mit viel Vegetation am Standort legen diese Ergebnisse nahe, dass mit reduzierten Feststoffwirkungsgraden aufgrund verminderter Absetzbarkeit leichterer Bestandteile mit geringer Dichte zu rechnen ist. Mit den Laborergebnissen konnte ein starker positiver Zusammenhang zwischen dem Feststoff- und Schadstoffwirkungsgrad bestätigt werden. Die Verteilung der Schwermetalle in Partikelgrößenklassen einer Feststoffprobe ist neben den organischen Anteilen und der Dichte ein wichtiger Parameter zur Einschätzung der Absetzbarkeit bei diskretem Absetzverhalten.
Die Autorin entfaltet Vorschläge, wie eine Pädagogik der Anerkennung in der Erwachsenenbildung von Pflegekräften gestaltet werden kann, insbesondere vor dem Hintergrund der emotionalen Kompetenz, des Dialoges , der Dekonstruktion und der ästhetischen Signatur. Methodisch liegen der Arbeit eine systematische Literaturrecherche und narrative Interviews zugrunde.Die theoriebasierte Konzeption eines Lehr - Lernarrangements auf Augenhöhe findet ihre Operationalisierung in der Ausbildung Gesundheits-und Krankenpflege mit integrierter Fachweiterbildung Intensivmedizin und Anästhesie.
During cryogenic turning of metastable austenitic stainless steels, a deformation-induced phase transformation from γ-austenite to α’-martensite can be realized in the workpiece subsurface, which results in a higher microhardness as well as in improved fatigue strength and wear resistance. The α’-martensite content and resulting workpiece properties strongly depend on the process parameters and the resulting thermomechanical load during cryogenic turning. In order to achieve specific workpiece properties, extensive knowledge about this correlation is required. Parametric models, based on physical correlations, are only partly able to predict the resulting properties due to limited knowledge on the complex interactions between stress, strain, temperature, and the resulting kinematics of deformation-induced phase transformation. Machine learning algorithms can be used to detect this kind of knowledge in data sets. Therefore, the goal of this paper is to evaluate and compare the applicability of three machine learning methods (support vector regression, random forest regression, and artificial neural network) to derive models that support the prediction of workpiece properties based on thermomechanical loads. For this purpose, workpiece property data and respective process forces and temperatures are used as training and testing data. After training the models with 55 data samples, the support vector regression model showed the highest prediction accuracy.
Quasiplastisches Verformungsverhalten von Organoblechen aus recyceltem Kohlenstoff-Stapelfasergarnen
(2020)
Für die Serienfertigung von Faser-Kunststoff-Verbund-Bauteilen in hohen Stückzahlen eignen sich Organobleche. Ein Nachteil dieser Halbzeugart ist das limitierte Spektrum herstellbarer Bauteile. Gleichzeitig existieren für Organobleche wie auch für andere Faser-Kunststoff-Verbunde noch keine Recyclingkonzepte, die die Materialeigenschaften erhalten. In dieser Arbeit werden Stapelfaserorganobleche aus recycelten Kohlenstoffstapelfasern und Polyamid 6 als Matrix hergestellt und hinsichtlich ihrer mechanischen Leistungsfähigkeit sowie ihrer Umformbarkeit untersucht. Die Erhaltung der Materialeigenschaften wurde dabei anhand von Zugversuchen untersucht, wobei der Einfluss der Garnondulation auf die Zugeigenschaften analysiert wurde. Die quasiplastische Verformung von Stapelfaserorganoblechen wurde grundlegend in Zugversuchen im Bereich und über der Schmelztemperatur der Matrix untersucht. Ein angepasster Thermoformprozess wurde entwickelt, der neue Freiheitsgrade zur Bauteilherstellung ermöglicht. Das Verformungsverhalten wurde untersucht und ein Kriterium zur Bewertung der Homogenität der Verformung entwickelt.
Organic sheets are suitable for the series production of fiber reinforced polymer composite components in large quantities. One disadvantage of this type of semi-finished products is the limited range of components that can be produced. Also, organic sheets, like other fiber reinforced polymer composites, are faced with the challenge of not yet having any true recycling concepts. In this work, staple fiber organic sheets made of recycled carbon staple fibers and polyamide 6 as matrix are manufactured and examined with regard to their mechanical performance and formability. The preservation of the material properties was investigated by means of tensile tests, whereby the influence of yarn undulation on tensile properties was analyzed. The quasiplastic deformation of staple fiber organic sheets was fundamentally investigated in tensile tests in the range of and above the matrix melting temperature. An adapted thermoforming process was developed which allows new degrees of freedom for component manufacturing. The local deformation behavior was investigated and a criterion for the evaluation of the homogeneity of the deformation was developed.
Various regulatory initiatives (such as the pan-European PRIIP-regulation or the German chance-risk classification for state subsidized pension products) have been introduced that require product providers to assess and disclose the risk-return profile of their issued products by means of a key information document. We will in this context outline a concept for a (forward-looking) simulation-based approach and highlight its application and advantages. For reasons of comparison, we further illustrate the performance of approximation methods based on a projection of observed returns into the future such as the Cornish–Fisher expansion or bootstrap methods.
In selective laser melting (SLM) the variation of process parameters significantly impacts the resulting workpiece characteristics. In this study, AISI 316L was manufactured by SLM with varying laser power, layer thickness, and hatch spacing. Contrary to most studies, the input energy density was kept constant for all variations by adjusting the scanning speed. The varied parameters were evaluated at two different input energy densities. The investigations reveal that a constant energy density with varying laser parameters results into considerable differences of the workpieces’ roughness, density, and microhardness. The density and the microhardness of the manufactured components can be improved by selecting appropriate parameters of the laser power, the layer thickness, and the hatch spacing. For this reason, the input energy density alone is no indicator for the resulting workpiece characteristics, but rather the ratio of scanning speed, layer thickness, or hatch spacing to laser power. Furthermore, it was found that the microhardness of an additively manufactured material correlates with its relative density. In the parameter study presented in this paper, relative densities of the additively manufactured workpieces of up to 99.9% were achieved.
In the field of metal additive manufacturing (AM), one of the most used methods is selective laser melting (SLM)—building components layer by layer in a powder bed via laser. The process of SLM is defined by several parameters like laser power, laser scanning speed, hatch spacing, or layer thickness. The manufacturing of small components via AM is very difficult as it sets high demands on the powder to be used and on the SLM process in general. Hence, SLM with subsequent micromilling is a suitable method for the production of microstructured, additively manufactured components. One application for this kind of components is microstructured implants which are typically unique and therefore well suited for additive manufacturing. In order to enable the micromachining of additively manufactured materials, the influence of the special properties of the additive manufactured material on micromilling processes needs to be investigated. In this research, a detailed characterization of additive manufactured workpieces made of AISI 316L is shown. Further, the impact of the process parameters and the build-up direction defined during SLM on the workpiece properties is investigated. The resulting impact of the workpiece properties on micromilling is analyzed and rated on the basis of process forces, burr formation, surface roughness, and tool wear. Significant differences in the results of micromilling were found depending on the geometry of the melt paths generated during SLM.
To achieve the Paris climate protection goals there is an urgent need for action in the energy sector. Innovative concepts in the fields of short-term flexibility, long-term energy storage and energy conversion are required to defossilize all sectors by 2040. Water management is already involved in this field with biogas production and power generation and partly with using flexibility options. However, further steps are possible. Additionally, from a water management perspective, the elimination of organic micropollutants (OMP) is increasingly important. In this feasibility study a concept is presented, reacting to energy surplus and deficits from the energy grid and thus providing the needed long-term storage in combination with the elimination of OMP in municipal wastewater treatment plants (WWTPs). The concept is based on the operation of an electrolyzer, driven by local power production on the plant (photovoltaic (PV), combined heat and power plant (CHP)-units) as well as renewable energy from the grid (to offer system service: automatic frequency restoration reserve (aFRR)), to produce hydrogen and oxygen. Hydrogen is fed into the local gas grid and oxygen used for micropollutant removal via upgrading it to ozone. The feasibility of such a concept was examined for the WWTP in Mainz (Germany). It has been shown that despite partially unfavorable boundary conditions concerning renewable surplus energy in the grid, implementing electrolysis operated with regenerative energy in combination with micropollutant removal using ozonation and activated carbon filter is a reasonable and sustainable option for both, the climate and water protection
Coating of particles is a widely used technique in order to obtain the desired surface modification of the final product, e.g., specific color or taste. Especially in the pharmaceutical industry, rotor granulators are used to produce round, coated pellets. In this work, the coating process in a rotor granulator is investigated numerically using computational fluid dynamics (CFD) coupled with the discrete element method (DEM). The droplets are generated as a second particulate phase in DEM. A liquid bridge model is implemented in the DEM model to take the capillary and viscous forces during the wet contact of the particles into account. A coating model is developed, where the drying of the liquid layer on the particles, as well as the particle growth, is considered. The simulation results of the dry process compared to the simulations with liquid injection show an important influence of the liquid on the particle dynamics. The formation of liquid bridges and the viscous forces in the liquid layer lead to an increase of the average particle velocity and contact time. Changing the injection rate of water has an influence on the contact duration but no significant effect on the particle dynamics. In contrast, the aqueous binder solution has an important influence on the particle movement.
Microcrystalline cellulose pellets for oral drug delivery are often produced by a combined wet extrusion-spheronization process. During the entire process, the cylindrical as well as the spherical pellets are exposed to various stresses resulting in a change of their shape and size due to plastic deformation and breakage. In this work, the effect of moisture content of pellets on their mechanical behavior is studied. In static compression tests, the strong influence of water content on deformation behavior of pellets is confirmed. Moreover, impact tests are performed using a setup consisting of three high-speed cameras to record pellet-wall collisions. Material properties, such as stiffness, restitution coefficient, breakage force, and displacement, were analyzed depending on the water content.
Enantiomerically pure, C2-symmetric 2,6-bis(pyrazol-3-yl) pyridine ligands were obtained by treatment of diethyl-2,6-pyridinedicarbonate with (1R,4R)-(+)-camphor in the presence of NaH followed by ring closure with hydrazine. After twofold N-alkylation at the pyrazole rings, the addition of iron(II) chloride led to the according pentacoordinate dichloridoiron(II) complexes. All intermediates of the ligand synthesis, the ligands bearing NCH3 and NCH2C6H5 groups and the derived iron(II) complexes were structurally characterized by means of X-ray structure analysis. In-situ reaction with iron(II) carboxylates resulted in the formation of iron(II) carboxylate complexes, which turned out to be highly active in the hydrosilylation of acetophenone. However, even at room temperature, the enantiomeric excess of the product 1-phenylethanol is poor. 57Fe Mössbauer spectroscopy gave an insight into the species formed during catalysis.
Activity recognition has continued to be a large field in computer science over the last two decades. Research questions from 15 years ago have led to solutions that today support our daily lives. Specifically, the success of smartphones or more recent developments of other smart devices (e.g., smart-watches) is rooted in applications that leverage on activity analysis and location tracking (fitness applications and maps). Today we can track our physical health and fitness and support our physical needs by merely owning (and using) a smart-phone. Still, the quality of our lives does not solely rely on fitness and physical health but also more increasingly on our mental well-being. Since we have learned how practical and easy it is to have a lot of functions, including health support on just one device, it would be specifically helpful if we could also use the smart-phone to support our mental and cognitive health if need be.
The ultimate goal of this work is to use sensor-assisted location and motion analysis to support various aspects of medically valid cognitive assessments.
In this regard, this thesis builds on Hypothesis 3: Sensors in our ubiquitous environment can collect information about our cognitive state, and it is possible to extract that information. In addition, these data can be used to derive complex cognitive states and to predict possible pathological changes in humans. After all, not only is it possible to determine the cognitive state through sensors but also to assist people in difficult situations through these sensors.
Thus, in the first part, this thesis focuses on the detection of mental state and state changes.
The primary purpose is to evaluate possible starting points for sensor systems in order to enable a clinically accurate assessment of mental states. These assessments must work on the condition that a developed system must be able to function within the given limits of a real clinical environment.
Despite the limitations and challenges of real-life deployments, it was possible to develop methods for determining the cognitive state and well-being of the residents. The analysis of the location data provides a correct classification of cognitive state with an average accuracy of 70% to 90%.
Methods to determine the state of bipolar patients provide an accuracy of 70-80\% for the detection of different cognitive states (total seven classes) using single sensors and 76% for merging data from different sensors. Methods for detecting the occurrence of state changes, a highlight of this work, even achieved a precision and recall of 95%.
The comparison of these results with currently used standard methods in psychiatric care even shows a clear advantage of the sensor-based method. The accuracy of the sensor-based analysis is 60% higher than the accuracy of the currently used methods.
The second part of this thesis introduces methods to support people’s actions in stressful situations on the one hand and analyzes the interaction between people during high-pressure activities on the other.
A simple, acceleration based, smartwatch instant feedback application was used to help laypeople to learn to perform CPR (cardiopulmonary resuscitation) in an emergency on the fly.
The evaluation of this application in a study with 43 laypersons showed an instant improvement in the CPR performance of 50%. An investigation of whether training with such an instant feedback device can support improved learning and lead to more permanent effects for gaining skills was able to confirm this theory.
Last but not least, with the main interest shifting from the individual to a group of people at the end of this work, the question: how can we determine the interaction between individuals within a group of people? was answered by developing a methodology to detect un-voiced collaboration in random ad-hoc groups. An evaluation with data retrieved from video footage provides an accuracy of up to more than 95%, and even with artificially introduced errors rates of 20%, still an accuracy of 70% precision, and 90% recall can be achieved.
All scenarios in this thesis address different practical issues of today’s health care. The methods developed are based on real-life datasets and real-world studies.
In the avionics domain, “ultra-reliability” refers to the practice of ensuring quantifiably negligible residual failure rates in the presence of transient and permanent hardware faults. If autonomous Cyber- Physical Systems (CPS) in other domains, e.g., autonomous vehicles, drones, and industrial automation systems, are to permeate our everyday life in the not so distant future, then they also need to become ultra-reliable. However, the rigorous reliability engineering and analysis practices used in the avionics domain are expensive and time consuming, and cannot be transferred to most other CPS domains. The increasing adoption of faster and cheaper, but less reliable, Commercial Off-The-Shelf (COTS) hardware is also an impediment in this regard.
Motivated by the goal of ultra-reliable CPS, this dissertation shows how to soundly analyze the reliability of COTS-based implementations of actively replicated Networked Control Systems (NCSs)—which are key building blocks of modern CPS—in the presence of transient hard- ware faults. When an NCS is deployed over field buses such as the Controller Area Network (CAN), transient faults are known to cause host crashes, network retransmissions, and incorrect computations. In addition, when an NCS is deployed over point-to-point networks such as Ethernet, even Byzantine errors (i.e., inconsistent broadcast transmissions) are possible. The analyses proposed in this dissertation account for NCS failures due to each of these error categories, and consider NCS failures in both time and value domains. The analyses are also provably free of reliability anomalies. Such anomalies are problematic because they can result in unsound failure rate estimates, which might lead us to believe that a system is safer than it actually is.
Specifically, this dissertation makes four main contributions. (1) To reduce the failure rate of NCSs in the presence of Byzantine errors, we present a hard real-time design of a Byzantine Fault Tolerance (BFT) protocol for Ethernet-based systems. (2) We then propose a quantitative reliability analysis of the presented design in the presence of transient faults. (3) Next, we propose a similar analysis to upper-bound the failure probability of an actively replicated CAN-based NCS. (4) Finally, to upper-bound the long-term failure rate of the NCS more accurately, we propose analyses that take into account the temporal robustness properties of an NCS expressed as weakly-hard constraints.
By design, our analyses can be applied in the context of full-system analyses. For instance, to certify a system consisting of multiple actively replicated NCSs deployed over a BFT atomic broadcast layer, the upper bounds on the failure rates of each NCS and the atomic broadcast layer can be composed using the sum-of-failure-rates model.
Zur Reduktion von Kavitation am Eintritt des Laufrades einer Strömungsmaschine
finden häufig Inducer Anwendung. Hierbei handelt es sich um ein axiales Laufrad,
bei dem nur ein minimaler Druckaufbau stattfindet. Inducer sind Gegenstand der
hier vorliegenden Forschungsfragen. Basierend auf der zurzeit verfügbaren Literatur
sind zwei Arbeitshypothesen aufgestellt und untersucht. Die Hypothesen lauten
wie folgt:
1) Die Strömung im Bereich der Nabe ist abgelöst.
2) Die axiale Länge der Inducer kann verringert werden.
Die detaillierte Untersuchung der Hypothesen erfolgt durch instationäre Simulationen,
durchgeführt mit Ansys CFX in der Version 17.2. Gelöst werden hier
die Reynolds-gemittelten Navier-Stokes-Gleichungen. Um relevante Sekundärströmungseffekte
erfassen zu können, wird für die Modellierung des Reynolds-Spannungs-
Tensors der RANS Gleichungen ein Reynolds-Spannungs-Modell verwendet.
Hiermit ist eine detailliertere Modellierung physikalischer Effekte möglich. Um die
wandnahen Effekte der Strömungsablösung durch eine Strömungssimulation geeignet
abbilden zu können, wird auf eine passende Auflösung des Bereichs der
Grenzschicht geachtet. Zur Reduzierung der Fehler die sich aus der numerischen
Abbildung der realen Strömungszustände ergeben sind Voruntersuchungen bei den
Simulationen durchgeführt. Validiert werden die so generierten numerischen Ergebnisse
mittels instationärer und stationärer Messungen des statischen Drucks,
des Totaldrucks und des Strömungswinkels. Anstrichbilder basierend auf Ölfarbe
ermöglichen es die Stromlinien auf der Wand zu validieren und somit Ablösung
an der Nabe numerisch plausibel darzustellen. Somit ist sichergestellt, dass die
numerischen Ergebnisse die realen Strömungszustände bestmöglich abbilden. Alle
Untersuchungen erfolgen ohne den Einfluss von Kavitation und für Inducer mit unterschiedlich
gestalteten Vorderkanten der Schaufeln. Grundlagenwissen über die
Strömung an der Nabe, die entstehenden Verluste und den Einfluss auf die Strömungszustände
in der Auslaufstrecke liegt somit vor.
Basierend auf diesen Ergebnissen können weitere Untersuchungen erfolgen, um die
Verluste zu reduzieren und die Verteilung von Druck, Geschwindigkeit und Winkel
entlang der radialen Position in der Auslaufstrecke des Inducers homogener zu
gestalten. Die axiale Baulänge und deren mögliche Reduktion sind unmittelbar
mit einer Einsparung von Bauraum und Kosten verbunden. Basierend auf den hier
generierten Grundlagen ist ein Ansatz zur korrekten Dimensionierung der axialen
Länge bzw. des Umschlingungswinkels gegeben.
Phosphodiesterases (PDEs) are essential enzymes for the regulation of pathways mediated
by cyclic adenosine monophosphate (cAMP). Secondary plant compounds like anthocyanins (ACs)
can inhibit PDE activity and, consequently, may be beneficial for lipid metabolism. This study
investigated 18 AC-rich juice extracts and pure reference compounds from red fruits for potential
inhibitory effects on PDE 3B activity. Extracts were obtained through adsorption on Amberlite® XAD
7 resin. Based on this screening, the chokeberry, blueberry, pomegranate, and cranberry extracts
were active, with half maximal inhibitory concentrations (IC50) ranging from 163 ± 3 µg/mL to
180 ± 3 µg/mL. The ACs in these extracts, peonidin-3-glucoside and cyanidin-3-arabinoside, were the
most active single compounds (IC50 = 56 ± 20 µg/mL, 108 ± 6 µg/mL). All extracts comprised high
amounts of phenolic compounds, as determined by the Folin–Ciocalteu assay, ranging from 39.8 ± 1.5
to 73.5 ± 4.8 g gallic acid equivalents (GAE)/100 g extract. Pomegranate and chokeberry extracts
exhibited the largest amounts of polyphenols (72.3 ± 0.7 g GAE/100 g, 70.6 ± 4.1 g GAE/100 g,
respectively). Overall, our results showed that fruit juice extracts and their ACs can inhibit PDE
activity. Any potential health benefits in vivo will be investigated in the future.
This article is dedicated to the weight set decomposition of a multiobjective (mixed-)integer linear problem with three objectives. We propose an algorithm that returns a decomposition of the parameter set of the weighted sum scalarization by solving biobjective subproblems via Dichotomic Search which corresponds to a line exploration in the weight set. Additionally, we present theoretical results regarding the boundary of the weight set components that direct the line exploration. The resulting algorithm runs in output polynomial time, i.e. its running time is polynomial in the encoding length of both the input and output. Also, the proposed approach can be used for each weight set component individually and is able to give intermediate results, which can be seen as an “approximation” of the weight set component. We compare the running time of our method with the one of an existing algorithm and conduct a computational study that shows the competitiveness of our algorithm. Further, we give a state-of-the-art survey of algorithms in the literature.
Since the h-index has been invented, it is the most frequently discussed bibliometric value and one of the most commonly used metrics to quantify a researcher’s scientific output. The more it is increasingly gaining popularity to use the metric as an indication of the quality of a job applicant or an employee the more important it is to assure its correctitude. Many platforms offer the h-index of a scientist as a service, sometimes without the explicit knowledge of the respective person. In this article we show that looking up the h-index for a researcher on the five most commonly used platforms, namely AMiner, Google Scholar, ResearchGate, Scopus and Web of Science, results in a variance that is in many cases as large as the average value. This is due to the varying definitions of what a scientific article is, the underlying data basis, and different qualities of the entity recognition problem. To perform our study, we crawled the h-index of the worlds top researchers according to two different rankings, all the Nobel Prize laureates except Literature and Peace, and the teaching staff of the computer science department of the TU Kaiserslautern Germany with whom we additionally computed their h-index manually. Thus we showed that the individual h-indices differ to an alarming extent between the platforms. We observed that researchers with an extraordinary high h-index and researchers with an index appropriate to the scientific career path and the respective scientific field are affected alike by these problems.
Graduated optical filters are commonly used for spatial image control as they are capable of darkening the overexposed parts of the image specifically. However, they lack flexibility because each filter has a fixed transmission distribution. We herein present a fully controllable graduated filter based on the electrochromic device. Its graduated transmission distribution can be spatially controlled by the application of multiple electric potentials. In this way, the control of the gradient’s position and its width, transmission and angular orientation is possible. Simulation of both the spatial potential distribution and the resultant optical absorption distribution are conducted to optimize the electrode configuration and furthermore to derive a control dataset that facilitates the adjustment and thus the application of the graduated filter. Based on three objective and quantitative criteria, we identify the electrode configuration with the highest flexibility in all four controls, manufacture the device using a gravure printing process for the nanoparticle electrodes and show its successful application.
Acrylamid ist eine Lebensmittelkontaminante, welche durch die sogenannte Maillard-Reaktion im Lebensmittel gebildet wird. Acrylamid entsteht insbesondere bei der Zubereitung kohlenhydratreicher hocherhitzer Lebensmittel, wie z.B. Pommes frites, Chips, Cerealien und ähnlichen Produkten. Die mittlere tägliche Exposition, durch den Verzehr von Lebensmittel liegt bei ca. 0,4–1,9 µg/kg Körpergewicht und Tag. Darüber hinaus entsteht Acrylamid in Folge von Pyrolyseprozessen, weshalb Tabakrauchen einen weiteren Expositionsweg darstellt. Die Menge des dabei entstehenden Acrylamids im Hauptstrom von Zigarettenrauch liegt bei 1,1–2,3 µg/Zigarette. In Studien erwies sich die Substanz als reproduktions- und gentoxisch, sowie kanzerogen beim Nager und zudem als neurotoxisch sowohl im Nager als auch beim Menschen. Bereits 1994 wurde Acrylamid von der International Agency for Research on Cancer (IARC) als wahrscheinlich krebserzeugend für den Menschen (Gruppe 2A) eingestuft. Im Zuge des Fremdstoffmetabolismus wird Acrylamid in der Leber zu Glycidamid umgesetzt. Katalysiert wird die Reaktion durch das Enzym CYP2E1 ist. Als reaktives Epoxid kann Glycidamid an die DNA binden, wodurch das in vorliegender Arbeit behandelte N7-(2-Carbamoyl-2-Hydroxyethyl)-guanin (N7-GA-Gua), gebildet wird. Dieses DNA-Addukt bildet das Hauptaddukt der Reaktion aus GA und DNA-Bausteinen.
Ziel der vorliegenden Arbeit war es, eine hochsensitive UHPLC-ESIpos-MS/MS-Methode zu entwickeln, um damit anschließend eine mögliche Hintergrundbelastung mit Acrylamid anhand des N7-GA-Gua-Addukts sowohl im Tier als auch im Menschen nachzuweisen und damit eine bessere Datenlage über die Substanz zu erhalten.
Zu Beginn dieser Arbeit wurden Synthesen der für die chromatographische Analytik benötigten Verbindungen durchgeführt. Hierbei konnten erstmals Glycidamid Kristalle erhalten und untersucht werden. In nachfolgenden in-vitro-Experimenten wurden die Zytotoxizität von Acrylamid und dessen Metaboliten mittels Resazurin-Reduktionstest, sowie die Bildung von N7-GA-Gua in primären Rattenhepatozyten (pRH) nach Inkubation mit Acrylamid, untersucht. Im Resazurin Test erwies sich Acrylamid in Konzentrationen bis zu 2500 µM als nicht zytotoxisch und konnte daher zur Inkubation der Zellen mit Konzentrationen bis zu 2000 µM Acrylamid eingesetzt werden. Im anschließend durchgeführten Inkubationsversuch, bei dem die Zellen mit 2–2000 µM Acrylamid über 1, 16 oder 24 h inkubiert wurden, konnten in allen Testkonzentrationen N7-GA-Gua-Addukte bestimmt werden. Dank der im Rahmen dieser Arbeit entwickelten sensitiven analytischen Methode, konnten N7-GA-Gua-Addukte auch in den Organen (Lunge, Niere und teilweise Leber) vom Nager (C57BL/6jRj- und BKS(D) Leprdb/JOrLR Maus und Wistar-Ratte) bestimmt werden. Geschlechts- oder organabhängige Effekte konnten nicht festgestellt werden. Einzig die Anzahl an N7-GA-Gua lag in den C57BL/6jRj-Mäusen signifikant über denen der Wistar-Ratten. In der durchgeführten Humanstudie konnten im Blut von 48 der 60 Probanden Addukte nachgewiesen werden. Signifikante Einflüsse der Lebensführung, des Alters und der Ernährung der Probanden auf den Hintergrund-Adduktgehalte wurden nicht festgestellt; es ergab sich lediglich eine schwache Korrelation zwischen der Anzahl an N7-GA-Gua und dem Gewicht bzw. dem BMI der Studienteilnehmer.
Insgesamt liefert die vorliegende Arbeit wichtige Erkenntnisse über die Gehalte an N7-GA-Gua in vitro in primären Rattenhepatozyten, als auch in vivo in Organen von Ratte und Maus, sowie im Blut des Menschen. Die Ergebnisse tragen zur Verbesserung der Datenlage über Acrylamid bei. Insbesondere die Ergebnisse der durchgeführten Humanstudie liefern Einblicke in die Hintergrundbelastung an N7 GA-Gua im Querschnitt der Bevölkerung und können daher auch für die Risikobetrachtung von Acrylamid sowie zur Ableitung weiterer Forschungsarbeiten und Studien von Interesse sein.
Die vorliegende Dissertation thematisiert die Weiterentwicklung der Zwei-Photonen Laserlithographie zur Realisierung hochaufgelöster Maßverkörperungen für die Kalibrierung optisch-flächenhafter Topographie-Messgeräte nach DIN EN ISO 25178.
Die additive Fertigung als generelle Bezeichnung für ein schicht- oder punktweise auftragendes Fertigungsverfahren prosperiert und wird in Zukunft laut der von der Bundesregierung eingerichteten Expertenkommission für Forschung und Innovation (EFI) eine wichtige Rolle als Schlüsseltechnologie einnehmen. Anstatt Bauteile z.B. aus einem soliden Block geometrielimitiert herauszufräsen, baut die additive Fertigung das entsprechende Werkstück aus Metallen, Kunst- oder Verbundwerkstoffen sukzessive auf und ist dabei von der Geometrie meist unabhängig. Dadurch ist die Technologie z.B. für das rapid prototyping interessant und erlaubt einen strukturgetriebenen Herstellungsprozess: "Die Bauteile der Zukunft werden nicht designt sondern berechnet!" (Dr. Karsten Heuser, VP Additive Manufacturing, Siemens AG bei 3D Printing and Industry 4.0: An Industry Perspective, Photonics West 2018, San Francisco, 31.01.2018 (frei übersetzt)).
Speziell auf der Mikro- und Nanoskala erfreut sich die additive Fertigung einer wachsenden Bedeutung. Angefangen bei den zunächst fundamentalen Fragestellungen auf den Gebieten der photonischen Kristalle, biologischen Zelltemplaten oder Metamaterialen erhält so z.B. die Zwei-Photonen Laserlithographie, auch direct laser writing (DLW) genannt, einen immer stärkeren Einzug in die Industrie. Beim DLW werden Bereiche photosensitiver Materialien, z.B. Photolacke, mithilfe eines fokussierten Laserstrahls gezielt ausgehärtet, sodass über präzise Relativbewegungen von Lack und Fokus nahezu beliebige 3D Strukturen mit Details auf der Gröÿenordnung des Laserfokus generiert werden können. Dabei spielt die namensgebende, nichtlineare Zwei-Photonen Absorption (2PA) eine entscheidende Rolle: Nur bei einer nahezu simultanen Absorption von zwei Photonen ist die eingebrachte Energie ausreichend hoch, um die gewünschte Aushärtung des Materials zu initiieren. Der entsprechende
Zwei-Photonen Absorptionsquerschnitt skaliert mit dem Quadrat der Lichtintensität und dem Imaginärteil der elektrischen Suszeptibilität dritter Ordnung chi(3), sodass beim DLW auch von einem chi(3)-Prozess gesprochen wird. Die zur Aushärtung notwendige Photonenendichte ist somit ausschlieÿlich im Fokus des verwendeten Objektivs hoch genug und erlaubt dadurch die Fertigung von Strukturdetails im Bereich von 100 nm.
Eine aktuelle Anwendung findet das DLW in der Metrologie. Hier werden beispielsweise für die Kalibrierung optischer Messgeräte sogenannte Kalibrierkörper benötigt, welche als Referenzstrukturen dienen. Mit dem Wissen der entsprechenden Referenzkennwerte lassen sich die jeweiligen Messgeräteabweichungen bestimmen gegebenenfalls bei der Datenauswertung korrigieren. Dadurch werden die Ergebnisse für Forschung und Industrie verlässlicher,
reproduzierbarer und vergleichbarer. Das DLW erlaubt aufgrund seiner hohen Flexibilität und Designfreiheit erstmals, sämtliche Kalibrierkörper für eine ganzheitliche Messgerätekalibrierung kombiniert auf einem einzelnen Trägersubstrat herzustellen. Um das Alterungs- und Skalierungsverhalten sowie die jeweiligen Kalibriereigenschaften der additiv gefertigten Strukturen für einen nachhaltigen technologischen Einsatz attraktiv zu halten, ist ein tiefergehendes Verständnis des entsprechenden Materialsystems unabdingbar. Unter bestimmten
Bedingungen zeigt sich, dass die zeitabhängigen Veränderungen der Strukturen nach der thermisch beschleunigten Alterung nach Arrhenius auf den industriell relevanten Zeitskalen von einigen Jahren vernachlässigt werden kann. Auch die für die Kalibrierung unterschiedlicher Objektivvergröÿerungen notwendige Skalierung dieser Kalibrierkörper liefert nach entsprechender Herstellungsoptimierung verlässliche Daten: Sowohl filigrane Strukturen im Bereich einiger weniger Mikrometer und darunter zur Auflösungskalibrierung stark
vergrößernder Optiken, als auch großflächige Strukturen von nahezu 1mm² für niedrigere Vergrößerungen bei ähnlicher Auflösung erweisen sich als realisierbar.
Um die für eine Auflösungskalibrierung ausreichend hohe Qualität der gefertigten Kalibrierkörper auch in Zukunft zu gewährleisten, muss die Technologie des DLWs stetig weiterentwickelt werden. Die gezielte Aberrationskorrektur des strukturierenden Laserfokus stellt in diesem Kontext zwar eine vielversprechende Option dar, die etablierte iterative Phasenfrontmodifikation mittels Zernike-Polynome erweist sich allerdings als aufwendig und subjektiv. Im Hinblick auf Reproduzierbarkeit und Präzision soll daher zunächst ein passender Algorithmus Abhilfe schaffen. Das Grundprinzip beruht dabei auf dem sogenannten Gerchberg-Saxton Algorithmus, bei dem die Amplitudeninformation sowohl in der Fokus-, als auch in der Pupillenebene iterativ variiert wird. Dadurch werden die Aberrationen
über die Phasenverteilung repräsentiert, welche im Anschluss zur Korrektur der Aberrationen verwendet werden kann. Diese Herangehensweise konnte im Rahmen dieser Arbeit erstmals auf Systeme hoher numerischer Apertur sowie auf nahezu beliebige fokale Intensitätsverteilungen erweitert werden. Die technologische Grundlage hierfür liefert ein
räumlicher Lichtmodulator (spatial light modulator, SLM), der die Feldverteilung in der Pupillenebene mittels doppelbrechender Flüssigkristalle einstellt. Durch einen geschickten Aufbau können somit Phase und Amplitude des Laserstrahls über computergenerierte digitale Hologramme gezielt und ohne mechanische Einwirkung verändert werden. Die somit automatisierte Aberrationskorrektur verbessert in der Folge die Strukturierungseigenschaften der Fertigungstechnologie und damit die Qualität der resultierenden Kalibrierkörper.
Eine weitere Verbesserung erfolgt in Analogie zum Nobelpreis gekürten Prinzip der STED Mikroskopie, bei der durch stimulierte Emission das effektive Anregungsvolumen verkleinert und damit die laterale Distanz zwischen zwei gerade noch aufgelösten Strukturen von einigen wenigen hundert Nanometern auf ca. fünf Nanometer verbessert wurde. In der Lithographie erfolgt die stimulierte Emission durch einen zweiten Laser via Ein-Photonen Absorption (1PA ~chi(1)), ist jedoch aufgrund komplexer photochemischer und quantenmechanischer Prozesse in den Photolacken nicht unmittelbar aus der Mikroskopie übertragbar. Die grundlegende Machbarkeit wurde bereits von anderen Forschungsgruppen verifiziert, jedoch stets mit der Limitierung auf sehr geringe Strukturierungsgeschwindigkeiten im Bereich von ungefähr 100 µm/s. Damit würden die zuvor erwähnten großflächigen Kalibrierstrukturen bei unveränderten Parametern eine Fabrikationszeit von über einem Monat beanspruchen, weswegen das Verfahren im Rahmen dieser Arbeit auf das ca. 200 mal schnellere Strukturieren mittels Galvanometerspiegel erweitert wird. Dies wird zwar durch wellenlängenabhängige Eigenschaften des Systems, wie z.B. chromatische Aberrationen erschwert, dennoch ergeben sich nachweislich einige Fortschritte: Unerwünschte Abweichungen von der Sollstruktur durch die experimentell stets vorhandene Vignettierung können deutlich reduziert werden. Außerdem kann der Parameterbereich zur Erzeugung konstant hoher Strukturqualität deutlich vergrößert werden.
In Kombination mit den SLMs können somit, je nach Anforderungen der Zielstrukturen, die jeweils passenden fokalen Intensitätsverteilungen für den An- und Abregungsstrahlengang automatisiert generiert und optimiert werden. Zudem wurde durch die in dieser Arbeit erbrachten konzeptionellen Fortschritte der STED inspirierten Zwei-Photonen Laserlithographie die Grundlage für eine industrielle Anwendung der erzeugten Kalibrierstrukturen
in der Metrologie gelegt.
Papadimitriou and Yannakakis (Proceedings of the 41st annual IEEE symposium on the
Foundations of Computer Science (FOCS), pp 86–92, 2000) show that the polynomial-time
solvability of a certain auxiliary problem determines the class of multiobjective optimization
problems that admit a polynomial-time computable (1+ε, . . . , 1+ε)-approximate Pareto set
(also called an ε-Pareto set). Similarly, in this article, we characterize the class ofmultiobjective
optimization problems having a polynomial-time computable approximate ε-Pareto set
that is exact in one objective by the efficient solvability of an appropriate auxiliary problem.
This class includes important problems such as multiobjective shortest path and spanning
tree, and the approximation guarantee we provide is, in general, best possible. Furthermore,
for biobjective optimization problems from this class, we provide an algorithm that computes
a one-exact ε-Pareto set of cardinality at most twice the cardinality of a smallest such set and
show that this factor of 2 is best possible. For three or more objective functions, however,
we prove that no constant-factor approximation on the cardinality of the set can be obtained
efficiently.
A building-block model reveals new insights into the biogenesis of yeast mitochondrial ribosomes
(2020)
Most of the mitochondrial proteins in yeast are encoded in the nuclear genome, get synthesized by cytosolic ribosomes and are imported via TOM and TIM23 into the matrix or other subcompartments of mitochondria. The mitochondrial DNA in yeast however also encodes a small set of 8 proteins from which most are hydrophobic membrane proteins and build core components of the OXPHOS complexes. They get synthesized by mitochondrial ribosomes which are descendants of bacterial ribosomes and still have some similarities to them. On the other hand, mitochondrial ribosomes experienced various structural and functional changes during evolution that specialized them for the synthesis of the mitochondrial encoded membrane proteins. The mitoribosome contains mitochondria-specific ribosomal proteins and replaced the bacterial 5S rRNA by mitochondria-specific proteins and rRNA extensions. Furthermore, the mitoribosome is tethered to the inner mitochondrial membrane to facilitate a co-translational insertion of newly synthesized proteins. Thus, also the assembly process of mitoribosomes differs from that of bacteria and is to date not well understood.
Therefore, the biogenesis of mitochondrial ribosomes in yeast should be investigated. To this end, a strain was generated in which the gene of the mitochondrial RNA-polymerase RPO41 is under control of an inducible GAL10-promoter. Since the scaffold of ribosomes is built by ribosomal RNAs, the depletion of the RNA-polymerase subsequently leads to a loss of mitochondrial ribosomes. Reinduction of Rpo41 initiates the assembly of new mitoribosomes, which makes this strain an attractive model to study mitoribosome biogenesis.
Initially, the effects of Rpo41 depletion on cellular and mitochondrial physiology was investigated. Upon Rpo41 depletion, growth on respiratory glycerol medium was inhibited. Furthermore, mitochondrial ribosomal 21S and 15S rRNA was diminished and mitochondrial translation was almost completely absent. Also, mitochondrial DNA was strongly reduced due to the fact that mtDNA replication requires RNA primers that get synthesized by Rpo41.
Next, the effect of reinduction of Rpo41 on mitochondria was tested. Time course experiments showed that mitochondrial translation can partially recover from 48h Rpo41 depletion within a timeframe of 4.5h. Sucrose gradient sedimentation experiments further showed that the mitoribosomal constitution was comparable to wildtype control samples during the time course of 4.5h of reinduction, suggesting that the ribosome assembly is not fundamentally altered in Gal-Rpo41 mitochondria. In addition, the depletion time was found to be critical for recovery of mitochondrial translation and mitochondrial RNA levels. It was observed that after 36h of Rpo41 depletion, the rRNA levels and mitochondrial translation recovered to almost 100%, but only within a time course of 10h.
Finally, mitochondria from Gal-Rpo41 cells isolated after different timepoints of reinduction were used to perform complexome profiling and the assembly of mitochondrial protein complexes was investigated. First, the steady state conditions and the assembly process of mitochondrial respiratory chain complexes were monitored. The individual respiratory chain complexes and the super-complexes of complex III, complex IV and complex V were observed. Furthermore, it was seen that they recovered from Rpo41 depletion within 4.5h of reinduction. Complexome profiles of the mitoribosomal small and large subunit discovered subcomplexes of mitoribosomal proteins that were assumed to form prior to their incorporation into assembly intermediates. The complexome profiles after reinduction indeed showed the formation of these subcomplexes before formation of the fully assembled subunit. In the mitochondrial LSU one subcomplex builds the membrane facing protuberance and a second subcomplex forms the central protuberance. In contrast to the preassembled subcomplexes, proteins that were involved in early assembly steps were exclusively found in the fully assembled subunit. Proteins that assemble at the periphery of the mitoribosome during intermediate and late assembly steps where found in soluble form suggesting a pool of unassembled proteins that supply assembly intermediates with proteins.
Taken together, the findings of this thesis suggest a so far unknow building-block model for mitoribosome assembly in which characteristic structures of the yeast mitochondrial ribosome form preassembled subcomplexes prior to their incorporation into the mitoribosome.
The emerging field of magnonics uses spin waves and their quanta, magnons, to implement wave-based computing on the micro- and nanoscale. Multifrequency magnon networks would allow for parallel data processing within single logic elements, whereas this is not the case with conventional transistor-based electronic logic. However, a lack of experimentally proven solutions to efficiently combine and separate magnons of different frequencies has impeded the intensive use of this concept. Herein, the experimental realization of a spin-wave demultiplexer enabling frequency-dependent separation of magnonic signals in the gigahertz range is demonstrated. The device is based on 2D magnon trans- port in the form of spin-wave beams in unpatterned magnetic films. The intrinsic frequency dependence of the beam direction is exploited to realize a passive functioning obviating an external control and additional power consumption. This approach paves the way to magnonic multiplexing circuits enabling simultaneous information transport and processing.
Reactive bubble columns are omnipresent in the chemical industry. The layout of these columns is still limited by correlations and therefore improved simulation techniques are required to describe the complex hydrodynamics/reaction interaction. In this work, we focus on the numerical and experimental study of the viscosity influence on bubble motion and reaction using an Euler-Lagrange framework with an added oscillation and reaction model to bring the column layout base closer to a predictive level. For comparison and validation, experimental data in various water-glycerol solutions was obtained in a cylindrical bubble column at low gas hold-up, where the main parameters such as bubble size, motion, and velocities were detected. Glycerol leads thereby to a change in viscosity and surface tension. Further, the surface tension was modified by addition of a surfactant. The bubble oscillating motion in low to higher viscosity could be described using an Euler-Lagrange framework and enables a description of industrial bubble flows. In addition, the simulations were in good agreement concerning reactive mass transfer investigations at higher viscosity of the liquid which led to an overall lower mass transfer compared to the cases with lower viscosity.
The digitization of extraction columns requires a profound knowledge of the present hydrodynamics/mass transport interaction as well as appropriate measurement techniques for the detection of relevant input and target values. In this article, the different techniques for droplet size distribution as well as concentration determination are presented and new methods for online evaluation are discussed. In combination with the simulation of droplet size, holdup and solute concentration distribution, an online-capable process tool for controlling and optimizing extraction columns will be obtained.
In this paper we present the comparison of experiments and numerical simulations for bubble cutting by a wire. The air bubble is surrounded by water. In the experimental setup an air bubble is injected on the bottom of a water column. When the bubble rises and contacts the wire, it is separated into two daughter bubbles. The flow is modeled by the incompressible Navier–Stokes equations. A meshfree method is used to simulate the bubble cutting. We have observed that the experimental and numerical results are in very good agreement. Moreover, we have further presented simulation results for liquid with higher viscosity. In this case the numerical results are close to previously published results.
Potassium (K) is essential for the processes critical for plant performance, including photosynthesis, carbon assimilation, and response to stress. K also influences translocation of sugars in the phloem and regulates sucrose metabolism. Several plant species synthesize polyols and transport these sugar alcohols from source to sink tissues. Limited knowledge exists about the involvement of K in the above processes in polyol-translocating plants. We, therefore, studied K effects in Plantago major, a species that accumulates the polyol sorbitol to high concentrations. We grew P. major plants on soil substrate adjusted to low-, medium-, or high-potassium conditions. We found that biomass, seed yield, and leaf tissue K contents increased in a soil K-dependent manner. K gradually increased the photosynthetic efficiency and decreased the non-photochemical quenching. Concomitantly, sorbitol levels and sorbitol to sucrose ratio in leaves and phloem sap increased in a K-dependent manner. K supply also fostered plant cold acclimation. High soil K levels mitigated loss of water from leaves in the cold and supported cold-dependent sugar and sorbitol accumulation. We hypothesize that with increased K nutrition, P. major preferentially channels photosynthesis-derived electrons into sorbitol biosynthesis and that this increased sorbitol is supportive for sink development and as a protective solute, during abiotic stress
Mobile devices (smartphones or tablets) as experimental tools (METs) offer inspiring possibilities for science education, but until now, there has been little research studying this approach. Previous research indicated that METs have positive effects on students’ interest and curiosity. The present investigation focuses on potential cognitive effects of METs using video analyses on tablets to investigate pendulum movements and an instruction that has been used before to study effects of smartphones’ acceleration sensors. In a quasi-experimental repeated-measurement design, a treatment group uses METs (TG, NTG = 23) and a control group works with traditional experimental tools (CG, NCG = 28) to study the effects on interest, curiosity, and learning achievement. Moreover, various control variables were taken into account. We suppose that pupils in the TG have a lower extraneous cognitive load and higher learning achievement than those in the CG working with traditional experimental tools. ANCOVAs showed significantly higher levels of learning achievement in the TG (medium effect size). No differences were found for interest, curiosity, or cognitive load. This might be due to a smaller material context provided by tablets, in comparison to smartphones, as more pupils possess and are familiar with smartphones than with tablets. Another reason for the unchanged interest might be the composition of the sample: While previous research showed that especially originally less-interested students profited most from using METs, the current sample contained only specialized courses, i.e., students with a high original interest, for whom the effect of METs on their interest is presumably smaller.
The iterative development and evaluation of the gamified stress management app “Stress-Mentor”
(2020)
The gamification of mHealth applications is a critically discussed topic. On one hand, studies show that gamification can have positive impact on an app’s usability and user experience. Furthermore, evidence grows that gamification can positively influence the regular usage of health apps. On the other hand it is questioned whether gamification is useful for health apps in all contexts, especially regarding stress management. However, to this point few studies investigated the gamification of stress management apps.
This thesis describes the iterative development of the gamified stress management app “Stress-Mentor” and examines whether the implemented gamification concept results in changes in the app’s usage behavior, as well as in usability and user experience ratings.
The results outline how the users’ involvement in “Stress-Mentor’s” development through different studies influenced the app’s design and helped to identify necessary improvements. The thesis also shows that users who received a gamified app version used the app more frequently than users of a non-gamified control group.
While gamification of stress management is critically discussed, it was positively received by the users of “Stress-Mentor” throughout the app’s development. The results also showed that gamification can have positive effects on the usage behavior of a stress management app and therefore, results in an increased exposure to the app’s content. Moreover, an expert study outlined the applicability of “Stress-Mentor’s” concept for other health contexts.
Background: The use of health apps to support the treatment of chronic pain is gaining importance. Most available pain management apps are still lacking in content quality and quantity as their developers neither involve health experts to ensure target group suitability nor use gamification to engage and motivate the user. To close this gap, we aimed to develop a gamified pain management app, Pain-Mentor.
Objective: To determine whether medical professionals would approve of Pain-Mentor’s concept and content, this study aimed to evaluate the quality of the app’s first prototype with experts from the field of chronic pain management and to discover necessary improvements.
Methods: A total of 11 health professionals with a background in chronic pain treatment and 2 mobile health experts participated in this study. Each expert first received a detailed presentation of the app. Afterward, they tested Pain-Mentor and then rated its quality using the mobile application rating scale (MARS) in a semistructured interview.
Results: The experts found the app to be of excellent general (mean 4.54, SD 0.55) and subjective quality (mean 4.57, SD 0.43). The app-specific section was rated as good (mean 4.38, SD 0.75). Overall, the experts approved of the app’s content, namely, pain and stress management techniques, behavior change techniques, and gamification. They believed that the use of gamification in Pain-Mentor positively influences the patients’ motivation and engagement and thus has the potential to promote the learning of pain management techniques. Moreover, applying the MARS in a semistructured interview provided in-depth insight into the ratings and concrete suggestions for improvement.
Conclusions: The experts rated Pain-Mentor to be of excellent quality. It can be concluded that experts perceived the use of gamification in this pain management app in a positive manner. This showed that combining pain management with gamification did not negatively affect the app’s integrity. This study was therefore a promising first step in the development of Pain-Mentor.
The FluidFM enables the immobilization of single cells on a hollow cantilever using relative underpressure. In this study, we systematically optimize versatile measurement parameters (setpoint, z-speed, z-length, pause time, and relative underpressure) to improve the quality of force-distance curves recorded with a FluidFM. Using single bacterial cells (here the gram negative seawater bacterium Paracoccus seriniphilus and the gram positive bacterium Lactococcus lactis), we show that Single Cell Force Spectroscopy experiments with the FluidFM lead to comparable results to a conventional Single Cell Force Spectroscopy approach using polydopamine for chemical fixation of a bacterial cell on a tipless cantilever. Even for the bacterium Lactococcus lactis, which is difficult to immobilze chemically (like seen in an earlier study), immobilization and the measurement of force-distance curves are possible by using the FluidFM technology.
In a recent paper, G. Malle and G. Robinson proposed a modular anologue to Brauer's famous \( k(B) \)-conjecture. If \( B \) is a \( p \)-block of a finite group with defect group \( D \), then they conjecture that \( l(B) \leq p^r \), where \( r \) is the sectional \( p \)-rank of \( D \). Since this conjecture is relatively new, there is obviously still a lot of work to do. This thesis is concerned with proving their conjecture for the finite groups of exceptional Lie type.