Refine
Year of publication
- 2020 (278) (remove)
Document Type
- Article (114)
- Doctoral Thesis (99)
- Master's Thesis (30)
- Periodical Part (12)
- Working Paper (8)
- Lecture (5)
- Report (4)
- Course Material (2)
- Bachelor Thesis (1)
- Part of a Book (1)
- Diploma Thesis (1)
- Habilitation (1)
Language
- English (160)
- German (116)
- Multiple languages (2)
Has Fulltext
- yes (278)
Keywords
- Organisationsentwicklung (6)
- Erwachsenenbildung (4)
- Schulentwicklung (4)
- Weiterbildung (4)
- Schule (3)
- B-splines (2)
- Delay Management (2)
- Digitalisierung (2)
- Führung (2)
- Heterogene Katalyse (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (51)
- Kaiserslautern - Fachbereich Sozialwissenschaften (33)
- Kaiserslautern - Fachbereich Chemie (31)
- Kaiserslautern - Fachbereich Mathematik (30)
- Distance and Independent Studies Center (DISC) (26)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Bauingenieurwesen (20)
- Kaiserslautern - Fachbereich Physik (19)
- Kaiserslautern - Fachbereich Biologie (16)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
Learning From Networked-data: Methods and Models for Understanding Online Social Networks Dynamics
(2020)
Abstract
Nowadays, people and systems created by people are generating an unprecedented amount of
data. This data has brought us data-driven services with a variety of applications that affect
people’s behavior. One of these applications is the emergent online social networks as a method
for communicating with each other, getting and sharing information, looking for jobs, and many
other things. However, the tremendous growth of these online social networks has also led to many
new challenges that need to be addressed. In this context, the goal of this thesis is to better understand
the dynamics between the members of online social networks from two perspectives. The
first perspective is to better understand the process and the motives underlying link formation in
online social networks. We utilize external information to predict whether two members of an online
social network are friends or not. Also, we contribute a framework for assessing the strength of
friendship ties. The second perspective is to better understand the decay dynamics of online social
networks resulting from the inactivity of their members. Hence, we contribute a model, methods,
and frameworks for understanding the decay mechanics among the members, for predicting members’
inactivity, and for understanding and analyzing inactivity cascades occurring during the decay.
The results of this thesis are: (1) The link formation process is at least partly driven by interactions
among members that take place outside the social network itself; (2) external interactions might
help reduce the noise in social networks and for ranking the strength of the ties in these networks;
(3) inactivity dynamics can be modeled, predicted, and controlled using the models contributed in
this thesis, which are based on network measures. The contributions and the results of this thesis
can be beneficial in many respects. For example, improving the quality of a social network by introducing
new meaningful links and removing noisy ones help to improve the quality of the services
provided by the social network, which, e.g., enables better friend recommendations and helps to
eliminate fake accounts. Moreover, understanding the decay processes involved in the interaction
among the members of a social network can help to prolong the engagement of these members. This
is useful in designing more resilient social networks and can assist in finding influential members
whose inactivity may trigger an inactivity cascade resulting in a potential decay of a network.
The advent of heterogeneous many-core systems has increased the spectrum
of achievable performance from multi-threaded programming. As the processor components become more distributed, the cost of synchronization and
communication needed to access the shared resources increases. Concurrent
linearizable access to shared objects can be prohibitively expensive in a high
contention workload. Though there are various mechanisms (e.g., lock-free
data structures) to circumvent the synchronization overhead in linearizable
objects, it still incurs performance overhead for many concurrent data types.
Moreover, many applications do not require linearizable objects and apply
ad-hoc techniques to eliminate synchronous atomic updates.
In this thesis, we propose the Global-Local View Model. This programming model exploits the heterogeneous access latencies in many-core systems.
In this model, each thread maintains different views on the shared object: a
thread-local view and a global view. As the thread-local view is not shared,
it can be updated without incurring synchronization costs. The local updates
become visible to other threads only after the thread-local view is merged
with the global view. This scheme improves the performance at the expense
of linearizability.
Besides the weak operations on the local view, the model also allows strong
operations on the global view. Combining operations on the global and the
local views, we can build data types with customizable consistency semantics
on the spectrum between sequential and purely mergeable data types. Thus
the model provides a framework that captures the semantics of Multi-View
Data Types. We discuss a formal operational semantics of the model. We
also introduce a verification method to verify the correctness of the implementation of several multi-view data types.
Frequently, applications require updating shared objects in an “all-or-nothing” manner. Therefore, the mechanisms to synchronize access to individual objects are not sufficient. Software Transactional Memory (STM)
is a mechanism that helps the programmer to correctly synchronize access to
multiple mutable shared data by serializing the transactional reads and writes.
But under high contention, serializable transactions incur frequent aborts and
limit parallelism, which can lead to severe performance degradation.
Mergeable Transactional Memory (MTM), proposed in this thesis, allows accessing multi-view data types within a transaction. Instead of aborting
and re-executing the transaction, MTM merges its changes using the data-type
specific merge semantics. Thus it provides a consistency semantics that allows
for more scalability even under contention. The evaluation of our prototype
implementation in Haskell shows that mergeable transactions outperform serializable transactions even under low contention while providing a structured
and type-safe interface.
Der Erfolg von Transformationen hängt von sehr vielen Faktoren ab. In der vorliegenden Arbeit wurden einige ausgewählte Faktoren aufgegriffen und validiert. Die vorliegende
Arbeit enthält keine abschließende Beurteilung, der in der Literatur dargestellten Erfolgsfaktoren.
Change-Prozesse beeinflussen im organisationalen Kontext in den meisten Fällen die sozialen Beziehungen, sei es auf individueller, Team- oder gesamtorganisationaler
Ebene. Je grösser, einschneidender, tiefgehender oder radikaler die Veränderung, desto schwieriger sind der Ausgang und insbesondere die Erfolgsaussichten vorhersehbar. Gemäß den Forschungsergebnissen spielen neben den geprüften Erfolgsfaktoren auch die bisherigen Erlebnisse eine wichtige Rolle. Die Organisation kann die bisherigen Erfahrungen zu einem großen Teil selber steuern, reflektieren und daraus lernen. Die individuellen Change-Erfahrungen der Mitarbeitenden hingegen sind schwer zu fassen und können höchstens durch individuelle Begleitung verarbeitet werden.
Grundsätzlich kann bestätigt werden, dass die gewählten und validierten Maßnahmen erfolgsversprechend zur positiven Entwicklung der Organisationskultur eingesetzt werden
können. Neben der Prägung der Organisationskultur sollten Organisationen eine grundsätzliche Change-Affinität entwickeln und fördern. Die Interviews belegen, was in der Literatur postuliert wird: Die Organisationskultur ist die Basis der Zusammenarbeit in Organisationen und darf aus diesem Grund nicht vernachlässigt werden. Die Organisationskultur wird von allen befragten Personen als ein sehr wichtiges (wenn nicht sogar als wichtigstes) Element der Organisation betrachtet.
Die Kulturentwicklung in der Praxis wird als Nebeneffekt anderer Interventionen wahrgenommen. Eine klare Aussage, wie die Kultur in eine bestimmte Richtung entwickelt werden kann, wurde nicht getroffen.
LinTim is a scientific software toolbox that has been under development since 2007, giving the possibility to solve the various planning steps in public transportation. Although the name originally derives from "Lineplanning and Timetabling", the available functions have grown far beyond this scope.
This document is the documentation for version 2020.02.
For more information, see https://www.lintim.net
Gemeinnützige Organisationen sind aus unserem Alltag nicht mehr wegzudenken, da diese soziale sowie kulturelle Aufgaben übernehmen und eine nicht unwesentliche Rolle bei der demokratischen Entwicklung der Gesellschaft spielen.
In Deutschland gibt es mehr als 615.000 Non-Profit-Organisationen (NPO), darunter bildet die Rechtsform der eingetragenen Vereine mit 580 000 (94%) den größten Teil des Dritten Sektors, dicht gefolgt von gemeinnützigen GmbHs mit rund 10.000 Organisationen. Somit ist jeder zweite Einwohner Deutschlands Mitglied in mindestens einem der mehr als 580.000 Vereine.
Auch wenn dies zunächst eine positive Tendenz von einer vitalen Zivilgesellschaft aufweist, befinden sich Vereine in einem strukturellen Wandel, denn die Konkurrenz wächst in Bezug auf die Ressourcensicherung, sowohl im Bereich der Finanzierung aufgrund von stagnierenden öffentlichen Mitteln und einem fehlenden Finanzierungsmix als auch in Hinblick auf die Gewinnung freiwillig Engagierter. Zudem sind die Überalterung und das nachlassende Gemeinschaftsgefühl der Gesellschaft ein weiteres Problem im dritten Sektor. Soziale Milieus haben sich im Laufe der Zeit verändert, im Gegensatz zu früher sind sie nicht mehr eindeutig definierbar, damit wird es beschwerlicher explizite Zielgruppen anzusprechen. Dies ist einer der Gründe, warum klassischen Mitgliederorganisationen, die Stammkunden verloren gehen.
Eine sich derart verändernde Zivilgesellschaft hat zunehmende Anforderungen an das Leistungsspektrum der Vereinslandschaft. Vor allem für kleine, ehrenamtlich getragene Vereine wird es schwierig, sich mit derartigen Problemlagen auseinanderzusetzen. Aus diesem Grund legt die vorliegende Masterthesis den Fokus auf diese kleinen Vereinssparten, um zu untersuchen, ob ein Vereinssterben in Westdeutschland ein Mythos ist oder zur Realität wird.
Um zu einem Ergebnis zu gelangen, wird in den nächsten Kapiteln zunächst das Vereinsmodell in Deutschland näher betrachtet. Danach werden die hauptsächlichen Herausforderungen untersucht, mit denen die heutige Vereinslandschaft zu kämpfen hat, um dann der Frage nach zugehen, ob die Rechtsform des Vereins ein Auslaufmodell ist. Zum Schluss wird anhand eines praktischen Beispiels ein Changemanagementprozess durchlaufen. Dieser soll beweisen, dass die Professionalisierung des Vereinswesen, zumindest in Teilbereichen, wie beispielsweise bei der Kommunikation, ein Lösungsansatz sein kann, damit auch kleine, ehrenamtlich getragene Vereine weiterhin bestehen können.
Using molecular dynamics simulation, we study the cutting of an Fe single crystal using
tools with various rake angles α. We focus on the (110)[001] cut system, since here, the crystal
plasticity is governed by a simple mechanism for not too strongly negative rake angles. In this
case, the evolution of the chip is driven by the generation of edge dislocations with the Burgers
vector b = 1
2
[111], such that a fixed shear angle of φ = 54.7◦
is established. It is independent of
the rake angle of the tool. The chip form is rectangular, and the chip thickness agrees with the
theoretical result calculated for this shear angle from the law of mass conservation. We find that the
force angle χ between the direction of the force and the cutting direction is independent of the rake
angle; however, it does not obey the predictions of macroscopic cutting theories, nor the correlations
observed in experiments of (polycrystalline) cutting of mild steel. Only for (strongly) negative rake
angles, the mechanism of plasticity changes, leading to a complex chip shape or even suppressing the
formation of a chip. In these cases, the force angle strongly increases while the friction angle tends
to zero.
More than ten years ago, ER-ANT1 was shown to act as an ATP/ADP antiporter and to exist in the endoplasmic reticulum (ER) of higher plants. Because structurally different transporters generally mediate energy provision to the ER, the physiological function of ER-ANT1 was not directly evident.
Interestingly, mutant plants lacking ER-ANT1 exhibit a photorespiratory phenotype. Although many research efforts were undertaken, the possible connection between the transporter and photorespiration also remained elusive. Here, a forward genetic approach was used to decipher the role of ER-ANT1 in the plant context and its association to photorespiration.
This strategy identified that additional absence of a putative HAD-type phosphatase partially restored the photorespiratory phenotype. Localisation studies revealed that the corresponding protein is targeted to the chloroplast. Moreover, biochemical analyses demonstrate that the HAD-type phosphatase is specific for pyridoxal phosphate. These observations, together with transcriptional and metabolic data of corresponding single (ER-ANT1) and double (ER-ANT1, phosphatase) loss-of-function mutant plants revealed an unexpected connection of ER-ANT1 to vitamin B6 metabolism.
Finally, a scenario is proposed, which explains how ER-ANT1 may influence B6 vitamer phosphorylation, by this affects photorespiration and causes several other physiological alterations observed in the corresponding loss-of-function mutant plants.
Biological clocks exist across all life forms and serve to coordinate organismal physiology with periodic environmental changes. The underlying mechanism of these clocks is predominantly based on cellular transcription-translation feedback loops in which clock proteins mediate the periodic expression of numerous genes. However, recent studies point to the existence of a conserved timekeeping mechanism independent of cellular transcription and translation, but based on cellular metabolism. These metabolic clocks were concluded based upon the observation of circadian and ultradian oscillations in the level of hyperoxidized peroxiredoxin proteins. Peroxiredoxins are enzymes found almost ubiquitously throughout life. Originally identified as H2O2 scavengers, recent studies show that peroxiredoxins can transfer oxidation to, and thereby regulate, a wide range of cellular proteins. Thus, it is conceivable that peroxiredoxins, using H2O2 as the primary signaling molecule, have the potential to integrate and coordinate much of cellular physiology and behavior with metabolic changes. Nonetheless, it remained unclear if peroxiredoxins are passive reporters of metabolic clock activity or active determinants of cellular timekeeping. Budding yeast possess an ultradian metabolic clock termed the Yeast Metabolic Cycle (YMC). The most obvious feature of the YMC is a high amplitude oscillation in oxygen consumption. Like circadian clocks, the YMC temporally compartmentalizes cellular processes (e.g. metabolism) and coordinates cellular programs such as gene expression and cell division. The YMC also exhibits oscillations in the level of hyperoxidized peroxiredoxin proteins.
In this study, I used the YMC clock model to investigate the role of peroxiredoxins in cellular timekeeping, as well as the coordination of cell division with the metabolic clock. I observed that cytosolic 2-Cys peroxiredoxins are essential for robust metabolic clock function. I provide direct evidence for oscillations in cytosolic H2O2 levels, as well as cyclical changes in oxidation state of a peroxiredoxin and a model peroxiredoxin target protein during the YMC. I noted two distinct metabolic states during the YMC: low oxygen consumption (LOC) and high oxygen consumption (HOC). I demonstrate that thiol-disulfide oxidation and reduction are necessary for switching between LOC and HOC. Specifically, a thiol reductant promotes switching to HOC, whilst a thiol oxidant prevents switching to HOC, forcing cells to remain in LOC. Transient peroxiredoxin inactivation triggered rapid and premature switching from LOC to HOC. Furthermore, I show that cell division is normally synchronized with the YMC and that deletion of typical 2-Cys peroxiredoxins leads to complete uncoupling of cell division from metabolic cycling. Moreover, metabolic oscillations are crucial for regulating cell cycle entry and exit. Intriguingly, switching to HOC is crucial for initiating cell cycle entry whilst switching to LOC is crucial for cell cycle completion and exit. Consequently, forcing cells to remain in HOC by application of a thiol reductant leads to multiple rounds of cell cycle entry despite failure to complete the preceding cell cycle. On the other hand, forcing cells to remain in LOC by treating with a thiol oxidant prevents initiation of cell cycle entry.
In conclusion, I propose that peroxiredoxins – by controlling metabolic cycles, which are in turn crucial for regulating the progression through cell cycle – play a central role in the coordination of cellular metabolism with cell division. This proposition, thus, positions peroxiredoxins as active players in the cellular timekeeping mechanism.
Die vorliegende Masterarbeit befasst sich mit der kulturellen Partizipation der einwandernden Bewölkerung an kulturellen Entwicklungsprozessen in deutschen Städten. Zum
einen fokussiert sich die Masterarbeit auf die Kulturorganisationen des sogenannten Dritten Sektors und den Nutzen, den diese durch einen besseren Zugang Neuzugewanderter in der Stadt zum Kulturangebot ziehen können. Es wird der Frage nachgegangen, wie die Einbindung der Bevölkerung mit Zuwanderungsgeschichte in die Kulturarbeit optimiert werden kann. Das könnte für lokale Kulturanbieter den Anschluss
an ein neues Publikum bedeuten und sich also positiv auf die Einnahmen auswirken.
Ein weiterer bedeutender Faktor, der damit in Verbindung stehen kann, ist das künstlerische Potenzial, das einzelne der neuen Stadtbürger womöglich mitbringen. Ein besserer
Zugang zu dieser Zielgruppe könnte für Kulturorganisationen auch gleichzeitig ein Durchbruch zu anderen Kunst- und Kulturtraditionen bedeuten. Es könnten andere Themen herausgearbeitet werden und das Programmangebot innovativer ausfallen.
Die kulturelle Einbindung Neuzugewanderter setzt aber eine intensive Auseinandersetzung
mit der soeben skizzierten Thematik voraus, für die Ressourcen wie Zeit notwendig
sind, aber auch die Bereitschaft, neue Wege einzuschlagen. Insofern erscheint es als zwingend notwendig, die kulturellen Bedürfnisse dieser Bevölkerungsgruppe zu erkunden, was als eine zentrale Aufgabe dieser Arbeit angesehen wird.
In this thesis, we present the basic concepts of isogeometric analysis (IGA) and we consider Poisson's equation as model problem. Since in IGA the physical domain is parametrized via a geometry function that goes from a parameter domain, e.g. the unit square or unit cube, to the physical one, we present a class of parametrizations that can be viewed as a generalization of polar coordinates, known as the scaled boundary parametrizations (SB-parametrizations). These are easy to construct and are particularly attractive when only the boundary of a domain is available. We then present an IGA approach based on these parametrizations, that we call scaled boundary isogeometric analysis (SB-IGA). The SB-IGA derives the weak form of partial differential equations in a different way from the standard IGA. For the discretization projection
on a finite-dimensional space, we choose in both cases Galerkin's method. Thanks to this technique, we state an equivalence theorem for linear elliptic boundary value problems between the standard IGA, when it makes use of an SB-parametrization,
and the SB-IGA. We solve Poisson's equation with Dirichlet boundary conditions on different geometries and with different SB-parametrizations.
Micro machining with micro pencil grinding tools (MPGTs) is an emerging technology that can be used to manufacture closed microchannel structures in hard and brittle materials as well as hardened steels like 16MnCr5. At their current operating conditions, these tools have a comparatively short tool life. In previous works, MPGTs in combination with a minimum quantity lubrication (MQL) system were used to manufacture microchannels in 16MnCr5 hardened steel. The study has shown that steel adhesions clog the abrasive layer of MPGTs, most likely resulting from insufficient lubrication. In this paper, a metalworking fluid (MWF) supply method was developed to improve the process: a submerged micro grinding process, in which machining takes place inside a pool of MWF. In this study, the effect of seven types of MWFs on material adhesions at the bottom surface of the tool is evaluated. Equivalent good MWFs are then compared in a micro pendulum grinding experiment till failure.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Der flächendeckende Ausbau der Kläranlagen in Deutschland hat in den letzten Jahrzehnten zu einer deutlichen Verbesserung der Gewässerqualität geführt. Dennoch ist der ökologische Zustand vieler Gewässer immer noch unbefriedigend. Einen negativen Einfluss auf den Gewässerzustand haben Stoßbelastungen aus Mischwassereinleitungen, die empfindliche aquatische Ökosysteme aufgrund von hydraulischem Stress und stofflichen Belastungen nachhaltig schädigen können.
Diese Arbeit liefert einen Beitrag dazu, wie hoch aufgelöste Online-Messdaten zur Optimierung des Kanalnetzbetriebs genutzt werden können. Hierfür wurden zwei reale Regenüberlaufbecken (RÜB) im Mischsystem in Süddeutschland für zwei Jahre mit Online-Spektrometersonden zur Erfassung von Äquivalenzkonzentrationen von abfiltrierbaren Stoffen (AFS), chemischem Sauerstoffbedarf (CSB, gesamt und gelöst) und Nitrat ausgestattet. Zusätzlich wurden hydrometrische Messdaten an den RÜB vom Betreiber des Entwässerungssystems bereitgestellt.
Den ersten Teil der Arbeit bilden Fracht- und Volumenauswertungen der Einstauereignisse an den beiden RÜB. Die Untersuchungen sollen zum besseren Verständnis der stoffspezifischen und hydraulischen Vorgänge im Mischsystem beitragen. Im zweiten Teil der Arbeit wird ein neuer Ansatz zur Verbesserung des Kanalnetzbetriebes unter direkter Verwendung von Messdaten erprobt. Für diese messdatenbasierte Simulation werden gemessene Ganglinien von Abflussmenge und Feststoffkonzentration direkt als Systeminput eines Transportmodells verwendet. Anhand dieses Modells werden verschiedene Kanalnetzbewirtschaftungsstrategien untersucht. Die folgenden Erkenntnisse lassen sich anhand der durchgeführten Auswertungen ableiten:
Eine Vorhersage der Spülstoßintensitäten anhand der Charakteristiken der Trockenphasen vor den Ereignissen oder der Eigenschaften der Niederschlagsereignisse selbst ist im Untersuchungsgebiet nicht möglich. Eine konstante Akkumulation der Schmutzstoffe auf der Gebietsoberfläche, wie sie in gängigen Qualitätsmodellen angesetzt wird, ist in den Untersuchungsgebieten ebenso wenig vorhanden. Somit kann die Abflussqualität im Untersuchungsgebiet nicht zuverlässig simuliert werden. Betriebsentscheidungen, die auf Basis von Schmutzfrachtmodellen getroffen werden, sind demnach höchst unsicher.
Die in dieser Arbeit neu vorgestellte messdatenbasierte Simulation umgeht diese Unsicherheiten und ersetzt sie durch die Messunsicherheiten selbst. Sie kann die Effizienz verschiedener Bewirtschaftungsstrategien, wie die Verwendung statisch optimierter Drosselabflüsse oder die dynamische Echtzeit-Steuerung von Speicherräumen, zuverlässig bewerten. Eine Dauer der zugrunde liegenden Messdatenzeitreihe von etwa vier Monaten mit mittlerer Niederschlagscharakteristik und etwa 10 Niederschlagsereignissen ist im untersuchten fiktiven System ausreichend für verlässliche Ergebnisse der messdatenbasierten Simulation. In komplexeren Gebieten kann der Datenbedarf höher sein. Die Methodik liefert unter Berücksichtigung der üblichen Messunsicherheiten robuste Ergebnisse.
Im Rahmen der Promotion wurden zwei Projekte bearbeitet, die sich mit der Darstellung und Untersuchung Cyclopeptid-basierter Derivate zur Erkennung von Anionen beschäftigten.
Dabei wurde im ersten Projekt der Arbeit eine neue, modulare Synthesestrategie zur Darstellung von dreifach verbrückten Bis(cyclopeptiden) entwickelt, die auf der Verwendung eines Templats und der Ausbildung von Amidbindungen zwischen den Untereinheiten basiert. Mit Hilfe dieser Methode gelang es ein Käfig-artiges Bis(cyclopeptid) mit Diglycolsäure als Linker zwischen den beiden Cyclopeptidringen darzustellen und dieses hinsichtlich seiner Anionenaffinität zu untersuchen. Dabei zeigte sich, dass Sulfat von diesem Rezeptor mit der höchsten bisher gemessenen Bindungskonstante Amid-verbrückter Bis(cyclopeptide) in kompetitiven, wässrigen Lösungsmittelgemischen gebunden wird. Ein Vergleich mit dem ebenfalls synthetisierten einfach verbrückten Analogon und weiteren, bekannten Vertretern dieser Rezeptorklasse erlaubte darüber hinaus eine Korrelation zwischen der Anzahl und Struktur der Linker und der daraus resultierenden Anionenaffinität. Dabei wurde deutlich, dass eine Erhöhung der Linkeranzahl einen signifikanten Anstieg der Anionenaffinität bewirkte, wenngleich diese durch weitere Optimierung der Linkerstruktur potenziell noch weiter verbessert werden kann. Dies sollte im Fokus zukünftiger Arbeiten stehen, wobei auf Basis der erarbeiteten Synthesestrategie weitere Derivate dreifach verbrückter Bis(cyclopeptide) einfach zugänglich sein sollten.
Im zweiten Projekt der Arbeit wurde eine optische Sonde entwickelt, die einen einfachen Nachweis von Anionen in Wasser ermöglicht. Dazu wurde mittels eines zweistufigen Verfahrens ein gemischt-funktionalisierter Goldnanopartikel dargestellt, auf dessen Oberfläche solubilisierende Triethylengycol-haltige Liganden und funktionelle Cyclopeptid-haltige Liganden immobilisiert wurden. Die so erhaltenen Goldnanopartikel waren homogen und in Wasser löslich, aggregierten aber, sobald der Lösung Natriumsulfat zugesetzt wurde. Sie erlaubten entsprechend den Sulfat-Nachweis mit bloßem Auge, da die Nanopartikel-Aggregation zu einer Entfärbung der ursprünglich roten Lösung und der Bildung eines Niederschlags führte. Keines von acht weiteren getesteten Anionen hatte einen analogen Effekt, sodass sich der Nachweis von Sulfat als überaus selektiv erwies. Somit wurde ein vielversprechendes Konzept für die Entwicklung optischer Sonden für Anionen entwickelt, das in zukünftigen Arbeiten auf den Nachweis anderer Anionen übertragen werden sollte.
In a (linear) parametric optimization problem, the objective value of each feasible solution is an affine function of a real-valued parameter and one is interested in computing a solution for each possible value of the parameter. For many important parametric optimization problems including the parametric versions of the shortest path problem, the assignment problem, and the minimum cost flow problem, however, the piecewise linear function mapping the parameter to the optimal objective value of the corresponding non-parametric instance (the optimal value function) can have super-polynomially many breakpoints (points of slope change). This implies that any optimal algorithm for such a problem must output a super-polynomial number of solutions. We provide a method for lifting approximation algorithms for non-parametric optimization problems to their parametric counterparts that is applicable to a general class of parametric optimization problems. The approximation guarantee achieved by this method for a parametric problem is arbitrarily close to the approximation guarantee of the algorithm for the corresponding non-parametric problem. It outputs polynomially many solutions and has polynomial running time if the non-parametric algorithm has polynomial running time. In the case that the non-parametric problem can be solved exactly in polynomial time or that an FPTAS is available, the method yields an FPTAS. In particular, under mild assumptions, we obtain the first parametric FPTAS for each of the specific problems mentioned above and a (3/2 + ε) -approximation algorithm for the parametric metric traveling salesman problem. Moreover, we describe a post-processing procedure that, if the non-parametric problem can be solved exactly in polynomial time, further decreases the number of returned solutions such that the method outputs at most twice as many solutions as needed at minimum for achieving the desired approximation guarantee.
This contribution presents the results of a replication study on the learning effect of tablet-supported video analysis compared to traditional teaching sequences using non-digital experimental materials in the subject areas of uniform and accelerated motion in high school physics lessons. In addition to the replication of the preliminary study results recently published in this journal (Becker et al 2018, 2019), the investigation of the effect on the cognitive load as well as the emotional state of the students is another focal point. Compared to the preliminary study, the sample size was significantly increased from N = 109 to N = 294. The individual effects of the preliminary study could be replicated in this way. For both topics, a significant reduction of extraneous cognitive load and a positive effect on intervention-induced emotions could be demonstrated. Moreover, the theoretically founded causal relationship between emotion, cognitive load, and learning achievement could be empirically verified by means of structural equation modeling.
Die Ergebnisse der vorliegenden Synopsis konnten an vergleichsweise hohen Probandenzahlen zeigen, dass die auftretenden Amplituden der Kopfbeschleunigungen stark von der Herangehensweise (Stand, Sprung, Lauf) abhängen. Was zunächst trivial erscheint, ist nun evidenzbasiert und von hoher praktischer Relevanz. Bei der Technikvermittlung sind somit zunächst Kopfballvarianten aus der Standposition vorzuziehen, da diese zu einer geringeren Beschleunigung des Kopfes führen als Varianten welche mit einem Anlauf gekoppelt werden (Stand vs. Sprung). Kopfballvarianten mit einem erhöhten koordinativen Anforderungsprofil (Sprung) führen nicht zwangsläufig zu einer erhöhten Kopfbeschleunigung, sollten jedoch aus methodischen Gründen trotzdem zu einem späteren Zeitpunkt trainiert werden. Das eingesetzte Kopfballpendel führte zu Kopfbeschleunigungen zwischen 5.2 und 7.8 G. Diese Werte liegen deutlich unterhalb derer, die bei beschleunigten Bällen gemessen werden, was für den Einsatz des Kopfballpendels bei der Technikschulung spricht. Der Rumpfmuskulatur wird eine große Bedeutung bei der technischen Umsetzung von Kopfbällen zugesprochen [120]. Die vorliegenden Ergebnisse konnten jedoch keinen Anstieg der Kopfbeschleunigung nach Ermüdung der Rumpfmuskulatur darlegen. Ein Pre-Post-Vergleich bei beschleunigten Bällen muss folgen, um dies weiterführend untersuchen zu können. Vergleichbare Ergebnisse und Interpretationen liegen nun zur Wirksamkeit einer 6-wöchigen Hals-Nackenkräftigung vor, welche bei dem statischen Kopfballpendel keine Änderungen der Kopfbeschleunigung zur Folge hatten. Kritisch reflektiert werden müssen insbesondere die Art und Dauer sowie die Inhalte einer solchen Intervention. Dennoch steckt hinter dieser Hypothese weiterhin ein vielversprechender Ansatz das Kopfballspiel sicherer zu machen. Die Ausrichtung des Kopf-Hals-Rumpfsegmentes steht in keinem direkten Zusammenhang zur resultierenden Beschleunigung des Kopfes, wonach eine erhöhte Nickbewegung nicht mit einer erhöhten Kopfbeschleunigung korreliert. Im nächsten Schritt muss ein intraindividueller Vergleich vorgenommen werden, da die Kompensationsmechanismen höchst individuell sind. Außerdem sollte zukünftig die maximale Kopfbeschleunigung - unabhängig von dem Zeitpunkt - mit dem Winkel (Kopf, HWS) während des ersten Ballkontaktes verglichen werden, statt den zeitsynchronen Vergleich des Winkels und der in diesem Moment messbaren Kopfbeschleunigung vorzunehmen.
In search of new technologies for optimizing the performance and space requirements of electronic and optical micro-circuits, the concept of spoof surface plasmon polaritons (SSPPs) has come to the fore of research in recent years. Due to the ability of SSPPs to confine and guide the energy of electromagnetic waves in a subwavelength space below the diffraction limit, SSPPs deliver all the tools to implement integrated circuits with a high integration rate. However, in order to guide SSPPs in the terahertz frequency range, it is necessary to carefully design metasurfaces that allow one to manipulate the spatio-temporal and spectral properties of the SSPPs at will. Here, we propose a specifically designed cut-wire metasurface that sustains strongly confined SSPP modes at terahertz frequencies. As we show by numerical simulations and also prove in experimental measurements, the proposed metasurface can tightly guide SSPPs on straight and curved pathways while maintaining their subwavelength field confinement perpendicular to the surface. Furthermore, we investigate the dependence of the spatio-temporal and spectral properties of the SSPP modes on the width of the metasurface lanes that can be composed of one, two or three cut-wires in the transverse direction. Our investigations deliver new insights into downsizing effects of guiding structures for SSPPs.
In recent years, thermoplastic composites (TPCs) have been increasingly used for
aerospace and automotive applications. But also other industrial sectors, such as the
medical technology, have discovered the benefits of this material class. Compared to
thermoset composites, TPCs can be recycled more easily, remelted, and welded. In
addition to that, TPC parts can be produced economically and efficiently. As an example,
short cycle times and high production rates of TPCs can be realised with the
injection moulding processing technology. Injection moulded parts have the advantage
that function integration is feasible with relatively little effort.
However, these parts are characterised by discontinuous fibre reinforcement. Fibres
are randomly distributed within the part and fibre orientation can show significant local
variations. Whereas the highest stiffness and strength values of the material are
achieved parallel to fibre orientation, the lowest values are present in transverse direction.
As a consequence, structural mechanical properties of injection moulded
discontinuous fibre reinforced parts are lower compared to their continuous fibre reinforced
counterparts. Continuous fibre reinforced components show excellent specific
mechanical properties. However, their freedom in geometrical product design is restricted.
The aim of this work is to extend the applicability of TPCs for structural mass products
due to the realisation of a high-strength interface between discontinuous and
continuous fibre reinforced material. A hybrid structure with unique properties is produced
by overmoulding a continuous unidirectional endless carbon fibre (CF) reinforced
polyether ether ketone (PEEK) insert with discontinuous short CF reinforced
PEEK. This approach enables the manufacturing of structural mass products in short
cycle times which require both superior structural mechanical properties and sufficient
freedom in product design. However, sufficient interface strength between the discontinuous
and continuous component is required.
This research is based on the application case of a pedicle screw system which is
a spinal implant used for spine stabilisation and fusion. Since the 1990s, CF-PEEK
has been successfully used for spinal cages, and recently also for pedicle screws and
pedicle screw systems. Compared to metallic implants, CF-PEEK implants show several
advantages, such as the reduction of stress shielding, the prevention of artefacts
in medical imaging technologies (X-ray, computer tomography scan, or magnetic resonance
imaging) or the avoidance of backscattering during radiotherapy. Pedicle screws,
which are used in the lumbar spine region, are subjected to high forces and moments.
Therefore, a hybrid composite pedicle screw was developed which is based on the
overmoulding process described before.
Different adherence tests were conducted to characterise the interface strength between
short and endless CF reinforced PEEK. However, no standardised test method
existed for interface strength characterisation of overmoulded structures. Sufficient interface
strength could only be achieved if a cohesive interface was formed. Cohesive
interface formation due to the melting of the surface of the endless CF reinforced PEEK
insert after contact with the molten mass required an insert pre-heating temperature of
at least 260 °C prior to overmoulding. Because no standardised test method existed
for interface strength characterisation of overmoulded structures, a novel test body was
developed. This cylinder pull-out specimen did not require any relevant rework steps
after manufacturing so that the interface strength could be directly tested after overmoulding.
Pre-heating of the endless CF reinforced PEEK inserts resulted in a 73%
increase in interface strength compared to non-pre-heated inserts.
In addition to that, a parametric finite element pedicle screw-bone model was developed.
By parametric optimisation, the optimal hybrid composite pedicle screw design
in terms of pull-out resistance was found. Within the underlying design space, the
difference in screw stability between the worst and the best screw design was approximately
12 %. The resulting design recommendations had to be opposed to the
manufacturing requirements to define the final screw design. The moulds of the injection
moulding machine were manufactured according to this design so that the hybrid
composite pedicle screw could be produced.
The findings of extensive material and interface characterisation were crucial for the
achievement of a cohesive interface between insert and overmould so that superior
structural mechanical properties of the hybrid composite pedicle screw could be
achieved. For example, the bending strength of hybrid composite screws was approximately
48% higher than the bending strength of discontinuous short CF reinforced
PEEK screws. Additionally, fatigue resistance was enhanced by the hybrid screw configuration
so that the risk of premature pedicle screw failure could be reduced. In the
breaking torque test, hybrid composite screws showed a reduction of 11% in their
breaking torque values compared to their discontinuous fibre reinforced counterparts.
However, not only in this test but also in the quasi-static and cyclic bending test, structural
integrity of the hybrid composite screws could be maintained which is important
for implant components.
Whole-body electromyostimulation (WB-EMS) is an extension of the EMS application known in physical therapy. In WB-EMS, body composition and skinfold thickness seem to play a decisive role in influencing the Ohmic resistance and therefore the maximum intensity tolerance. That is why the therapeutic success of (WB-)EMS may depend on individual anatomical parameters. The aim of the study was to find out whether gender, skinfold thickness and parameters of body composition have an influence on the maximum intensity tolerance in WB-EMS. [Participants and Methods] Fifty-two participants were included in the study. Body composition (body impedance, body fat, fat mass, fat-free mass) and skinfold thicknesses were measured and set into relation to the maximum intensity tolerance. [Results] No relationship between the different anthropometric parameters and the maximum intensity tolerance was detected for both genders. Considering the individual muscle groups, no similarities were found in the results. [Conclusion] Body composition or skinfold thickness do not seem to have any influence on the maximum intensity tolerance in WB-EMS training. For the application in physiotherapy this means that a dosage of the electrical voltage within the scope of a (WB-) EMS application is only possible via the subjective feedback (BORG Scale).
The difference in the efficacy of altered stimulation parameters in whole-body-electromyostimulation (WB-EMS) training remains largely unexplored. However, higher impulse frequencies (>50 Hz) might be most adequate for strength gain. The aim of this study was to analyze potential differences in sports-related performance parameters after a 10-week WB-EMS training with different frequencies. A total of 51 untrained participants (24.9 ± 3.9 years, 174 ± 9 cm, 72.4 ± 16.4 kg, BMI 23.8 ± 4.1, body fat 24.7 ± 8.1 %) was randomly divided into three groups: one inactive control group (CON) and two training groups. They completed a 10-week WB-EMS program of 1.5 sessions/week, equal content but different stimulation frequencies (training with 20 Hz (T20) vs. training with 85 Hz (T85)). Before and after intervention, all participants completed jumping (Counter Movement Jump (CMJ), Squat Jump (SJ), Drop Jump (DJ)), sprinting (5m, 10m, 30m), and strength tests (isometric trunk flexion/extension). One-way ANOVA was applied to calculate parameter changes. Post-hoc least significant difference tests were performed to identify group differences. Significant differences were identified for CMJ (p = 0.007), SJ (p = 0.022), trunk flexion (p = 0.020) and extension (p=.013) with significant group differences between both training groups and CON (not between the two training groups T20 and T85). A 10-week WB-EMS training leads to significant improvements of jump and strength parameters in untrained participants. No differences could be detected between the frequencies. Therefore, both stimulation frequencies can be regarded as adequate for increasing specific sport performance parameters. Further aspects as regeneration or long term effects by the use of different frequencies still need to be clarified.
Red fruits and their juices are rich sources of polyphenols, especially anthocyanins.
Some studies have shown that such polyphenols can inhibit enzymes of the carbohydrate metabolism,
such as α-amylase and α-glucosidase, that indirectly regulate blood sugar levels. The presented
study examined the in vitro inhibitory activity against α-amylase and α-glucosidase of various
phenolic extracts prepared from direct juices, concentrates, and purees of nine different berries which
differ in their anthocyanin and copigment profile. Generally, the extracts with the highest phenolic
content—aronia (67.7 ± 3.2 g GAE/100 g; cyanidin 3-galactoside; chlorogenic acid), pomegranate
(65.7 ± 7.9 g GAE/100 g; cyanidin 3,5-diglucoside; punicalin), and red grape (59.6 ± 2.5 g GAE/100 g;
malvidin 3-glucoside; quercetin 3-glucuronide)—showed also one of the highest inhibitory activities
against α-amylase (326.9 ± 75.8 µg/mL; 789.7 ± 220.9 µg/mL; 646.1 ± 81.8 µg/mL) and α-glucosidase
(115.6 ± 32.5 µg/mL; 127.8 ± 20.1 µg/mL; 160.6 ± 68.4 µg/mL) and, partially, were even more potent
inhibitors than acarbose (441 ± 30 µg/mL; 1439 ± 85 µg/mL). Additionally, the investigation of single
anthocyanins and glycosylated flavonoids demonstrated a structure- and size-dependent inhibitory
activity. In the future in vivo studies are envisaged.
Die vorliegende Arbeit nimmt den Rahmen für den Transformationsprozess, in dem sich gegenwärtig die österreichische Schulaufsicht befindet, in den Blick indem sie
- Herausforderungen für die Aufgaben und die Rolle der Schulaufsicht, die durch gesellschaftliche Veränderungsprozesse und veränderte bildungspolitische Vorgaben entstanden sind, skizziert
- aus einem kurzen historischen Überblick heraus schulaufsichtliche Spannungsfelder identifiziert, die durch die gegenwärtige Reform der Schulaufsicht aufgelöst (oder zumindest abgeschwächt) werden sollen
- die aktuellen Rahmenbedingungen für schulaufsichtliche Tätigkeit (Schulautonomie und die Einführung der externen Schulevaluation) darstellt.
Auf dieser Grundlage, werden Perspektiven für die Entwicklung der Schulaufsicht in der Rolle als
- Vermittlerin und Verantwortungsträgerin hinsichtlich der Implementierung von Reformvorhaben,
- professionelle Unterstützerin bzw. Beraterin (im Kontext der Rechenschaftslegung eigenverantwortlicher Schulen und der in Österreich erst neu zu definierenden Arbeitsbeziehungen zur externen Schulevaluation) und
- strategische Führungskraft, die in supervidierender Form Schulleitungen einer Bildungsregion führt, vorgeschlagen.
Diese Perspektiven verstehen sich als ein Beitrag zur Diskussion, wie künftig Schulqualitätsmanager/innen ihre Rolle als Schulaufsichtsorgane entwickeln können. In Zeiten tiefgreifender Veränderungen, die auch eine beträchtliche Unsicherheit im Rollenbild ausgelöst haben, werden damit konkrete Vorschläge zur Entwicklung einer stabilen Rolle von Schulaufsichtspersonen vorgelegt.
Synapses are connections between different nerve cells that form an essential link in neural signal transmission. It is generally distinguished between electrical and chemical synapses, where chemical synapses are more common in the human brain and are also the type we deal with in this work.
In chemical synapses, small container-like objects called vesicles fill with neurotransmitter and expel them from the cell during synaptic transmission. This process is vital for communication between neurons. However, to the best of our knowledge no mathematical models that take different filling states of the vesicles into account have been developed before this thesis was written.
In this thesis we propose a novel mathematical model for modeling synaptic transmission at chemical synapses which includes the description of vesicles of different filling states. The model consists of a transport equation (for the vesicle growth process) plus three ordinary differential equations (ODEs) and focuses on the presynapse and synaptic cleft.
The well-posedness is proved in detail for this partial differential equation (PDE) system. We also propose a few different variations and related models. In particular, an ODE system is derived and a delay differential equation (DDE) system is formulated. We then use nonlinear optimization methods for data fitting to test some of the models on data made available to us by the Animal Physiology group at TU Kaiserslautern.
Nowadays a large part of communication is taking place on social media platforms such as Twitter, Facebook, Instagram, or YouTube, where messages often include multimedia contents (e.g., images, GIFs or videos). Since such messages are in digital form, computers can in principle process them in order to make our lives more convenient and help us overcome arising issues. However, these goals require the ability to capture what these messages mean to us, that is, how we interpret them from our own subjective points of view. Thus, the main goal of this dissertation is to advance a machine's ability to interpret social media contents in a more natural, subjective way.
To this end, three research questions are addressed. The first question aims at answering "How to model human interpretation for machine learning?" We describe a way of modeling interpretation which allows for analyzing single or multiple ways of interpretation of both humans and computer models within the same theoretic framework. In a comprehensive survey we collect various possibilities for such a computational analysis. Particularly interesting are machine learning approaches where a single neural network learns multiple ways of interpretation. For example, a neural network can be trained to predict user-specific movie ratings from movie features and user ID, and can then be analyzed to understand how users rate movies. This is a promising direction, as neural networks are capable of learning complex patterns. However, how analysis results depend on network architecture is a largely unexplored topic. For the example of movie ratings, we show that the way of combining information for prediction can affect both prediction performance and what the network learns about the various ways of interpretation (corresponding to users).
Since some application-specific details for dealing with human interpretation only become visible when going deeper into particular use-cases, the other two research questions of this dissertation are concerned with two selected application domains: Subjective visual interpretation and gang violence prevention. The first application study deals with subjectivity that comes from personal attitudes and aims at answering "How can we predict subjective image interpretation one would expect from the general public on photo-sharing platforms such as Flickr?" The predictions in this case take the form of subjective concepts or phrases. Our study on gang violence prevention is more community-centered and considers the question "How can we automatically detect tweets of gang members which could potentially lead to violence?" There, the psychosocial codes aggression, loss and substance use serve as proxy to estimate the subjective implications of online messages.
In these two distinct application domains, we develop novel machine learning models for predicting subjective interpretations of images or tweets with images, respectively. In the process of building these detection tools, we also create three different datasets which we share with the research community. Furthermore, we see that some domains such as Chicago gangs require special care due to high vulnerability of involved users. This motivated us to establish and describe an in-depth collaboration between social work researchers and computer scientists. As machine learning is incorporating more and more subjective components and gaining societal impact, we have good reason to believe that similar collaborations between the humanities and computer science will become increasingly necessary to advance the field in an ethical way.
The 22 wt.% Cr, fully ferritic stainless steel Crofer®22 H has higher thermomechanical
fatigue (TMF)- lifetime compared to advanced ferritic-martensitic P91, which is assumed to be caused
by different damage tolerance, leading to differences in crack propagation and failure mechanisms.
To analyze this, instrumented cyclic indentation tests (CITs) were used because the material’s
cyclic hardening potential—which strongly correlates with damage tolerance, can be determined
by analyzing the deformation behavior in CITs. In the presented work, CITs were performed for
both materials at specimens loaded for different numbers of TMF-cycles. These investigations show
higher damage tolerance for Crofer®22 H and demonstrate changes in damage tolerance during
TMF-loading for both materials, which correlates with the cyclic deformation behavior observed in
TMF-tests. Furthermore, the results obtained at Crofer®22 H indicate an increase of damage tolerance
in the second half of TMF-lifetime, which cannot be observed for P91. Moreover, CITs were performed
at Crofer®22 H in the vicinity of a fatigue crack, enabling to locally analyze the damage tolerance.
These CITs show differences between crack edges and the crack tip. Conclusively, the presented
results demonstrate that CITs can be utilized to analyze TMF-induced changes in damage tolerance.
Ein Beitrag zur Zustandsschätzung in Niederspannungsnetzen mit niedrigredundanter Messwertaufnahme
(2020)
Durch den wachsenden Anteil an Erzeugungsanlagen und leistungsstarken Verbrauchern aus dem Verkehr- und Wärmesektor kommen Niederspannungsnetze immer näher an ihre Betriebsgrenzen. Da für die Niederspannungsnetze bisher keine Messwerterfassung vorgesehen war, können Netzbetreiber Grenzverletzungen nicht erkennen. Um dieses zu ändern, werden deutsche Anschlussnutzer in Zukunft flächendeckend mit modernen Messeinrichtungen oder intelligenten Messsystemen (auch als Smart Meter bezeichnet) ausgestattet sein. Diese sind in der Lage über eine Kommunikationseinheit, das Smart-Meter-Gateway, Messdaten an die Netzbetreiber zu senden. Werden Messdaten aber als personenbezogene Netzzustandsdaten deklariert, so ist aus Datenschutzgründen eine Erhebung dieser Daten weitgehend untersagt.
Ziel dieser Arbeit ist es eine Zustandsschätzung zu entwickeln, die auch bei niedrigredundanter Messwertaufnahme für den Netzbetrieb von Niederspannungsnetzen anwendbare Ergebnisse liefert. Neben geeigneten Algorithmen zur Zustandsschätzung ist dazu die Generierung von Ersatzwerten im Fokus.
Die Untersuchungen und Erkenntnisse dieser Arbeit tragen dazu bei, den Verteilnetzbetreibern bei den maßgeblichen Entscheidungen in Bezug auf die Zustandsschätzung in Niederspannungsnetzen zu unterstützen. Erst wenn Niederspannungsnetze mit Hilfe der Zustandsschätzung beobachtbar sind, können darauf aufbauende Konzepte zur Regelung entwickelt werden, um die Energiewende zu unterstützen.
In dieser Masterarbeit wird der Frage nachgegangen, wie erklärt werden kann, dass es bisher kein Bundeszentralabitur in Deutschland gibt. Vor dem Hintergrund der Theorie des Historischen Institutionalismus und dem Konzept der Pfadabhängigkeit werden handlungsleitende Akteure, ihre Positionen und Begründungen identifiziert. Kritische Situationen seit dem PISA-Schock mit der Möglichkeit der Einführung eines Bundeszentralabiturs sowie Mechanismen der Stagnation und Zeichen des Wandels werden mithilfe einer Dokumentenanalyse untersucht.
Verbunddübelleisten stellen eine wirtschaftlich sowie technisch sinnvolle Alternative zu den konventionellen Verbundmitteln, den Kopfbolzendübeln, dar. Ihre Konkurrenzfähigkeit wird jedoch durch die Tatsache eingeschränkt, dass sie bauaufsichtlich, und damit lediglich national sowie zeitlich limitiert, zugelassen sind, wohingegen Kopfbolzendübel fest in den europäischen Regelwerken verankert sind. Um eine Integration der Verbunddübelleisten in die europäischen Normen zu ermöglichen, sind zahlreiche Untersuchungen erforderlich, die seit einigen Jahrzehnten auf nationaler und internationaler Ebene durchgeführt werden.
Die vorliegende Arbeit konzentriert sich dabei auf oberflächennah positionierte Verbunddübelleisten, was entweder in Randpositionen oder bei horizontal in schlanken Betonplatten liegenden Leisten gegeben ist. Bei einer derartigen Anwendung des Verbundmittels kann ein spezifisches Bauteilversagen eintreten, das sich in einem Abplatzen der seitlichen Betondeckung äußert. Vorangegangene Untersuchungen verzeichneten dieses Versagensmuster ebenfalls, konnten es allerdings noch nicht vollumfänglich in Bemessungsmodellen abbilden.
Im Rahmen der umfangreichen experimentellen und numerischen Untersuchungen dieser Arbeit wird ein Kleinteilversuchsprogramm ausgeführt, auf dessen Basis der Einfluss einzelner Parameter auf das Trag- und Verformungsverhalten oberflächennaher Verbunddübelleisten analysiert wird. Darüber hinaus werden Bauteilversuche an Verbundträgern durchgeführt, anhand derer die Übertragbarkeit der Kleinteiluntersuchungen auf reale Bauteilabmessungen geprüft wird.
Auf Grundlage all dieser Beobachtungen wird schließlich ein Ingenieurmodell entwickelt, welches das Trag- und Verformungsverhalten idealisiert abbildet. Eine darauf abgestimmte Bemessungsgleichung ermöglicht es infolgedessen, die Tragfähigkeit oberflächennaher Verbunddübelleisten rechnerisch vorherzusagen. Ein Vorschlag zur Integration des Bemessungsmodells in das Sicherheitskonzept der Eurocodes bietet eine Möglichkeit zur künftigen Dimensionierung und zum Nachweis der entsprechenden Verbundkonstruktionen im Rahmen der gesellschaftlich geforderten Bauwerkszuverlässigkeit.
A detailed study of a cylinder activation concept by efficiency loss analysis and 1D simulation
(2020)
Cylinder deactivation is a well-known measure for reducing fuel consumption, especially when applied to gasoline engines. Mostly, such systems are designed to deactivate half of the number of cylinders of the engine. In this study, a new concept is investigated for deactivating only one out of four cylinders of a commercial vehicle diesel engine (“3/4-cylinder concept”). For this purpose, cylinders 2–4 of the engine are operated in “real” 3-cylinder mode, thus with the firing order and ignition distance of a regular 3-cylinder engine, while the first cylinder is only activated near full load, running in parallel to the fourth cylinder. This concept was integrated into a test engine and evaluated on an engine test bench. As the investigations revealed significant improvements for the low-to-medium load region as well as disadvantages for high load, an extensive numerical analysis was carried out based on the experimental results. This included both 1D simulation runs and a detailed cylinder-specific efficiency loss analysis. Based on the results of this analysis, further steps for optimizing the concept were derived and studied by numerical calculations. As a result, it can be concluded that the 3/4-cylinder concept may provide significant improvements of real-world fuel economy when integrated as a drive unit into a tractor.
Die Entdeckung der Einzelschule als Motor der Entwicklung im Jahre 1989 hatte eine veränderte Gesetzeslage zur Folge und damit auch eine veränderte Beziehung von Schule und Schulaufsicht. Die vorliegende Masterarbeit arbeitet die Historie der Beziehung von Schule und Schulaufsicht im Rahmen von Qualitätsentwicklung und -sicherung auf und überprüft das veränderte bzw. das sich verändernde Verhältnis im Spannungsfeld zwischen Kontrolle und Unterstützung. Im empirischen Teil kommen Schulleiter und Schulaufsichtsbeamte zu Wort.
Ein ressourcenschonender Umgang mit Rohstoffen ist eines der vorrangigen Ziele des 21. Jahrhunderts und erfährt immer mehr Aufmerksamkeit in der Öffentlichkeit. Einen nicht unerheblichen Beitrag zur Reduzierung des Ressourcenbedarfs kann der Einsatz von Hohlkörpern in Stahlbetondecken beisteuern. Durch den verminderten Betoneinsatz wird weniger CO2 bei der für den Beton erforderlichen Zementherstellung emittiert. Einen weiteren positiven Aspekt für den Einbau von Hohlkörpern in Stahlbetondecken stellt das deutlich reduzierte Eigengewicht dar, welches größere Spannweiten bei gleicher Deckenstärke ermöglicht.
Während sich die Biegetragfähigkeit einer Stahlbetonhohlkörperdecke lediglich geringfügig von der Biegetragfähigkeit einer massiven Stahlbetondecke unterscheidet, wird die Querkrafttragfähigkeit durch den Einbau der Hohlkörper deutlich reduziert. Die Querkrafttragfähigkeit der Hohlkörperdecke liegt bei den bislang im Bauwesen eingesetzten Hohlkörpern bei ungefähr 50 % der Querkrafttragfähigkeit einer baugleichen Vollmassivdecke, so dass die Hohlkörper in den Bereichen einer Decke, in denen hohe Querkräfte vorliegen, nicht eingebaut werden dürfen. Dies führt zu einer deutlichen Einschränkung des Einsatzbereiches der Hohlkörper. Da die Hohlkörperformen bislang keinem Optimierungsprozess hinsichtlich der Querkrafttragfähigkeit unterzogen wurden, sind die in der Baupraxis verwendeten Hohlkörperformen keinesfalls als optimal anzusehen.
In dieser Arbeit wird mit Hilfe eines mehrkriteriellen Optimierungsprozesses, basierend auf der Methode der Genetischen Programmierung, eine Hohlkörperform identifiziert, die hinsichtlich der beiden konträren Optimierungskriterien „hohe Querkrafttragfähigkeit“ und „hohe Betonvolumenverdrängung“ einen guten Kompromiss darstellt. Neben den numerischen FEM-Berechnungen zur Ermittlung der Querkrafttragfähigkeit, welche u.a. auch während des Optimierungsprozesses zur Anwendung kommen, wird die Querkrafttragfähigkeit von Plattenstreifen mit den optimierten Hohlkörpern zusätzlich in Bauteilversuchen überprüft. Um ein ganzheitlich durchdachtes neues Hohlkörperdeckensystem zu entwickeln, werden neben der Optimierung der Querkrafttragfähigkeit auch zahlreiche weitere Untersuchungen zur Optimierung des Materialeinsatzes sowie zur Transport- und Einbausituation durchgeführt.
Des Weiteren bildet die Entwicklung eines mechanisch begründeten Bemessungsmodells zur Ermittlung der Querkrafttragfähigkeit einer Hohlkörperdecke einen wesentlichen Bestandteil der vorliegenden Arbeit. Um ein abgesichertes Modell zu erstellen, welches die Querkrafttragfähigkeit realitätsnah abbildet, sind fundierte Kenntnisse zum Querkrafttragverhalten erforderlich. Dafür werden neben einer mittels der Finite Elemente Methode durchgeführten umfangreichen Parameterstudie, in der zahlreiche Einflussfaktoren auf die Querkrafttragfähigkeit von Hohlkörperdecken untersucht werden, ergänzend Bauteilversuche mit variierender Hohlkörperhöhenlage durchgeführt.
Habitat fragmentation and forest management have been considered to drastically alter the nature of forest ecosystems globally. However, much uncertainty remains regarding the causative mechanisms mediating temperate forest responses, such as forest physical environment and the structure of woody plant assemblages, regardless of the role these forests play for global sustainability. In this paper, we examine how both habitat fragmentation and timber exploitation via silvicultural operations affect these two factors at local and habitat spatial scales in a hyper-fragmented landscape of mixed beech forests spanning more than 1500 km2 in SW Germany. Variables were recorded across 57 1000 m2 plots covering four habitats: small forest fragments, forest edges within large control forests, as well as managed and unmanaged forest interior sites. As expected, forest habitats differed in disturbance level, physical conditions and community structure at plot and habitat scale. Briefly, diversity of plant assemblages differed across all forest habitats (highest in edge forests) and correlated with integrative indices of edge, fragmentation and management effects. Surprisingly, managed and unmanaged forests did not differ in terms of species richness at local spatial scale, but managed forests exhibited a clear signal of physical/floristic homogenization as species promoted by silviculture proliferated; i.e. impoverished communities at landscape scale. Moreover, functional composition of plant communities responded to the microclimatic regime within forest fragments, resulting in a higher prevalence of species adapted to these microclimatic conditions. Our results underscore the notion that forest fragmentation and silvicultural management (1) promote changes in microclimatic regimes, (2) alter the balance between light-demanding and shade-adapted species, (3) support diverse floras across forest edges, and (4) alter patterns of beta diversity. Hence, in human-modified landscapes edge-affected habitats can be recognized as biodiversity reservoirs in contrast to impoverished managed interior forests. Furthermore, our results ratify the role of unmanaged forests as a source of environmental variability, species turnover, and distinct woody plant communities.
Introducing parallelism and exploring its use is still a fundamental challenge for the computer algebra community. In high-performance numerical simulation, on the other hand, transparent environments for distributed computing which follow the principle of separating coordination and computation have been a success story for many years. In this paper, we explore the potential of using this principle in the context of computer algebra. More precisely, we combine two well-established systems: The mathematics we are interested in is implemented in the computer algebra system SINGULAR, whose focus is on polynomial computations, while the coordination is left to the workflow management system GPI-Space, which relies on Petri nets as its mathematical modeling language and has been successfully used for coordinating the parallel execution (autoparallelization) of academic codes as well as for commercial software in application areas such as seismic data processing. The result of our efforts is a major step towards a framework for massively parallel computations in the application areas of SINGULAR, specifically in commutative algebra and algebraic geometry. As a first test case for this framework, we have modeled and implemented a hybrid smoothness test for algebraic varieties which combines ideas from Hironaka’s celebrated desingularization proof with the classical Jacobian criterion. Applying our implementation to two examples originating from current research in algebraic geometry, one of which cannot be handled by other means, we illustrate the behavior of the smoothness test within our framework and investigate how the computations scale up to 256 cores.
Die Konstruktion eines Schrittzählers mit einem Arduino-Mikrocontroller und einem Bewegungssensor ist ein spannendes Technikprojekt. Wir erläutern den Grundgedanken hinter der produktorientierten Modellierung und die vielfältigen Möglichkeiten, die Fragestellung zu bearbeiten. Darüberhinaus werden die technischen Details der verwendeten Hardware diskutiert, um einen schnellen Einstieg ins Thema zu ermöglichen.
This DFG-funded research project aimed to gain a better understanding of the mechanisms of the W-Cl repair principle within the framework of fundamental investigations, to contribute to the creation of the necessary basis for a broader application of the repair principle in practice. The focus was on the development of a model to describe the chloride redistribution after the application of a system sealing surface protective coating. On the basis of Fick's second law of diffusion, a mathematical model with a self-contained analytical solution was developed, with the help of which the chloride redistribution after application of a system sealing surface protective coating can be calculated under the idealized assumption of complete water saturation of the concrete. Furthermore, the influence of the dehydration of the concrete, expected as a result of the application of the repair principle W-Cl, on the chloride redistribution was investigated. On the basis of laboratory tests and numerical simulations, material-specific reduction functions were developed to quantify the relationship between the chloride diffusion coefficient and the ambient humidity.
Industry 4.0 defines the organization of production and manufacturing processes based on technological advanced solutions and devices autonomously communicating with each other.
Within the context of this industrial revolution, the smart reconfigurable manufacturing systems are introduced. These systems shall be able to provide a dynamic level of reconfigurability based on the production demand and system availability. The introduction of the manufacturing reconfigurability constitutes a particularly important and expensive decision for the organizations and therefore scoping methods are becoming constantly essential.
The present work covers a first approach to defining reconfigurability methods and drivers for the manufacturing systems within the context of Industry 4.0. The thesis introduces five main reconfigurability use case scenarios for manufacturing systems and the description of a two – dimensional model of scoping parameters.
The first dimension is based on the potential business targets and reconfigurability drivers, while the second dimension focuses on the system functions and technologies, which are
required for the successful realization of the reconfigurability use case scenarios. Finally, the thesis concludes with a brief comparison between the traditional software product line scoping approach and purposed scoping method for the reconfigurability of manufacturing systems.
Editorial
(2020)
Die Gefährdungsbeurteilung der psychischen Belastung (Psych GB) birgt auf den Ebenen Organisation, Team und Individuum ein bisher wenig genutztes Potenzial für Organisationen. Nicht nur die gesetzlichen Vorgaben werden erfüllt, sondern zusätzliches Entwicklungspotenzial zur gesunden und agilen Organisationsentwicklung erschlossen. Es werden u.a. Rückkopplungseffekte für die Kommunikation und Führung im Zusammenhang mit VUCA sowie eine resiliente Organisationskultur behandelt.
Problems, Chances and Limitations of Facilitating Self-Directed Learning at a German Gymnasium
(2020)
Self-directed learning is becoming more important than ever. In a rapidly changing world, learners must be ready to face new obstacles. Self-directed learning gives the learners the chance to adapt to these social contextual changes. But facilitating self-directed learning in formal settings seems to be a risky task and venture. To accomplish its facilitation, many limits must be overcome.
In this thesis, lessons at a German school called a Gymnasium – the type of school where learners can get the highest school level degree – were observed in order to find out in how far elements of self-directed learning can be found in the observed lessons. For the comparison, the process elements of Knowles’ book “Self-Directed Learning: A Guide for Learners and Teachers” from 1975 were adapted to the observations of the lessons.
A central part of the observations and interviews of the teachers was to find out which limitations in the facilitation of self-directed learning can be found in terms of the institutional framework and the attitude of the teachers. The results of the observations highly differentiated. Whereas in many of the observed scientific lessons, many elements of self-directed learning were found, the lessons in social studies were teacher-directed. Also, a different attitude between the teachers was found in terms of the support for self-directed learning.
Importantly, the thesis includes the scientific critic of self-directed learning instead of excluding it and proposes the facilitation of Grow’s “Self-Directed-Learning Model” (1991) where the level of the learner’s self-directed learning is supposed to progress during school. This thesis is relevant for educators, curriculum developers, teachers and policymakers to help them identify the difficulties and chances to facilitate SDL in formal settings.
We study a multi-scale model for growth of malignant gliomas in the human brain.
Interactions of individual glioma cells with their environment determine the gross tumor shape.
We connect models on different time and length scales to derive a practical description of tumor growth that takes these microscopic interactions into account.
From a simple subcellular model for haptotactic interactions of glioma cells with the white matter we derive a microscopic particle system, which leads to a meso-scale model for the distribution of particles, and finally to a macroscopic description of the cell density.
The main body of this work is dedicated to the development and study of numerical methods adequate for the meso-scale transport model and its transition to the macroscopic limit.
Without actors, there is no action: How interpersonal interactions help to explain routine dynamics
(2020)
In this paper, we argue that it is important to gain a better understanding on how people interact with each other to explain routine dynamics. Thus, we propose to focus on the interpersonal interactions of actors which is not only the fact that actors interact with each other but that the manner and quality of these interactions is important to understand routine dynamics. By drawing on social exchange theory, we propose a framework that seeks to explain routine dynamics based on different relationships between actors. Building on this framework, we provide different process models indicating how routine performing and patterning is enacted due to the respective relationship of actors. Our insights contribute to research on routine dynamics by arguing (1) that actions of patterning are dependent on the relationship of actors; (2) that trust works as an enabler for creating new patterns of actions; (3) that distrust functions as an enhancer for interrupting and dissolving patterns of actions.
Die Monomere Ethen und Propen gehören zu den wichtigsten Grundbausteinen der chemischen Industrie. Die zahlreichen Einsatzmöglichkeiten dieser kurzkettigen Alkene sorgen dafür, dass der Bedarf stetig steigt. Um diesen decken zu können, werden Olefine durch diverse Syntheserouten großtechnisch hergestellt. Das Steamcracken und katalytische Cracken (FCC) von Naphtha oder Ethan gehören zu den am meisten verbreiteten Verfahren, um leichte Olefine zu synthetisieren. Diese Technologien sind allerdings mit einigen Nachteilen, wie zum Beispiel einem relativ hohen Energieverbrauch und einer geringen Selektivität für bestimmte Olefine verbunden. Endliche Erdölreserven und steigende Erdölpreise führen schlussendlich zur Entwicklung neuartiger Synthesemethoden für leichte Olefine über nachhaltige Rohstoffe speziell für Produktionsanlagen, die nicht völlig rückintegriert zu Raffinerien oder Steamcracker sind.
Ethen, Propen und Butene können auch selektiv aus den korrespondierenden Alkanen durch Dehydrierung erhalten werden. Der Vorteil der selektiven Dehydrierung besteht darin, dass kein kompliziertes Produktgemisch vorliegt und die Reaktion somit nicht mit einer aufwendigen Produkttrennung verbunden ist. Die Dehydrierung von Propan zu Propen ist mit einer erheblichen Wertsteigerung am Markt verbunden und wird bereits vielfältig eingesetzt. Ethan kommt als große Nebenkomponente im preiswerten Erdgas vor. Es ist daher interessant, Ethan zu dehydrieren und anschließend in situ zu Propen und Butenen zu dimerisieren. Neben der Dehydrierung von Ethan kann Ethen aber auch aus Ethanol hergestellt werden.
Durch die Dehydratisierung von Ethanol kann Ethen aus nachwachsenden Rohstoffen, wie zum Beispiel aus zucker- oder stärkehaltigen Materialien oder auch aus Lignocellulose hergestellt werden. Über Fermentation und anschließende Aufreinigung ist Bioethanol leicht aus Korn, Zuckerrohr und Cellulose zugänglich.
Zeolithe werden als azide, feste Katalysatoren in der chemischen Industrie eingesetzt. Diverse Porenarchitekturen und unterschiedliche Dimensionalitäten ermöglichen eine sehr gute Steuerung der Selektivität in Bezug auf ein erwünschtes Produkt. Über das Silizium zu Aluminium-Verhältnis kann die Anzahl der sauren Zentren angepasst und können säurekatalysierte Reaktionen beeinflusst werden. Die einfache Herstellung sowie Abtrennung des Katalysators aus dem Produktgemisch sorgen dafür, dass feste Katalysatoren, insbesondere Zeolithe, einen hohen Stellenwert in der Industrie haben. Deshalb werden sie in dieser Arbeit als Katalysatoren verwendet.
Der Schwerpunkt dieser Arbeit liegt in der Untersuchung von Verfahren zur Produktion leichter Olefine aus Ethan und Ethanol. Je nachdem welche Reaktionsbedingungen bei der oder bei der Dehydrierung gewählt werden, ist Ethen das Hauptprodukt. Die anschließende Oligomerisierung von Ethen zu Propen, Butenen oder sogar zu BTX-Aromaten ist hingegen eine Herausforderung. Im ersten Teil dieser Arbeit wird Dehydratisierung die Dehydratisierung von Ethanol zu leichten Olefinen untersucht. Hierbei wird die Abhängigkeit des Produktspektrums von Zeolithen mit unterschiedlicher Dimensionalität und Porengröße ermittelt. Anschließend wird die Abhängigkeit der Olefinausbeute von der Partikelgröße untersucht und das Produktspektrum der Dehydrierung von Ethan über den Einsatz ausgewählter Metalle optimiert.
Die eingesetzten Zeolithe werden je nach gewünschter Porenarchitektur und Dimensionalität synthetisiert und entsprechend physikochemisch charakterisiert.
Am 1. Januar 2014 trat das Notfallsanitätergesetz in Kraft, das die Berufsausbildung im Rettungsdienst auf eine völlig neue Basis stellen sollte. Anstatt der gewohnten Vermittlung von nach Unterrichtsfächern gegliederten Inhalten sollte nun eine kompetenzorientierte, nach Lernfeldern geordnete Ausbildung eingeführt werden.
Anders als in allen anderen Bundesländern tat man sich in Bayern schwer mit dem Ansatz, die gewohnte Fächerstruktur aufzugeben, weshalb hier ein Hybridlehrplan entstand, der sowohl nach Unterrichtsfächern als auch nach Lernfeldern gegliedert ist. Die vorliegende Arbeit untersucht, ob es geglückt ist, diesen beiden unterschiedlichen didaktischen Ansätzen gerecht zu werden. Dabei werden zunächst aus der wissenschaftlichen Literatur die grundsätzlichen Unterschiede zwischen Fächer- und Lernfeldkonzept erarbeitet und die wesentlichen Elemente des kompetenzorientierten Unterrichts dargestellt. Anschließend wird anhand einer unter Lehrkräften und Lernenden durchgeführten Befragung untersucht, inwieweit die kompetenzorientierte Ausbildung an bayerischen Notfallsanitäterschulen bereits umgesetzt wird.
Es zeigt sich, dass in der Wahrnehmung der Lernenden nach wie vor die Orientierung nach Fachinhalten und Unterrichtsfächern das Denken der Schüler bestimmt, obwohl deutliche Bemühungen seitens des Lehrpersonals bestehen, sich stärker an Kompetenzzielen zu orientieren. Dabei wird insbesondere deutlich, dass der Bedarf an fachübergreifenden Absprachen an den Schulen noch nicht ausreichend befriedigt oder von Lehrkräften noch nicht im erforderlichen Maß verfolgt wird.
Dieser Arbeits- und Forschungsbericht beschreibt die Analyse der Wirkung der durch das Teil- projekt etablierten (Weiter-)Bildungsangebote an der Hochschule Kaiserslautern. Zu diesem Zweck wurden sowohl in der Programmentwicklung beteiligte Unternehmen als auch die Stu- dierenden, welche die entwickelten Angebote derzeit wahrnehmen, befragt. Ziel war es, unter anderem die Zielgruppenerreichung, einen Outcome sowie einen Impact messbar zu machen und zu analysieren. Aus den gewonnen Ergebnissen lassen sich Rückschlüsse auf die anvi- sierte Wirkung der (Weiter-)Bildungsangebote zum einen auf Studierende und zum anderen auf die in der Region ansässigen Unternehmen ziehen. Gleichzeitig wird der Bekanntheitsgrad der Hochschule Kaiserslautern als Bildungsträgerin analysiert und wichtige Erkenntnisse für die nachhaltige Qualitätssicherung der wissenschaftlichen (Weiter-)Bildung gezogen.
Purpose
We investigated the cytosolic and membrane-associated contents of polyphenols after 4 hours of incubation (50 μM of each polyphenol) in the colon carcinoma cell line T84 using a novel, rapid, and convenient method based on permeabilization of the cell membrane using digitonin. The colon carcinoma cell line was used to investigate the intestinal uptake of polyphenols present in apple products.
Recent Findings
The results showed that hydroxycinnamic acids (caffeic and 5-caffeoylquinic acid) were only detected in the cytosolic fractions. In contrast, 0.3 to 8.2% of the initial concentrations (50 μM) of the flavonoids phloretin, quercetin, phloretin 2′-O-glucoside, and quercetin 3-O-rhamnoside were found in the membrane-associated fractions. In the cytosolic fractions, 0.2–2.9% of these compounds were detected, corresponding to 25 to 40% of the total cell-associated (cytosolic plus membrane-associated fractions) polyphenol content.
Summary
Our results showed that after uptake, polyphenols were present in the cytosolic fraction of the cells as well as associated with the cell membrane. The presented method provides a useful in vitro tool for determining biologically active compounds in cellular fractions.
A palladium-catalyzed three-component synthesis of α-arylglycines from benzoic acids, sulfonamides and glyoxylic acid is reported. This novel reaction offers straightforward access to the important arylglycine motif in good yields and high structural diversity. By replacing boronic with carboxylic acids as nucleophilic component, this method can be considered as a more sustainable version of the classical Petasis reaction for synthesis of arylglycines.