Filtern
Erscheinungsjahr
Dokumenttyp
- Dissertation (1251)
- Preprint (1179)
- Bericht (474)
- Wissenschaftlicher Artikel (230)
- Teil eines Periodikums (217)
- Masterarbeit (98)
- Arbeitspapier (80)
- Diplomarbeit (29)
- Konferenzveröffentlichung (28)
- Studienarbeit (20)
Sprache
- Englisch (2300)
- Deutsch (1380)
- Spanisch (4)
- Mehrsprachig (1)
Schlagworte
- AG-RESY (64)
- PARO (31)
- Stadtplanung (26)
- Modellierung (22)
- Case-Based Reasoning (20)
- Simulation (19)
- Visualisierung (18)
- SKALP (16)
- CoMo-Kit (15)
- Wavelet (14)
Fachbereich / Organisatorische Einheit
- Fachbereich Mathematik (1046)
- Fachbereich Informatik (802)
- Fachbereich Chemie (304)
- Fachbereich Physik (262)
- Fachbereich Maschinenbau und Verfahrenstechnik (251)
- Fraunhofer (ITWM) (222)
- Fachbereich Sozialwissenschaften (208)
- Fachbereich Elektrotechnik und Informationstechnik (121)
- Fachbereich Biologie (104)
- Fachbereich ARUBI (83)
Im Zentrum der Arbeit steht die Sicherung und Stärkung des Selbstbestimmungsrechts von Menschen mit Behinderung in Gesundheitsfragen. Dieses politisch und gesellschaftlich eingeforderte Recht soll in Einrichtungen der Behindertenhilfe durch Professionalisierung der Fachkräfte umgesetzt werden. Hier soll die vorliegende Masterarbeit ansetzen und die Lücke dieser Nachfrage schließen. Sie ist eine theoretische Ausarbeitung eines Kurskonzepts mit Blended Learning, das sich an Fachkräfte richtet und die Schulung zur Nutzung einer Handreichung zur ethischen Reflexion zum Ziel hat. Die Umsetzung des erarbeiteten Kurskonzepts und damit die Implementierung der Handreichung in die Institution ist Aufgabe der betrieblichen Weiterbildung. Dies soll in einem Theorie-Praxis-Transfer aufgezeigt werden. Die zentrale Frage lautet demnach: Wie kann die in der Diakonie Stetten entwickelte Handreichung zur Sicherung und Stärkung des Selbstbestimmungsrechts von Menschen mit
Behinderung unter Berücksichtigung des aktuellen Forschungsstandes mit Blended Learning implementiert werden?
Die Nähtechnik in Verbindung mit Harzinfusions- und -injektionstechniken eröffnet
ein erhebliches Gewichts- und Kosteneinsparpotential primär belasteter
Strukturbauteile aus Faser-Kunststoff-Verbundwerkstoffen. Dabei ist es unter
bestimmten Voraussetzungen möglich, durch Vernähungen gezielte Steigerungen
mechanischer Eigenschaften zu erreichen. Ein genaues Verständnis wirksamer
Zusammenhänge bezüglich der Änderung mechanischer Kennwerte verglichen mit
dem unvernähten Verbund ist unverzichtbar, um einen Einsatz dieser Technologie im
zivilen Flugzeugbau voranzubringen.
Im Rahmen dieser Arbeit wird eine breit angelegte experimentelle Parameterstudie
zum Einfluss verschiedener Nähparameter auf Scheiben-Elastizitäts- und
Festigkeitseigenschaften von kohlenstofffaserverstärkten Epoxidharzverbunden unter
Zug- und Druckbelastung durchgeführt. Neben der Stichrichtung, der Garnfeinheit,
dem Nahtabstand und der Stichlänge wurde auch die Belastungsrichtung variiert. Bei
einigen Parametereinstellungen konnten keine Änderungen des Elastizitätsmoduls
oder der Festigkeit in der Laminatebene festgestellt werden, wohingegen in anderen
Fällen Reduktionen oder Steigerungen um bis zu einem Drittel des Kennwerts des
unvernähten Laminats beobachtet wurden. Dabei ist vor allem der Einfluss der
Garnfeinheit dominierend.
Die Fehlstellenausbildung infolge eines Stichs in Abhängigkeit der gewählten
Parameter und der Orientierung der Einzelschicht wurde anhand von Schliffbildern in
der Laminatebene untersucht. Ein erheblicher Einfluss der einzelnen Parameter auf
die Fehlstellenausbildung ist festzustellen, wobei wiederum die Garnfeinheit
dominiert. Anhand der Ergebnisse der Auswertung der Fehlstellenausbildung in den
Einzelschichten wurde ein empirisches Modell generiert, womit charakteristische
Fehlstellengröße n wie die Querschnittsfläche, die Breite und die Länge in
Abhängigkeit der genannten Parameter berechnet werden können.
Darauf aufbauend wurde ein Finite-Elemente-Elementarzellenmodell generiert, mit
welchem Scheiben-Elastizitätsgrößen vernähter Laminate abgeschätzt werden
können. Neben der Berücksichtigung der genannten Nähparameter ist der zentrale
Aspekt hierbei die Beschreibung eines Stichs in Form von Reinharzgebiet und
Faserumlenkungsbereich in jeder Einzelschicht.
Stitching technology in combination with Liquid Composite Molding techniques offers
a possibility to reduce significantly weight and costs of primarily loaded structural
parts made of Fiber Reinforced Polymers. Thereby, it is possible to enhance
mechanical properties simultaneously. It is essential to understand effective
correlations of all important parameters concerning changes in mechanical
characteristics due to additional stitching if stitching technologies have to be
established in the civil aircraft industry.
In this thesis, a broad experimental study on the influence of varying stitching
parameters on the membrane tensile and compressive modulus and strength of
carbon fiber reinforced epoxy laminates is presented. The direction of stitching,
thread diameter, spacing and pitch length as well as the direction of testing had been
varied. In some cases, no changes in modulus and strength could be found due to
the chosen parameters, whereas in other cases reductions or enhancements of up to
30 % compared to the unstitched laminate were observed. Thereby, the thread
diameter shows significant influence on these changes in mechanical properties.
In addition, the stitch and void formation in the thickness direction due to the stitching
parameters was investigated by evaluating micrographs in each layer of the laminate.
Again, the thread diameter showed an outstanding influence on the characteristics of
matrix pure area (void) and fiber disorientation. A mathematical model was evaluated
in order to predict in-plane characteristics of stitches and voids, from which the cross
sectional area, the width and the length of a void due to the chosen stitching
parameters can be derived.
Finally, a Finite Element based unit cell model was established to calculate elastic
constants of stitched FRP laminates. With this model it is possible to consider a stitch
as a matrix pure region and additionally an area of in-plane fiber disorientation
depending on the stitching parameters as introduced above. The model was
validated using the experimental data for tensile and compressive loading.
The outstanding flexibility of this FE unit cell approach is shown in a parametric
study, where different void formations as well as stitching parameters were varied in
a stitched, unidirectional laminate. It was found that three different aspects influence
significantly the in-plane elastic constants of stitched laminates. First of all, the
stitching parameters as well as the laminate characteristics define the shape of the
unit cell including the areas of the stitch and the fiber disorientation. Secondly,
stitching changes the fiber volume fraction in all layers, which causes changes in
elastic properties as well. Thirdly, the type and the direction of loading has to be
considered, because each change in the architecture of the laminate results in
different effects on the in-plane elastic constants namely tensile, compressive or
shear moduli as well as the Poisson´s ratios.
Congress Report 2018.11-12
(2019)
The demand of sustainability is continuously increasing. Therefore, thermoplastic
composites became a focus of research due to their good weight to performance
ratio. Nevertheless, the limiting factor of their usage for some processes is the loss of
consolidation during re-melting (deconsolidation), which reduces the part quality.
Several studies dealing with deconsolidation are available. These studies investigate
a single material and process, which limit their usefulness in terms of general
interpretations as well as their comparability to other studies. There are two main
approaches. The first approach identifies the internal void pressure as the main
cause of deconsolidation and the second approach identifies the fiber reinforcement
network as the main cause. Due to of their controversial results and limited variety of
materials and processes, there is a big need of a more comprehensive investigation
on several materials and processes.
This study investigates the deconsolidation behavior of 17 different materials and
material configurations considering commodity, engineering, and performance
polymers as well as a carbon and two glass fiber fabrics. Based on the first law of
thermodynamics, a deconsolidation model is proposed and verified by experiments.
Universal applicable input parameters are proposed for the prediction of
deconsolidation to minimize the required input measurements. The study revealed
that the fiber reinforcement network is the main cause of deconsolidation, especially
for fiber volume fractions higher than 48 %. The internal void pressure can promote
deconsolidation, when the specimen was recently manufactured. In other cases the
internal void pressure as well as the surface tension prevents deconsolidation.
During deconsolidation the polymer is displaced by the volume increase of the void.
The polymer flow damps the progress of deconsolidation because of the internal
friction of the polymer. The crystallinity and the thermal expansion lead to a
reversible thickness increase during deconsolidation. Moisture can highly accelerate
deconsolidation and can increase the thickness by several times because of the
vaporization of water. The model is also capable to predict reconsolidation under the
defined boundary condition of pressure, time, and specimen size. For high pressure
matrix squeeze out occur, which falsifies the accuracy of the model.The proposed model was applied to thermoforming, induction welding, and
thermoplastic tape placement. It is demonstrated that the load rate during
thermoforming is the critical factor of achieving complete reconsolidation. The
required load rate can be determined by the model and is dependent on the cooling
rate, the forming length, the extent of deconsolidation, the processing temperature,
and the final pressure. During induction welding deconsolidation can tremendously
occur because of the left moisture in the polymer at the molten state. The moisture
cannot fully diffuse out of the specimen during the faster heating. Therefore,
additional pressure is needed for complete reconsolidation than it would be for a dry
specimen. Deconsolidation is an issue for thermoplastic tape placement, too. It limits
the placement velocity because of insufficient cooling after compaction. If the
specimen after compaction is locally in a molten state, it deconsolidates and causes
residual stresses in the bond line, which decreases the interlaminar shear strength. It
can be concluded that the study gains new knowledge and helps to optimize these
processes by means of the developed model without a high number of required
measurements.
Aufgrund seiner guten spezifischen Festigkeit und Steifigkeit ist der
endlosfaserverstärkte Thermoplast ein hervorragender Leichtbauwerkstoff. Allerdings
kann es während des Wiederaufschmelzens durch Dekonsolidierung zu einem
Verlust der guten mechanischen Eigenschaften kommen, daher ist Dekonsolidierung
unerwünscht. In vielen Studien wurde die Dekonsolidierung mit unterschiedlichen
Ergebnissen untersucht. Dabei wurde meist ein Material und ein Prozess betrachtet.
Eine allgemeine Interpretation und die Vergleichbarkeit unter den Studien sind
dadurch nur begrenzt möglich. Aus der Literatur sind zwei Ansätze bekannt. Dem
ersten Ansatz liegt der Druckunterschied zwischen Poreninnendruck und
Umgebungsdruck als Hauptursache der Dekonsolidierung zu Grunde. Beim zweiten
Ansatz wird die Faserverstärkung als Hauptursache identifiziert. Aufgrund der
kontroversen Ergebnisse und der begrenzten Anzahl der Materialien und
Verarbeitungsverfahren, besteht die Notwendigkeit einer umfassenden Untersuchung
über mehrere Materialien und Prozesse. Diese Studie umfasst drei Polymere
(Polypropylen, Polycarbonat und Polyphenylensulfid), drei Gewebe (Köper, Atlas und
Unidirektional) und zwei Prozesse (Autoklav und Heißpressen) bei verschiedenen
Faservolumengehalten.
Es wurde der Einfluss des Porengehaltes auf die interlaminare Scherfestigkeit
untersucht. Aus der Literatur ist bekannt, dass die interlaminare Scherfestigkeit mit
der Zunahme des Porengehaltes linear sinkt. Dies konnte für die Dekonsolidierung
bestätigt werden. Die Reduktion der interlaminaren Scherfestigkeit für
thermoplastische Matrizes ist kleiner als für duroplastische Matrizes und liegt im
Bereich zwischen 0,5 % bis 1,5 % pro Prozent Porengehalt. Außerdem ist die
Abnahme signifikant vom Matrixpolymer abhängig.
Im Falle der thermisch induzierten Dekonsolidierung nimmt der Porengehalt
proportional zu der Dicke der Probe zu und ist ein Maß für die Dekonsolidierung. Die
Pore expandiert aufgrund der thermischen Gasexpansion und kann durch äußere
Kräfte zur Expansion gezwungen werden, was zu einem Unterdruck in der Pore
führt. Die Faserverstärkung ist die Hauptursache der Dickenzunahme
beziehungsweise der Dekonsolidierung. Die gespeicherte Energie, aufgebaut während der Kompaktierung, wird während der Dekonsolidierung abgegeben. Der
Dekompaktierungsdruck reicht von 0,02 MPa bis 0,15 MPa für die untersuchten
Gewebe und Faservolumengehalte. Die Oberflächenspannung behindert die
Porenexpansion, weil die Oberfläche vergrößert werden muss, die zusätzliche
Energie benötigt. Beim Kontakt von benachbarten Poren verursacht die
Oberflächenspannung ein Verschmelzen der Poren. Durch das bessere Volumen-
Oberfläche-Verhältnis wird Energie abgebaut. Der Polymerfluss bremst die
Entwicklung der Dickenzunahme aufgrund der erforderlichen Energie (innere
Reibung) der viskosen Strömung. Je höher die Temperatur ist, desto niedriger ist die
Viskosität des Polymers, wodurch weniger Energie für ein weiteres Porenwachstum
benötigt wird. Durch den reversiblen Einfluss der Kristallinität und der
Wärmeausdehnung des Verbundes wird während der Erwärmung die Dicke erhöht
und während der Abkühlung wieder verringert. Feuchtigkeit kann einen enormen
Einfluss auf die Dekonsolidierung haben. Ist noch Feuchtigkeit über der
Schmelztemperatur im Verbund vorhanden, verdampft diese und kann die Dicke um
ein Vielfaches der ursprünglichen Dicke vergrößern.
Das Dekonsolidierungsmodell ist in der Lage die Rekonsolidierung vorherzusagen.
Allerdings muss der Rekonsolidierungsdruck unter einem Grenzwert liegen
(0,15 MPa für 50x50 mm² und 1,5 MPa für 500x500 mm² große Proben), da es sonst
bei der Probe zu einem Polymerfluss aus der Probe von mehr als 2 % kommt. Die
Rekonsolidierung ist eine inverse Dekonsolidierung und weist die gleichen
Mechanismen in der entgegengesetzten Richtung auf.
Das entwickelte Modell basiert auf dem ersten Hauptsatz der Thermodynamik und
kann die Dicke während der Dekonsolidierung und der Rekonsolidierung
vorhersagen. Dabei wurden eine homogene Porenverteilung und eine einheitliche,
kugelförmige Porengröße angenommen. Außerdem wurde die Massenerhaltung
angenommen. Um den Aufwand für die Bestimmung der Eingangsgrößen zu
reduzieren, wurden allgemein gültige Eingabeparameter bestimmt, die für eine
Vielzahl von Konfigurationen gelten. Das simulierte Materialverhalten mit den
allgemein gültigen Eingangsparametern erzielte unter den definierten
Einschränkungen eine gute Übereinstimmung mit dem tatsächlichen
Materialverhalten. Nur bei Konfigurationen mit einer Viskositätsdifferenz von mehr als 30 % zwischen der Schmelztemperatur und der Prozesstemperatur sind die
allgemein gültigen Eingangsparameter nicht anwendbar. Um die Relevanz für die
Industrie aufzuzeigen, wurden die Effekte der Dekonsolidierung für drei weitere
Verfahren simuliert. Es wurde gezeigt, dass die Kraftzunahmegeschwindigkeit
während des Thermoformens ein Schlüsselfaktor für eine vollständige
Rekonsolidierung ist. Wenn die Kraft zu langsam appliziert wird oder die finale Kraft
zu gering ist, ist die Probe bereits erstarrt, bevor eine vollständige Konsolidierung
erreicht werden kann. Auch beim Induktionsschweißen kann Dekonsolidierung
auftreten. Besonders die Feuchtigkeit kann zu einer starken Zunahme der
Dekonsolidierung führen, verursacht durch die sehr schnellen Heizraten von mehr als
100 K/min. Die Feuchtigkeit kann während der kurzen Aufheizphase nicht vollständig
aus dem Polymer ausdiffundieren, sodass die Feuchtigkeit beim Erreichen der
Schmelztemperatur in der Probe verdampft. Beim Tapelegen wird die
Ablegegeschwindigkeit durch die Dekonsolidierung begrenzt. Nach einer scheinbar
vollständigen Konsolidierung unter der Walze kann die Probe lokal dekonsolidieren,
wenn das Polymer unter der Oberfläche noch geschmolzen ist. Die daraus
resultierenden Poren reduzieren die interlaminare Scherfestigkeit drastisch um 5,8 %
pro Prozent Porengehalt für den untersuchten Fall. Ursache ist die Kristallisation in
der Verbindungszone. Dadurch werden Eigenspannungen erzeugt, die in der
gleichen Größenordnung wie die tatsächliche Scherfestigkeit sind.
For some optimization problems on a graph \(G=(V,E)\), one can give a general formulation: Let \(c\colon E \to \mathbb{R}_{\geq 0}\) be a cost function on the edges and \(X \subseteq 2^E\) be a set of (so-called feasible) subsets of \(E\), one aims to minimize \(\sum_{e\in S} c(e)\) among all feasible \(S\in X\). This formulation covers, for instance, the shortest path problem by choosing \(X\) as the set of all paths between two vertices, or the minimum spanning tree problem by choosing \(X\) to be the set of all spanning trees. This bachelor thesis deals with a parametric version of this formulation, where the edge costs \(c_\lambda\colon E \to \mathbb{R}_{\geq 0}\) depend on a parameter \(\lambda\in\mathbb{R}_{\geq 0}\) in a concave and piecewise linear manner. The goal is to investigate the worst case minimum size of a so-called representation system \(R\subseteq X\), which contains for each scenario \(\lambda\in\mathbb{R}_{\geq 0}\) an optimal solution \(S(\lambda)\in R\). It turns out that only a pseudo-polynomial size can be ensured in general, but smaller systems have to exist in special cases. Moreover, methods are presented to find such small systems algorithmically. Finally, the notion of a representation system is relaxed in order to get smaller (i.e. polynomial) systems ensuring a certain approximation ratio.
Cutting-edge cancer therapy involves producing individualized medicine for many patients at the same time. Within this process, most steps can be completed for a certain number of patients simultaneously. Using these resources efficiently may significantly reduce waiting times for the patients and is therefore crucial for saving human lives. However, this involves solving a complex scheduling problem, which can mathematically be modeled as a proportionate flow shop of batching machines (PFB). In this thesis we investigate exact and approximate algorithms for tackling many variants of this problem. Related mathematical models have been studied before in the context of semiconductor manufacturing.
Die Arbeit fokussiert sich auf die Frage, ob unter bestimmten individuellen Bedingungen der Lehrkräfte und unter Berücksichtigung der organisationalen Bedingungen, die Implementierung von iPads zu einer Veränderung der Lehr- und Lernprozesse führt, die einen problemorientierten, schülerzentrierten Unterricht favorisieren. Zuerst werden die Potentiale der Informations- und Kommunikationstechnik beschrieben, das „iPad“ vorgestellt und die verschiedenen Unterrichtsformen definiert. Danach werden die einzelnen Bedingungsfaktoren für den iPad-Einsatz auf Individuallevel sowie auf der Ebene der Organisation Schule aufgezählt, die Begrifflichkeiten geklärt und jeweils ein Bezug zur praktischen Umsetzung hergestellt. Anhand der Literatur zu theoretischen und empirischen Arbeiten wird versucht, eine Antwort auf die Frage zu finden, welche Bedingungen für eine qualitativ hochwertige Implementierung von iPads notwendig sind. Abschließend werden diese Innovationsbedingungen kritisch reflektiert und die wichtigsten Erkenntnisse herausgestellt, um den Prozess einer iPad-Implementierung an einer Grundschule anzuregen und Empfehlungen zu einem iPad-Konzept zu geben.
In der modernen Hubschrauberfertigung werden neben Rotorblättern auch tragende
Strukturteile aus kohlenstofffaserverstärkten Kunststoffen eingesetzt. Um dabei
einen möglichst hohen Leichtbaugrad zu erreichen, werden immer neue Design-
Konzepte entwickelt. Innovative Design-Lösungen sind aber nur dann in der Fertigung
umsetzbar, wenn sie effizient, kostengünstig und fehlerfrei gefertigt werden
können.
Ein wichtiger Baustein für die Produktion sind die Fertigungsvorrichtungen, auf
denen die Bauteile laminiert und ausgehärtet werden. Diese Vorrichtungen sind ein
maßgeblicher Faktor zum Erreichen der geforderten Bauteilqualität. Das Augenmerk
liegt hierbei auf der sogenannten tool-part-interaction, also der Interaktion zwischen
Fertigungsvorrichtung und Faserverbundmaterial. Diese hat einen großen Einfluss
auf das Aufheiz- und Verpressungsverhalten der Prepreg-Materialien und somit auch
direkt auf fertigungsinduzierte Schädigungen wie Faltenbildung und Verzug.
Aktuell kann der Vorrichtungsentwickler lediglich auf Erfahrungswerte zurückgreifen,
um ein gutes Aufheiz- und Verpressungsverhalten der Vorrichtung zu erreichen.
Zur Minimierung von Falten fehlt jedoch häufig sogar das nötige Hintergrundwissen
über die grundlegenden Mechanismen der Faltenbildung. Nur ein langwieriger
trial-and-error Prozess nach Produktion der Vorrichtung kann helfen, Faltenbildung
zu eliminieren oder zumindest zu reduzieren.
Zukünftig muss es ein primäres Ziel für den Vorrichtungsbau sein, Fertigungsmittel
gezielt auslegen und bereits im Rahmen der Konzeptentwicklung Aussagen
über die zu erwartende Bauteilgüte und das Fertigungsergebnis machen zu können.
Einen möglichen Weg stellt die Einführung einer Herstellprozesssimulation dar, da
sie bereits in einer frühen Entwicklungsphase das Aufheiz- und Verpressungsverhalten
eines Bauteils sowie den Einfluss der Fertigungsvorrichtung auf die Bauteilqualität
einschätzen kann. Fertigungsinduzierte Schädigungen, wie der prozessinduzierte
Verzug, lassen sich bereits mit Hilfe von kommerziell erhältlichen Software-Tools
vorhersagen. Um zukünftig auch die Faltenbildung bei der Prepreg-Autoklavfertigung
vorhersagbar zu machen, müssen zwei übergeordnete Fragestellungen bearbeitet
werden:Faltenbildung: Wie läuft die Faltenbildung in der Autoklavfertigung ab und
welche Mechanismen bzw. Einflussfaktoren müssen besonders beachtet werden?
Simulation: Wie muss eine Herstellprozesssimulation geartet sein, um den
Einfluss der Fertigungsvorrichtung auf die Faltenbildung vorhersagen zu können
und Vorrichtungen auf diese Weise zukünftig auslegbar zu machen?
Experimentelle Untersuchungen an Omega- und C-Profilen helfen, die Faltenbildung,
ihren primären Mechanismus und vor allem die verschiedenen Einflussfaktoren
zu verstehen und zu bewerten. Im Falle der vorliegenden Arbeit wurde besonders
die Kompaktierung des Laminates über einem Außenradius und die daraus entstehende
überschüssige Faser- bzw. Rovinglänge als primärer Faltenauslöser betrachtet.
Es konnte aus den Experimenten abgeleitet werden, dass besonders der
Verpressungsweg, die Bauteilgeometrie, das verwendete Faserhalbzeug (unidirektional
oder Gewebe), die tool-part-interaction und das interlaminare Reibverhalten für
den untersuchten Mechanismus von Bedeutung sind. Daraus lassen sich die Mindestanforderungen
an eine Herstellprozesssimulation zusammenstellen.
Eine umfassende Materialcharakterisierung inklusive der interlaminaren Reibung,
der Reibinteraktionen zwischen Bauteil und Fertigungsvorrichtung sowie des
Verpressungsverhaltens des Faserbettes sind der erste Schritt in der Entwicklung
einer industriell einsetzbaren Simulation.
Die Simulation selbst setzt sich aus einem thermo-chemischen und einem
Kompaktiermodul zusammen. Ersteres ermittelt das Aufheizverhalten der Vorrichtung
und des Bauteils im Autoklaven und stellt darüber hinaus Aushärtegrad und
Glasübergangstemperatur als Parameter für das zweite Simulationsmodul zur Verfügung.
Zur korrekten Bestimmung des Wärmeübergangs im Autoklaven wurde ein
semi-empirisches Verfahren entwickelt, das in der Lage ist, Strömungseffekte und
Beladungszustände des Autoklaven zu berücksichtigen. Das Kompaktiermodul umfasst
das Verpressungsverhalten des Faserbettes inklusive des Harzflusses, der toolpart-
interaction und der Relativverschiebung der Laminatlagen zueinander. Besonders
das Erfassen der Durchtränkung des Fasermaterials mittels eines phänomenologischen
Ansatzes und das Einbringen der Reibinteraktionen in die Simulation muss
als Neuerung im Vergleich zu bisherigen Simulationskonzepten gesehen werden. Auf
diese Weise ist die Simulation in der Lage, alle wichtigen Einflussfaktoren der Faltenbildung zu erfassen. Der aus der Simulation auslesbare Spannungszustand kann
Aufschluss über die Faltenbildung geben. Mit Hilfe eines im Rahmen dieser Arbeit
entwickelten (Spannungs-)Kriteriums lässt sich eine Aussage über das zu erwartende
Faltenrisiko treffen. Außerdem ermöglicht die Simulation eine genaue Identifikation
der Haupttreiber der Faltenbildung für das jeweilige Bauteil bzw. Fertigungskonzept.
Parameter- und Sensitivitätsstudien können dann den experimentellen Aufwand
zur Behebung der Faltenbildung deutlich reduzieren.
Die hier vorliegende Arbeit erweitert damit nicht nur das Wissen über die Faltenbildung
in der Prepreg-Autoklavfertigung und deren Einflussfaktoren, sondern gibt
dem Vorrichtungsentwickler auch eine Simulationsmethodik an die Hand, die ihn in
die Lage versetzt, Fertigungsvorrichtungen gezielt auszulegen und zu optimieren.
In addition to rotor blades, primary structural parts are also manufactured from
carbon fiber reinforced plastics in modern helicopter production. New design concepts
are constantly developed in order to reach a maximum degree of lightweight
design. However, innovative design solutions are only realizable, if they can be manufactured
efficiently, economically, and free from defects.
Molds for laminating and curing of composite parts are of particular importance.
They are a relevant factor for achieving the required part quality. The attention is directed
at the so-called tool-part-interaction, i.e. the interaction between tools and fiber
composite materials, which has a great influence on the heating and compaction
behavior of the prepreg materials and therefore also directly on manufacturing induced
damage such as wrinkling and warping.
At present, the tooling designer can only resort to his/her experience to achieve
a good heating and compaction behavior of the molds. However, the necessary background knowledge about the fundamental mechanisms of wrinkling is often lacking
and only a tedious trial-and-error process after the production of the mold can
help eliminate or at least reduce wrinkling.
In the future, the primary goal for tooling production must be to specifically design
the manufacturing equipment and to be able to already make a statement about
the expected part quality and production result during the conceptual stage. A possible
solution is the introduction of a manufacturing process simulation, because at an
early development stage it can estimate the heating and compaction behavior of a
part as well as the influence of the manufacturing equipment on part quality. Commercially
available software tools are already able to predict damage during production,
as e.g. process induced deformation. In order to make wrinkling predictable also,
two primary issues need to be dealt with: Wrinkling: How does wrinkling develop in autoclave manufacturing and which
mechanisms or influencing factors need to be particularly considered?
Simulation: What must be integrated into a manufacturing process simulation,
if it is to predict the influence of the mold on wrinkling and to ensure future
tooling improvement? Experimental examinations of omega and c-profiles help to understand and
evaluate wrinkling, its primary mechanism, and particularly the various influencing
factors. In the case of the present paper, the compaction of the laminate over a convex
radius and the resulting surplus roving length was especially examined as primary
cause for wrinkling. From the experiments could be deduced that the compaction,
the part geometry, the utilized semi-finished fabrics (unidirectional and woven), the
tool-part-interaction and the interlaminar friction are of importance for the examined
mechanism. These factors determine the minimum requirements for a manufacturing
process simulation.
A comprehensive material characterization including interlaminar friction, friction
interaction between part and tool as well as the compaction behavior of the fiber bed
are the first step toward the development of a simulation on an industrial scale. The
simulation consists of a thermochemical and a compaction module. The former determines
the heating behavior of the mold and the part in the autoclave and additionally
provides the degree of cure and the glass transition temperature as parameters
for the second simulation module. A semi-empirical method that is able to consider
flow effects and loading conditions of the autoclave was developed for the correct
determination of the heat transfer within the autoclave. The compaction module comprises
the compaction behavior of the fiber bed including resin flow, tool-partinteraction
and relative displacement of the layers. Especially the integration of the
saturation phase by means of a phenomenological approach and the inclusion of friction
interaction in the simulation must be seen as innovation in comparison to other
simulation concepts. The simulation is thus able to capture all the important influencing
factors of wrinkling. The state of stress that is retrieved from the simulation can
provide information about the formation of wrinkles. Furthermore, the simulation enables
an exact identification of the main drivers for the development of wrinkles in the
respective part or manufacturing concept. Parameters and sensitivity analyses can
then significantly reduce the experimental effort for the elimination of wrinkling.
The present study does therefore not only expand the knowledge about wrinkling
and its influencing factors in prepreg autoclave manufacturing, but also presents
the tooling designer with a simulation methodology that enables him/her to systematically
develop and optimize manufacturing equipment.
Ultrahochfester Beton (UHB oder aus dem Englischen Ultra High Performance Concrete, kurz UHPC) weist eine Druckfestigkeit im Bereich von 150 bis 250 MPa auf. Eine gesteigerte Zugfestigkeit und ein duktiles Verhalten werden durch die Zugabe von Mikrostahlfasern erzielt (Ultra High Performance Fibre Reinforced Concrete, UHPFRC). Der Fasergehalt ist in der Regel höher als bei normalfestem Faserbeton, sodass aufgrund der Fasern ein „Strain-hardening“ Verhalten erreicht werden kann: in einem Biegezugversuch kann die Last nach der Erstrissbildung weiter gesteigert werden bis zur Ausbildung mehrerer feiner Risse. Da der Beitrag der Fasern zum Zugtragverhalten des UHPFRC ein wesentlicher ist, müssen die Bauteile im gerissenen Zustand bemessen werden. Während der statische und dynamische Widerstand bereits umfangreich untersucht wurde, liegen nur wenige Untersuchungen bezüglich das Dauerstandzugverhaltens von gerissenem ultrahochfestem Beton vor. Untersuchungen an normalfestem faserverstärktem Beton haben gezeigt, dass die zeitabhängigen Zugverformungen im gerissenen Zustand größer sind als die in ungerissenem Material.
Um die zu erwartenden Verformungen abschätzen zu können und um das Kriechverhalten des Materials bis zum Versagen zu analysieren, wurde im Rahmen dieser Arbeit ein umfangreiches Versuchsprogramm durchgeführt. Über 60 uniaxiale Zug- und Biegezugprobekörper wurden unter Dauerlast über einen Zeitraum von bis zu 15 Monaten beansprucht. Davon wurden 22 Probekörper nach vier Monaten hinsichtlich ihrer Resttragfähigkeit getestet. Die restlichen Probekörper befinden sich für Langzeit-Messungen weiterhin in den Dauerlastprüfständen. Es wurden dabei verschiedene Parameter untersucht: u.a. das Belastungsniveau, Art und Umfang der Nachbehandlung des Betons, das Betonalter zu Beginn der Belastung, der Fasergehalt und die Faserschlankheit. Das Schwinden der unbelasteten Probekörper sowie das Druckkriechen belasteter Probekörper wurden an der verwendeten Mischung gemessen.
Der UHPFRC wies im Allgemeinen ein sehr stabiles Verhalten auf und es zeigte sich keine unkontrollierte Zunahme der Verformungen infolge eines Faserauszugs. Lediglich bei einem Probekörper kam es bei einer Last von 79% der aufgebrachten Last am Ende der Vorbelastung zum Versagen. Der Autor sieht dabei eine ungünstige Faserausrichtung als mögliche Ursache des frühzeitigen Versagens des Probekörpers an, was auf einen bedeutenden Einfluss dieses Parameters auf die Tragfähigkeit schließen lässt. Hinsichtlich der Bemessung von gerissenen UHPFRC-Bauteilen unter Dauerlast wurde ein Vorschlag für die Bemessung der Dauerstandfestigkeit ausgearbeitet.
Darüber hinaus wurden Faserauszugversuche durchgeführt und das Verbund-Schlupfverhalten der verwendeten Fasern ermittelt. Einige Probekörper wurden nach uniaxialen Zugversuchen per Computertomographie gescannt, um den Zusammenhang der Fasern im Versagensquerschnitt zur Zugfestigkeit der Probekörper zu untersuchen. Die untersuchten Probekörper wiesen unterschiedliche Zugfestigkeiten auf. Diese konnten durch die verschiedenen Faseranzahlen im Versagensquerschnitt gut abgebildet werden.
The focus of this work is to provide and evaluate a novel method for multifield topology-based analysis and visualization. Through this concept, called Pareto sets, one is capable to identify critical regions in a multifield with arbitrary many individual fields. It uses ideas found in graph optimization to find common behavior and areas of divergence between multiple optimization objectives. The connections between the latter areas can be reduced into a graph structure allowing for an abstract visualization of the multifield to support data exploration and understanding.
The research question that is answered in this dissertation is about the general capability and expandability of the Pareto set concept in context of visualization and application. Furthermore, the study of its relations, drawbacks and advantages towards other topological-based approaches. This questions is answered in several steps, including consideration and comparison with related work, a thorough introduction of the Pareto set itself as well as a framework for efficient implementation and an attached discussion regarding limitations of the concept and their implications for run time, suitable data, and possible improvements.
Furthermore, this work considers possible simplification approaches like integrated single-field simplification methods but also using common structures identified through the Pareto set concept to smooth all individual fields at once. These considerations are especially important for real-world scenarios to visualize highly complex data by removing small local structures without destroying information about larger, global trends.
To further emphasize possible improvements and expandability of the Pareto set concept, the thesis studies a variety of different real world applications. For each scenario, this work shows how the definition and visualization of the Pareto set is used and improved for data exploration and analysis based on the scenarios.
In summary, this dissertation provides a complete and sound summary of the Pareto set concept as ground work for future application of multifield data analysis. The possible scenarios include those presented in the application section, but are found in a wide range of research and industrial areas relying on uncertainty analysis, time-varying data, and ensembles of data sets in general.
The size congruity effect involves interference between numerical magnitude and physical size of visually presented numbers: congruent numbers (either both small or both large in numerical magnitude and physical size) are responded to faster than incongruent ones (small numerical magnitude/large physical size or vice versa). Besides, numerical magnitude is associated with lateralized response codes, leading to the Spatial Numerical Association of Response Codes (SNARC) effect: small numerical magnitudes are preferably responded to on the left side and large ones on the right side. Whereas size congruity effects are ascribed to interference between stimulus dimensions in the decision stage, SNARC effects are understood as (in)compatibilities in stimulus-response combinations. Accordingly, size congruity and SNARC effects were previously found to be independent in parity and in physical size judgment tasks. We investigated their dependency in numerical magnitude judgment tasks. We obtained independent size congruity and SNARC effects in these tasks and replicated this observation for the parity judgment task. The results confirm and extend the notion that size congruity and SNARC effects operate in different representational spaces. We discuss possible implications for number representation.
Diese Arbeit beinhaltet die Synthese zweier cyclischer Amidat-Liganden und die Untersuchung des Koordinationsverhaltens dieser Makrocyclen. Dabei wurden die strukturellen, elektrochemischen und spektroskopischen Eigenschaften der entstandenen Komplexverbindungen untersucht. Um höhere Oxidationsstufen am Metallion besser zu stabilisieren als durch neutrale Liganden, wurden die Liganden H\(_2\)L-Me\(_2\)TAOC und HL-TAAP-\(^t\)Bu\(_2\) hergestellt. Es sind zwölfgliedrige makrocyclische Ringe mit vielen sp\(^2\)-hybridisierten Atomen, die eine sterische Rigidität bedingen. Gleichzeitig besitzen sie zwei trans-ständige, sp\(^3\)-hybridisierte Amin-Donoratome, die eine Faltung entlang der N\(_{Amin}\)-N\(_{Amin}\)-Achse ermöglichen. Die äquatorialen Stickstoffdonoratome werden durch deprotonierte Amid-Gruppen bzw. durch das Stickstoffatom eines Pyridinrings zur Verfügung gestellt. Für beide Liganden konnte eine zufriedenstellende Syntheseroute, mit passablen Ausbeuten etabliert werden. In der Kristallstruktur des Makrocyclus HL-TAAP-\(^t\)Bu\(_2\) wird eine Wanne-Wanne-Konformation beobachtet. Die für eine cis-oktaedrische Koordination an Metallionen benötigte Konformation wird bereits im metallfreien Zustand des Liganden wegen der intramolekularen Wasserstoffbrückenbindungen verwirklicht. Die freie Rotation um die C-C-Bindungen ist bei diesem Liganden nur leicht gehindert, da die diastereotopen H-Atome der Methylengruppen im \(^1\)H-NMR-Spektrum als breite Singuletts in Erscheinung treten. Die Makrocyclen konnten erfolgreich mit Nickel(II)-, Kupfer(II)- und Cobalt(II)-Ionen komplexiert und kristallisiert werden. Dabei wurden zufriedenstellende Ausbeuten erhalten. Ohne weiteren zweifach koordinierenden Coliganden bildet der Ligand H\(_2\)L-Me\(_2\)TAOC stets fünffach koordinierte Mono-chloro-Komplexe. Der Ligand HL-TAAP-\(^t\)Bu\(_2\) bildet sechsfach koordinierte Verbindungen. Durch die Verwendung von zweizähnigen Coliganden wurde für den Makrocyclus H\(_2\)L-Me\(_2\)TAOC eine sechsfache Koordination erzwungen. Wie alle sechsfach koordinierte Verbindungen in dieser Arbeit liegen sie in einer cis-oktaedrischen Koordinationsumgebung vor. Um Vergleichskomplexe zu erhalten, wurden auch mit den Diazapyridinophan-Liganden L-N\(_4\)Me\(_2\) und L-N\(_4\)\(^t\)Bu\(_2\) die entsprechenden Kupfer- und Nickelkomplexe mit den jeweiligen Coliganden synthetisiert. In den Kristallstrukturen sind die entsprechenden Verbindungen der Diazapyridinophan-Liganden generell stärker gefaltet als die der Amidat-Liganden. Durch die starken \( \sigma\)-Donoreigenschaften der Amidatgruppen werden im Allgemeinen kürzere äquatoriale Bindungen zu den Metallionen verursacht. Durch den Vergleich der Bindungslängen mit ähnlichen bekannten high- und low-spin-Cobalt(II)-Komplexen hat sich gezeigt, dass für die Länge der Co-N\(_{Amid}\)-Bindung im high-spin-Zustand Werte von 1,95 bis 1,97 Å gefunden werden. Für den low-spin-Zustand werden Werte zwischen 1,92 und 1,95 Å gefunden. Durch die elektrochemischen Untersuchungen konnte gezeigt werden, dass beim überwiegenden Teil der Verbindungen das Potential der Oxidationen deutlich in der Reihenfolge der Makrocyclen H\(_2\)L-Me\(_2\)TAOC < HL-TAAP-\(^t\)Bu\(_2\) < L-N\(_4\)Me\(_2\) < L-N\(_4\)\(^t\)Bu\(_2\) ansteigt. Das belegt eindeutig die leichtere Oxidierbarkeit der Komplexe mit den negativ geladenen Liganden, die damit höhere Oxidationsstufen besser stabilisieren. Durch die Energie der ersten Anregung in den UV/Vis-Spektren der Nickel(II)-Komplexe ergibt sich die Ligandenfeldstärke der makrocyclischen Liganden etwa in der Reihenfolge H\(_2\)L-Me\(_2\)TAOC ≈ L-N\(_4\)Me\(_2\) > L-N\(_4\)\(^t\)Bu\(_2\) ≈ HL-TAAP-\(^t\)Bu\(_2\).
Novel image processing techniques have been in development for decades, but most
of these techniques are barely used in real world applications. This results in a gap
between image processing research and real-world applications; this thesis aims to
close this gap. In an initial study, the quantification, propagation, and communication
of uncertainty were determined to be key features in gaining acceptance for
new image processing techniques in applications.
This thesis presents a holistic approach based on a novel image processing pipeline,
capable of quantifying, propagating, and communicating image uncertainty. This
work provides an improved image data transformation paradigm, extending image
data using a flexible, high-dimensional uncertainty model. Based on this, a completely
redesigned image processing pipeline is presented. In this pipeline, each
step respects and preserves the underlying image uncertainty, allowing image uncertainty
quantification, image pre-processing, image segmentation, and geometry
extraction. This is communicated by utilizing meaningful visualization methodologies
throughout each computational step.
The presented methods are examined qualitatively by comparing to the Stateof-
the-Art, in addition to user evaluation in different domains. To show the applicability
of the presented approach to real world scenarios, this thesis demonstrates
domain-specific problems and the successful implementation of the presented techniques
in these domains.
Der Fokus der vorliegenden Arbeit liegt auf endlosfaser- und langfaserverstärkten
thermoplastischen Materialien. Hierfür wurde das „multilayered hybrid
(MLH)“ Konzept entwickelt und auf zwei Halbzeuge, den MLH-Roving und die MLHMat
angewendet. Der MLH-Roving ist ein Roving (bestehend aus Endlosfasern), der
durch thermoplastische Folien in mehrere Schichten geteilt wird. Der MLH-Roving
wird durch eine neuartige Spreizmethode mit anschließender thermischen Fixierung
und abschließender mehrfacher Faltung hergestellt. Dadurch können verschiedene
Faser-Matrix-Konfigurationen realisiert werden. Die MLH-Mat ist ein
glasmattenverstärktes thermoplastisches Material, das für hohe Fasergehalte bis 45
vol. % und verschiedene Matrixpolymere, z.B. Polypropylen (PP) und Polyamide 6
(PA6) geeignet ist. Sie zeichnet sich durch eine hohe Homogenität in der
Flächendichte und in der Faserrichtung aus. Durch dynamische Crashversuche mit
auf MLH-Roving und MLH-Mat basierenden Probekörpern wurden das
Crashverhalten und die Performance untersucht. Die Ergebnisse der Crashkörper
basierend auf langfaserverstärktem Material (MLH-Mat) und endlosfaserverstärktem
Material (MLH-Roving) waren vergleichbar. Die PA6-Typen zeigten eine bessere
Crashperformance als PP-Typen.
The present work deals with continuous fiber- and long fiber reinforced thermoplastic
materials. The concept of multilayered hybrid (MLH) structure was developed and
applied to the so-called MLH-roving and MLH-mat. The MLH-roving is a continuous
fiber roving separated evenly into several sublayers by thermoplastic films, through
the sequential processes of spreading with a newly derived equation, thermal fixing,
and folding. It was aimed to satisfy the variety of material configuration as well as the
variety in intermediate product. The MLH-mat is a glass mat reinforced thermoplastic
(GMT)-like material that is suitable for high fiber contents up to 45 vol. % and various
matrix polymers, e.g. polypropylene (PP), polyamide 6 (PA6). It showed homogeneity
in areal density, random directional fiber distribution, and reheating stability required
for molding process. On the MLH-roving and MLH-mat materials, the crash behavior
and performance were investigated by dynamic crash test. Long fiber reinforced
materials (MLH-mat) were equivalent to continuous fiber reinforced materials (MLHroving),
and PA6 grades showed higher crash performance than PP grades.
In der vorliegenden Arbeit wurde ein glasfaserverstärkter Rotor für einen Elektromotor
entwickelt, welcher bei elektrisch angetriebenen Fahrzeugen verwendet werden
soll. Ziel ist eine kostengünstige Serienversion des Motors auf Basis eines bereits
bestehenden Baumusters. Im Wesentlichen waren dabei zwei Anforderungsfelder zu
erfüllen.
Als erstes mussten Verformungsrestriktionen unter Betriebslast eingehalten werden.
Es wurde ein Finite-Elemente-(FE-) Modell erstellt, wobei eine Schnittstelle zwischen
der Prozesssimulation der Fertigung und dem FE-Modell geschrieben wurde, um die
Informationen zum Lagenaufbau zu transferieren. Sowohl in der Analytik als auch in
der numerischen Simulation hat sich gezeigt, dass bei der im Betrieb auftretenden
Fliehkraft die gewünschte Verformung nur mit Hilfe der zu verwendenden Glasfaser
nicht eingehalten werden kann. Daraufhin wurde ein Konzept entwickelt, um die
Verformung mittels einer adaptiven Steuerung mit Formgedächtnislegierungen zu
begrenzen. Zunächst wurden Konzepte entwickelt, wie die Formgedächtnislegierung
in Drahtform an den Rotor angebunden werden kann. Die Konzepte wurden experimentell
überprüft, wobei gleichzeitig das Verhalten der Formgedächtnislegierung
ermittelt wurde, um daraus ein numerisches Simulationsmodell zu entwickeln,
welches mit dem Modell des Rotors verknüpft wurde. Dabei zeigte sich, dass dieses
Konzept das Verformungsverhalten positiv beeinflusst und in Abhängigkeit von der
verwendeten Menge die Verformungsrestriktion eingehalten werden kann.
Als zweites Anforderungsfeld wurde die Lasteinleitung zwischen dem Rotor und der
Abtriebswelle ausgelegt. Dafür wurde ein Konzept für eine Verschraubung als
Sonderform einer Bolzenverbindung erarbeitet, bei denen ein Gewinde in der
dickwandigen glasfaserverstärkten Kunststoff (GFK-) Struktur des Rotors mittels insitu-
Herstellung eingebracht wird. Um die Vor- und Nachteile eines solchen geformten
Gewindes gegenüber einer geschnittenen Variante zu ermitteln, wurden umfangreiche
quasistatische Versuche und zyklische Lebensdauerversuche an zwei verschiedenen
Laminaten und zwei verschiedenen Gewindetypen durchgeführt. Gemessen
wurde jeweils die (Ermüdungs-) Festigkeit bei axialer Kraft und bei Scherkraft.
Dabei zeigte sich, dass bei quasistatischer axialer Belastung die geformten
Gewinde im Mittel eine geringere Festigkeit aufweisen als die geschnittene Variante.Bei der für den Anwendungsfall relevanteren Scherbelastung konnten im Mittel
jedoch Festigkeitssteigerungen gemessen werden. Bei der Ermüdungsfestigkeit
waren die Vorteile abhängig von dem geprüften Lastniveau. Die Wöhlerlinien bei den
geformten Gewinden haben im Mittel einen deutlich flacheren Verlauf. Für die
meisten Vergleichspaare bedeutet dies, dass die geschnittene Variante bei sehr
hohen Lastniveaus beim Einstufenversuch eine größere Versagensschwingspielzahl
erreicht als die geformte Variante. Bei Verringerung der Last haben ab einem
individuellen Kreuzungspunkt jedoch die geformten Gewinde eine größere Schwingspielzahl
erreicht.
Abschließend wurde ein voll parametrisches numerisches Einheitszellen-Modell
erstellt, welches sowohl die geformten als auch die geschnittenen Gewinde abbilden
kann. Hierbei wurden auch Degradationsmodelle integriert, die ein verändertes
Werkstoffverhalten nach dem Auftreten insbesondere von Zwischenfaserbrüchen
und Delaminationen abbilden sollen. Validiert wurden die Modelle, indem die quasistatischen
Versuche nachgebildet wurden und die globale Verformung mit den
optischen Messungen aus den Versuchsreihen verglichen wurden. Dabei zeigte sich
eine gute Übereinstimmung bis relativ nah an die Schraube heran. In diesem Bereich
war die Simulation minimal zu steif, was auf eine noch nicht ausreichende Degradation
in der Simulation hindeutet.
In this study a GFRP rotor of an electric engine is developed. The engine shall be
used in electric drive trains in cars. Major aim of the study is to develop a low-cost
version of an existing prototype for serial production with a relatively high output of at
least 50.000 units per annum. Two main aims must be achieved.
First of all, the structural deformation must be limited under operating load. To predict
the deformation, a finite element model was set up. To import the lay-up information
from a filament winding process simulation software into the FE-model, a compilertool
was written. The numerical simulation and an analytical calculation have shown
that the GFRP-laminate alone is not able to limit the radial deformation caused by
centrifugal force under rotation. So a different approach was developed, using an
adaptive control with shape memory alloys. For this, a concept was investigated, how
the shape memory alloy wires can be attached on the GFRP structure. The strengths
of the different concepts were measured experimentally and simultaneously the
force-temperature behavior of the wire was investigated. Out of these empirical
studies, a material model of the shape memory alloys for the numerical simulation
was developed and combined with the existing simulation model of the rotor. The
simulation showed that the shape memory alloys can be used to decrease the radial
deformation below the given limits.
The second main requirement was to develop a proper load transfer from the metallic
output shaft into the GFRP rotor. For serial rotor production with a high output, the
direct forming of threads in the thick-walled GFRP was investigated. The direct
forming of threads reduces the manufacturing costs by avoiding wear of drilling and
cutting tools, although with a slight increase of tooling costs which are less relevant
due to the economies of scale of high output manufacturing processes as the
filament winding process. In this study the mechanical behavior of directly formed
threads was compared to conventionally tapped threads. Two different GFRP
laminate layups were investigated, a cross-ply-laminate and a quasi-isotropic
laminate, both with a thickness of approximately 12 mm, impregnated with epoxy
resin. A standard metrical thread and a more coarse thread were also compared,
both with an outer diameter of 8 mm. Two different tests were investigated: a pullout
test of the screw perpendicular to the laminate and a bearing-pull-through-test in the
laminate plane.
The quasi static test results show differences in fracture behavior, but in general very
good strength and stiffness behavior compared to conventionally cut threads in thickwalled
GFRP. The deformations of the surface of the GFRP laminates during the
tests were measured with a three dimensional digital image correlation system. The
measured deformations were used to validate the numerical simulations of the tests.
These simulations were parametrical built up in order to adapt them easily to other
application cases. They use a degradation mechanism to simulate the connection
behavior very close to the total fraction and show a very good correlation to the
experimental results.
As a second step, the fatigue behavior of the connection was also investigated. To
compare the cyclic performance of the formed and cut threads for both kinds of tests,
for both laminates and both threads - the metric and the coarse ones -, Woehler
diagrams with a load aspect ratio of R=0.1 were measured. Especially the high cycle
fatigue behavior with a relatively low maximum load, as commonly used in a real
structure, improves a lot when forming the threads.
At last a full parametrical numerical model of the laminate with both the formed and the cut thread was generated. Also algorithms for material degradation were integrated.
They can represent the behavior of the material after the appearance of inter
fiber failures or delamination. The validation of the numerical model was achieved by
remodeling the experimental tests and comparing the global deformation of the
model with the optical measurement of the quasi static tests. The deformation of the
simulation was very congruent to the tests, only very close to the screw the simulation
shows a slightly more stiff behavior. This indicates a not sufficient degradation of
the simulation due to damage effects in the material.
Aufgrund eines festgestellten Bedarfs wurde die Entwicklung eines neuen Wahlpflichtmoduls zum Thema Medienpädagogik im Rahmen des Studiengangs Schulmanagement initiiert und zum Sommersemester 2017 am DISC der Technischen Universität Kaiserslautern erstmals im Rahmen einer Erprobungsphase angeboten. Dieser Bericht legt das Vorgehen und die Ergebnisse der Evaluation des Moduls dar und gibt Handlungsempfehlungen zur Weiterentwicklung.
The gas phase infrared and fragmentation spectra of a systematic group of trimetallic oxo-centered
transition metal complexes are shown and discussed, with formate and acetate bridging ligands and
pyridine and water as axial ligands.
The stability of the complexes, as predicted by appropriate ab initio simulations, is demonstrated to
agree with collision induced dissociation (CID) measurements.
A broad range of DFT calculations are shown. They are used to simulate the geometry, the bonding
situation, relative stability and flexibility of the discussed complexes, and to specify the observed
trends. These simulations correctly predict the trends in the band splitting of the symmetric and
asymmetric carboxylate stretch modes, but fail to account for anharmonic effects observed specifically
in the mid IR range.
The infrared spectra of the different ligands are introduced in a brief literature review. Their changes
in different environments or different bonding situations are discussed and visualized, especially the
interplay between fundamental-, overtone-, and combination bands, as well as Fermi resonances
between them.
A new variation on the infrared multi photon dissociation (IRMPD) spectroscopy method is proposed
and evaluated. In addition to the commonly considered total fragment yield, the cumulative fragment
yield can be used to plot the wavelength dependent relative abundance of different fragmentation
products. This is shown to include valuable additional information on the excited chromophors, and
their coupling to specific fragmentation channels.
High quality homo- and heterometallic IRMPD spectra of oxo centered carboxylate complexes of
chromium and iron show the impacts of the influencing factors: the metal centers, the bridging ligands,
their carboxylate stretch modes and CH bend modes, and the terminal ligands.
In all four formate spectra, anharmonic effects are necessary to explain the observed spectra:
combination bands of both carboxylate stretch modes and a Fermi resonance of the fundamental of
the CH stretch mode, and a combination band of the asymmetric carboxylate stretch mode with the
CH bend mode of the formate bridging ligand.
For the water adduct species, partial hydrolysis is proposed to account for the changes in the observed
carboxylic stretch modes.
Appropriate experiments are suggested to verify the mode assignments that are not directly explained
by the ab initio calculations, the available experimental results or other means like deuteration
experiments.
Faser-Kunststoff-Verbunde (FKV) sind in der Luftfahrt etabliert, wohingegen andere
Branchen diese aufgrund der hohen Kosten nur zögerlich einsetzen. Die hohen Betriebskosten
von Flugzeugen, die sich vorrangig durch Leichtbau reduzieren lassen,
erlauben kostenintensivere Lösungen als die Kostenstrukturen in anderen Branchen.
Die Mehrkosten sind neben dem Leichtbau der entscheidende Faktor für den Einsatz
von FKV-Strukturen außerhalb der Luftfahrtbranche. Während in der Luftfahrtbranche
üblicherweise Niete zur Krafteinleitung eingesetzt werden und diese nur eine
Demontage eines Bauteils durch Aufbohren zulassen, genügen Niete den Ansprüchen
anderer Branchen nicht, da ein hoher Demontageaufwand durch das Aufbohren
hohe Kosten mit sich zieht. Aus diesem Grund erfordert es preisgünstige und qualitative
Lösungen, die eine lösbare Verbindung ermöglichen. In den meisten Branchen
werden daher, im Gegensatz zur Luftfahrt, traditionell reibschlüssige Schraubenverbindungen
für metallische Bauteile verwendet. Für reibschlüssige Schraubenverbindungen,
die zur Krafteinleitung in FKV-Strukturen genutzt werden, sind dem Stand
der Forschung nach kaum Erkenntnisse vorhanden.
Daher ist es Gegenstand dieser Arbeit aufzuzeigen, wie durch eine Erhöhung des
Reibwerts bei reibschlüssigen Krafteinleitungen in FKV-Bauteilen eine Verbesserung
der statischen und zyklischen Verbindungsfestigkeit erreicht werden kann. Um den
zuverlässigen Einsatz von reibschlüssigen Schraubenverbindungen zu ermöglichen,
werden außerdem die maximal zulässige Flächenpressung und der Vorspannkraftverlust
an FKV-Proben ermittelt. Dabei bilden experimentelle Ergebnisse eine Basis,
anhand derer aufgezeigt wird, inwieweit analytische Modelle genutzt werden können,um die reibschlüssige Krafteinleitung in FKV abzubilden.
Zunächst wird der Haftreibwert zwischen Stahl und FKV experimentell untersucht,
um Konzepte zur Steigerung des Reibwerts zu quantifizieren. Durch die experimentelle
Ermittlung einer maximal zulässigen Flächenpressung für die verwendeten FKVMaterialien
werden Schädigungen infolge zu hoher Vorspannkräfte vermieden. Dazu
werden FKV- Proben mit einem Stempel belastet und mit Hilfe der Schallemissionsmethode
Schädigungen detektiert, zu dem Zweck eine Belastungsgrenze zu definieren. Versuche zur Bestimmung des Vorspannkraftverlusts an FKV-Proben zeigen,
dass die Vorspannkraft durch Setzen und Kriechen zwar reduziert wird, dies aber in
vertretbarem Maße. Darüber hinaus lässt sich in den Versuchen beobachten, dass
das Setzen deutlich von der Oberflächenbeschaffenheit bestimmt wird. Um die Einflüsse
des Matrixwerkstoffs, des Reibwerts, der Passung und der Vorspannkraft auf
die Kraftübertragung in der Schraubverbindung zu prüfen, werden außerdem
doppellaschige Zugscherversuche durchgeführt.
An geklemmten FKV-Bauteilen im Fahrradbau lassen sich Defizite bei der Auslegung
dieser Bauteile und ihrer Anbindungstechnologie feststellen. Da der Verbindung zwischen
Vorbau und Gabelschaft besondere sicherheitsrelevante Bedeutung zukommt,
wird eine marktübliche Gabelschaft-Vorbau-Klemmung im Rahmen dieser Arbeit experimentell
und numerisch auf die Belastungen durch die Montage sowie im Betrieb
untersucht. Es kann dargelegt werden, dass ein komplexer Belastungszustand in der
genannten Klemmverbindung vorliegt, der numerisch abgebildet werden kann. Auf
Basis des validierten Finite-Element-Modells kann gezeigt werden, dass die Steigerung
des Reibwerts ein deutliches Potential aufweist um die Werkstoffanstrengung
zu reduzieren. Zur experimentellen Absicherung dieser Beobachtung, werden quasistatische
und zyklische Untersuchungen an Vorbau-Gabelschaft-Baugruppen durchgeführt,
bei denen der Reibwert durch die Applikation von Schmierfett und
Carbonmontagepaste variiert wird. Durch die Verwendung von Carbonmontagepaste
bzw. bei einem höheren Reibwert steigt sowohl die quasi-statische Festigkeit als
auch die Lebensdauer im Vergleich zum Einsatz von Schmierfett deutlich an.
Fiber reinforced plastics (FRP) are well established materials in the aviation industry,
whereas in other industries these materials are not yet this commonly used due to
the comparatively high costs. The high operating costs of aircrafts can be reduced
primarily through lightweight design, which allows the choice of more expensive solutions
than in other industries. The additional costs are beside the weight savings the
deciding factor for the use of FRP structures beyond the aviation sector. Since normally
rivets are used in the aviation industry to join components, the dismantling of
these riveted structures needs drilling. Hence rivets are insufficient for the demands
of other sectors due to the high disassembly costs caused by the high disassembly
effort. For this reason affordable solutions that permit an easy disassembly procedure
are essential for a wider application of FRP structures. Therefore – in most sectors
– preloaded bolted joints are used for the assembly of metallic components, in
contrast to aviation. For preloaded bolted joints in combination with FRP structures
almost no information is available by the current state of scientific knowledge
Therefore in this work it is investigated how an improvement of the static and cyclic
connection strength can be achieved by increasing the coefficient of friction at preloaded
bolted joints on FRP components. To enable a reliable application of preloaded
bolted joints the maximum allowable surface pressure and the loss of the preload
force of FRP specimens are determined. Therefore experimental results provide the
basis to study if analytical computation can be used to describe bolted joints on FRP
structures.
The coefficient of friction between steel and FRP is experimentally investigated in
order to quantify concepts that aim to increase the coefficient of friction. An experimental
determination of the maximum permissible surface pressure of the used FRP
materials avoids damage by excessive bolt preload. Therefore FRP specimens are
tested and a simultaneous detection of damage is performed by using the acoustic
emission method.
An experimentalinvestigation of the loss of bolt preload shows that the preload is
reduced by embedding and material relaxation but in an acceptable manner. In addition it can be observed that the embedding of the contact surfaces is significantly dependent
on the surface condition of the specimens. To analyze the influence of the
matrix material, the coefficient of friction, the clearance and the bolt preload to a bolted
joint, double lap tensile shear tests are performed.
Clamped FRP components used on bicycles show shortcomings in the design of these
components and their connection technology. Since the connection between stem
and steerer has a significant impact on safety, a standard stem/steerer connection is
investigated both experimentally and numerically considering the stresses during the
assembling as well as during operation. It can be demonstrated that this connection
has a complex load condition and a finite element analysis can describe this connection
sufficiently. Based on the validated finite element model it can be shown that an
increasing coefficient of friction has a significant potential for the reduction of the material
effort of the FRP steerer.
To validate these theoretical observations, quasi-static and cyclic tests on
stem/steerer assemblies are carried out. Thereby the coefficient of friction is varied
by the application of grease and carbon assembly paste. By the use of carbon assembly
paste (high coefficient of friction) both the quasi-static strength as well as the
operating life increases in comparison to the use of grease (low coefficient of friction).
Die Einführung des Internets hat einen stetigen Wandel des täglichen,
sowie beruflichen Alltags verursacht. Hierbei ist eine deutliche Verlagerung
in den virtuellen Raum (Internet) festzustellen. Zusätzlich hat
die Einführung von sozialen Netzwerken, wie beispielsweise Facebook
das Verlangen des Nutzers immer „online“ zu sein, deutlich verstärkt.
Hinzu kommen die kontinuierlich wachsenden Datenmengen, welche beispielsweise
durch Videostreaming (YouTube oder Internet Protocol Television
(IPTV)) oder den Austausch von Bildern verursacht werden.
Zusätzlich verursachen neue Dienste, welche beispielsweise im Rahmen
vom Internet der Dinge und auch Industrie 4.0 eingeführt werden, zusätzliche
Datenmengen. Aktuelle Technologien wie Long Term Evolution
Advanced (LTE-A) im Funkbereich und Very High Speed Digital Subsciber
Line (VDSL) beziehungsweise Glasfaser in kabelgebundenen Netzen,
versuchen diesen Anforderungen gerecht zu werden.
Angesichts der steigenden Anforderungen an die Mobilität des Nutzers,
ist die Verwendung von Funktechnologien unabdingbar. In Verbindung
mit dem stetig wachsenden Datenaufkommen und den ansteigenden
Datenraten ist ein wachsender Bedarf an Spektrum, also freien,
beziehungsweise ungenutzten Frequenzbereichen einhergehend. Für die
Identifikation geeigneter Bereiche müssen allerdings eine Vielzahl von
Parametern und Einflussfaktoren betrachtet werden. Einer der entscheidenden
Parameter ist die entstehende Dämpfung im betrachteten Frequenzbereich,
da diese mit steigender Frequenz größer wird und somit
die resultierende Abdeckung bei gleichbleibender Sendeleistung sinkt.
In aktuellen Funksystemen werden Frequenzen < 6 GHz verwendet, da
diese von den Ausbreitungseigenschaften geeignete Eigenschaften aufweisen.
Des Weiteren müssen vorhandene Nutzungsrechte, Inhaber des
Spektrums, Nutzungsbedingungen und so weiter im Vorfeld abgeklärt
werden. In Deutschland wird die Koordination von der Bundesnetzagentur
vorgenommen.
Aufgrund der Vielfalt der vorhandenen Dienste und Anwendungen ist
es leicht ersichtlich, dass der Frequenzbereich < 6 GHz stark ausgelastet
ist. Neben den kontinuierlich ausgelasteten Diensten wie zum Beispiel
Long Term Evolution (LTE) oder Digital Video Broadcast (DVB), gibt
es spektrale Bereiche, die nur eine geringe zeitliche Auslastung aufweisen.
Markant hierfür sind Frequenzbereiche, welche beispielsweise ausschließlich
für militärische Nutzung reserviert sind. Bei genauerer Betrachtung
fällt auf, dass sich dies nicht ausschließlich auf den zeitlichen Bereich
beschränkt, vielmehr ergibt sich eine Kombination aus zeitlicher und
räumlicher Beschränkung, da die Nutzung meist auf einen räumlichen
Bereich eingrenzbar ist. Eine weitere Einschränkung resultiert aus der
derzeit starren Vergabe von Frequenzbereichen. Die Zuteilung basiert
auf langwierigen Antragsverfahren und macht somit eine kurzfristige variable
Zuteilung unmöglich.
Um diesem Problem gerecht zu werden, erfolgt im Rahmen dieser Arbeit
die Entwicklung eines generischen Spektrum-Management-Systems
(SMSs) zur dynamischen Zuteilung vorhandener Ressourcen. Eine Anforderung
an das System ist die Unterstützung von bereits bekannten
Spektrum Sharing Verfahren, wie beispielsweise Licensed Shared Access
(LSA) beziehungsweise Authorized Shared Access (ASA) oder Spectrum
Load Smoothing (SLS). Hierfür wird eine Analyse der derzeit bekannten
Sharing Verfahren vorgenommen und diese bezüglich ihrer Anwendbarkeit
charakterisiert. DesWeiteren werden die Frequenzbereiche unterhalb
6 GHz hinsichtlich ihrer Verwendbarkeiten und regulatorischen Anforderungen
betrachtet. Zusätzlich wird ein erweiterter Anforderungskatalog
an das Spektrum-Management-System (SMS) entwickelt, welcher
als Grundlage für das Systemdesign verwendet wird. Essentiell ist hierbei,
dass alle (potentiellen) Nutzer beziehungsweise Inhaber eines spektralen
Bereiches die Funktionalität eines derartigen Systems verwenden
können. Hieraus ergibt sich bereits die Anforderung der Skalierbarkeit
des Systems. Zur Entwicklung einer geeigneten Systemarchitektur werden
bereits vorhandene Lösungsansätze zur Verwaltung und Speicherung
von Daten hinsichtlich ihrer Anwendbarkeit verglichen und bewertet.
Des Weiteren erfolgt die Einbeziehung der geografischen Position.
Um dies adäquat gewährleisten zu können, werden hierarchische Strukturen
in Netzwerken untersucht und auf ihre Verwendbarkeit geprüft.
Das Ziel dieser Arbeit ist die Entwicklung eines Spektrum-Management-
Systems (SMSs) durch Adaption bereits vorhandener Technologien und
Verfahren, sowie der Berücksichtigung aller definierten Anforderungen.
Es hat sich gezeigt, dass die Verwendung einer zentralisierten Broker-
Lösung nicht geeignet ist, da die Verzögerungszeit einen exponentiellförmigen
Verlauf bezüglich der Anzahl der Anfragen aufweist und somit
nicht skaliert. Dies kann mittels einer Distributed Hash Table (DHT)-
basierten Erweiterung überwunden werden ohne dabei die Funktionalität
der Broker-Lösung einzuschränken. Für die Einbringung der Geoinformation
hat sich die hierarchische Struktur, vergleichbar zum Domain
Naming Service (DNS) als geeignet erwiesen.
Als Parameter für die Evaluierung hat sich die resultierende Zugriffszeit,
das heißt die Zeit welche das System benötigt um Anfragen zu
bearbeiten, sowie die resultierende Anzahl der versorgbaren Nutzer herausgestellt.
Für die Simulation wird ein urbanes Areal mit fünf Gebäuden
betrachtet. In der Mitte befindet sich ein sechsstöckiges Firmengebäude,
welches in jedem Stockwerk mit einem Wireless Local Area Network Access
Point (WLAN-AP) ausgestattet ist. Umliegend befinden sich vier
Privathäuser, welche jeweils mit einem WLAN-AP ausgestattet sind.
Das komplette Areal wird von drei Mobilfunkbetreibern mit je einer
Basisstation (BS) versorgt. Als Ausgangspunkt für die Evaluierung erfolgt
der Betrieb ohne SMS. Aus den Ergebnissen wird deutlich, dass
eine Überlastung der Long Term Evolution Basisstationen (LTE-BSen)
vorliegt (im Speziellen bei Betreiber A und B). Im zweiten Durchlauf
wird das Szenario mit einem SMS betrachtet. Zusätzlich kommen in diesem
Fall noch Mikro Basisstationen (Mikro-BSen) zum Einsatz, welche
von der Spezifikation vergleichbar zu einem Wireless Local Area Network
(WLAN) sind. Hier zeigt sich ein deutlich ausgewogeneres Systemverhalten.
Alle BSen und Access Points (APs) befinden sich deutlich
unterhalb der Volllastgrenze.
Die Untersuchungen im Rahmen dieser Arbeit belegen, dass ein heterogenes,
zeitweise überlastetes Funksystem, vollständig harmonisiert
werden kann. Des Weiteren ermöglicht der Einsatz eines SMSs die effiziente
Verwendung von temporär ungenutzten Frequenzbereichen (sogenannte
White- und Gray-spaces).
Destructive diseases of the lung like lung cancer or fibrosis are still often lethal. Also in case of fibrosis in the liver, the only possible cure is transplantation.
In this thesis, we investigate 3D micro computed synchrotron radiation (SR\( \mu \)CT) images of capillary blood vessels in mouse lungs and livers. The specimen show so-called compensatory lung growth as well as different states of pulmonary and hepatic fibrosis.
During compensatory lung growth, after resecting part of the lung, the remaining part compensates for this loss by extending into the empty space. This process is accompanied by an active vessel growing.
In general, the human lung can not compensate for such a loss. Thus, understanding this process in mice is important to improve treatment options in case of diseases like lung cancer.
In case of fibrosis, the formation of scars within the organ's tissue forces the capillary vessels to grow to ensure blood supply.
Thus, the process of fibrosis as well as compensatory lung growth can be accessed by considering the capillary architecture.
As preparation of 2D microscopic images is faster, easier, and cheaper compared to SR\( \mu \)CT images, they currently form the basis of medical investigation. Yet, characteristics like direction and shape of objects can only properly be analyzed using 3D imaging techniques. Hence, analyzing SR\( \mu \)CT data provides valuable additional information.
For the fibrotic specimen, we apply image analysis methods well-known from material science. We measure the vessel diameter using the granulometry distribution function and describe the inter-vessel distance by the spherical contact distribution. Moreover, we estimate the directional distribution of the capillary structure. All features turn out to be useful to characterize fibrosis based on the deformation of capillary vessels.
It is already known that the most efficient mechanism of vessel growing forms small torus-shaped holes within the capillary structure, so-called intussusceptive pillars. Analyzing their location and number strongly contributes to the characterization of vessel growing. Hence, for all three applications, this is of great interest. This thesis provides the first algorithm to detect intussusceptive pillars in SR\( \mu \)CT images. After segmentation of raw image data, our algorithm works automatically and allows for a quantitative evaluation of a large amount of data.
The analysis of SR\( \mu \)CT data using our pillar algorithm as well as the granulometry, spherical contact distribution, and directional analysis extends the current state-of-the-art in medical studies. Although it is not possible to replace certain 3D features by 2D features without losing information, our results could be used to examine 2D features approximating the 3D findings reasonably well.
Integrationskurslehrkräfte stehen im Bemühen der Bundesrepublik Deutschland um die gesellschaftliche Integration von Neuzugewanderten an „vorderster Front“. Sie erleben Integrationskurse als Orte der interkulturellen Begegnung und müssen gleichzeitig die besonderen Bedingungen des Lernens Erwachsener berücksichtigen. Die Arbeit untersucht mithilfe von Experteninterviews die Frage, welche Herausforderungen für die Lehrkräfte damit verbunden sind und wie sie diesen begegnen. Der Fokus liegt dabei auf dem Umgang mit weiblichen Teilnehmenden. Diese sind zum Zeitpunkt der Untersuchung überwiegend Geflüchtete aus dem arabischen Raum. Im ersten Hauptteil wird sich zunächst mit dem Kulturbegriff und dem Phänomen der Interkulturalität auseinandergesetzt. Konzepte zur interkulturellen Kompetenz werden vorgestellt. Ferner wird beschrieben, wie interkulturelles Lernen in der Erwachsenenbildung erfolgen kann. Die Curricula der Integrationskurse messen den Themen Interkulturalität und Wertevermittlung eine herausragende Bedeutung zu. Die Arbeit zeigt auf, dass an die Qualifikation der Lehrkräfte auf diesem Gebiet jedoch keinerlei verpflichtende Anforderungen gestellt werden. Der zweite Hauptteil der Arbeit umfasst die empirische Untersuchung: eine leitfadengestützte Befragung von acht Integrationskurslehrkräften. Die Auswertung der Interviews erfolgte kategorienbasiert mithilfe der inhaltlich strukturierenden qualitativen Inhaltsanalyse nach Kuckartz unter Verwendung von MAX-QDA-Software. Die Befragung zeigt, dass Integrationskurslehrkräften eine außerordentlich hohe interkulturelle Kompetenz abverlangt wird. Einerseits begegnen ihnen im Kurs lernfreudige Frauen, die an Bildung interessiert sind und eine Berufstätigkeit anstreben. Diese Frauen können ihren Bedürfnissen oft nicht in dem gewünschten Maße nachkommen. Gründe sind Mehrfachbelastungen durch Familienaufgaben, Rollenzuschreibungen durch das Familienumfeld aber auch das Fehlen einer wirkungsvollen Unterstützung der deutschen Behörden. Andererseits treffen die Lehrkräfte auf Teilnehmerinnen, die kein Interesse an Bildung und Beruf zeigen und kaum Lernfortschritte machen. Auf die beschriebene Heterogenität sind die Lehrkräfte weder kulturell noch didaktisch-methodisch vorbereitet. Sie meistern die interkulturellen Herausforderungen aufgrund ihrer biographischen Erfahrungen und mithilfe kollegialer Unterstützung. Allerdings wird deutlich, dass eine (selbst-)reflexive Haltung zu interkulturellen Themen, Wissen über die Herkunftskultur der Teilnehmerinnen sowie Kenntnisse zur Methodik der Wertevermittlung nur selten erworben wurden.
In Anbetracht leistungsschwacher öffentlicher Institutionen im subsaharischen Afrika formulierte die Weltbank in den neunziger Jahren ein Anforderungsprofil an den Staat und die öffentliche Verwaltung. Sie führte wesentliche Ursachen für die sozialen und ökonomischen Fehlentwicklungen im subsaharischen Afrika auf Defizite im institutionellen Umfeld von Staat und Verwaltung zurück. In der Folgezeit avancierte dieses Anforderungsprofil zum entwicklungspolitischen Leitbild des Good Governance.
Heute bildet das Thema einen elementaren Bereich der internationalen Entwicklungszusammenarbeit und einen zentralen Aspekt der entwicklungspolitischen Auseinandersetzung. Insbesondere die unterschiedlichen Auffassungen darüber, inwiefern Demokratisierungsforderungen mit dem Leitbild des Good Governance verknüpft werden sollten, sind immer wieder Gegenstand der wissenschaftlichen und der politischen Diskussion. Deutlich kommt in diesem Zusammenhang die Streitfrage zum Ausdruck, ob die Entwicklung eines Staates Demokratie voraussetzt oder ob die Demokratie umgekehrt vielmehr ein Ergebnis erfolgreicher Entwicklungsprozesse darstellt. Es ist anzumerken, dass die Entwicklungsforschung diese Frage bislang nicht widerspruchsfrei erklären konnte. Darüber hinaus sprechen zahlreiche Länderbeispiele vielmehr dafür, dass die Staatsform grundsätzlich nicht die entscheidende Variable bildet, um klare Erkenntnisse für die Begründung ökonomischen Wachstums bzw. für die Erfolge der Armutsbekämpfung abzuleiten. Es erscheint zunächst folgerichtig, dass die Weltbank in Bezug auf Good Governance keine Demokratisierungsforderungen stellt.
In der vorliegenden Ausarbeitung wird vor diesem Hintergrund untersucht, inwiefern sich die Staatsform eines Landes auf die Existenz der jeweiligen Prinzipien für Good Governance auswirkt. Anhand zweier ökonomisch erfolgreicher afrikanischer Länder wird analysiert, inwiefern entwicklungsförderliche Good Governance-Strukturen unabhängig von der jeweils vorherrschenden Staatsform existieren können. Methodisch wird dabei das Anforderungsprofil der Weltbank auf die Demokratie Mauritius und auf die Autokratie Ruanda angewendet.
Numerical Godeaux surfaces are minimal surfaces of general type with the smallest possible numerical invariants. It is known that the torsion group of a numerical Godeaux surface is cyclic of order \(m\leq 5\). A full classification has been given for the cases \(m=3,4,5\) by the work of Reid and Miyaoka. In each case, the corresponding moduli space is 8-dimensional and irreducible.
There exist explicit examples of numerical Godeaux surfaces for the orders \(m=1,2\), but a complete classification for these surfaces is still missing.
In this thesis we present a construction method for numerical Godeaux surfaces which is based on homological algebra and computer algebra and which arises from an experimental approach by Schreyer. The main idea is to consider the canonical ring \(R(X)\) of a numerical Godeaux surface \(X\) as a module over some graded polynomial ring \(S\). The ring \(S\) is chosen so that \(R(X)\) is finitely generated as an \(S\)-module and a Gorenstein \(S\)-algebra of codimension 3. We prove that the canonical ring of any numerical Godeaux surface, considered as an \(S\)-module, admits a minimal free resolution whose middle map is alternating. Moreover, we show that a partial converse of this statement is true under some additional conditions.
Afterwards we use these results to construct (canonical rings of) numerical Godeaux surfaces. Hereby, we restrict our study to surfaces whose bicanonical system has no fixed component but 4 distinct base points, in the following referred to as marked numerical Godeaux surfaces.
The particular interest of this thesis lies on marked numerical Godeaux surfaces whose torsion group is trivial. For these surfaces we study the fibration of genus 4 over \(\mathbb{P}^1\) induced by the bicanonical system. Catanese and Pignatelli showed that the general fibre is non-hyperelliptic and that the number \(\tilde{h}\) of hyperelliptic fibres is bounded by 3. The two explicit constructions of numerical Godeaux surfaces with a trivial torsion group due to Barlow and Craighero-Gattazzo, respectively, satisfy \(\tilde{h} = 2\).
With the method from this thesis, we construct an 8-dimensional family of numerical Godeaux surfaces with a trivial torsion group and whose general element satisfy \(\tilde{h}=0\).
Furthermore, we establish a criterion for the existence of hyperelliptic fibres in terms of a minimal free resolution of \(R(X)\). Using this criterion, we verify experimentally the
existence of a numerical Godeaux surface with \(\tilde{h}=1\).
The growing computational power enables the establishment of the Population Balance Equation (PBE)
to model the steady state and dynamic behavior of multiphase flow unit operations. Accordingly, the twophase
flow
behavior inside liquid-liquid extraction equipment is characterized by different factors. These
factors include: interactions among droplets (breakage and coalescence), different time scales due to the
size distribution of the dispersed phase, and micro time scales of the interphase diffusional mass transfer
process. As a result of this, the general PBE has no well known analytical solution and therefore robust
numerical solution methods with low computational cost are highly admired.
In this work, the Sectional Quadrature Method of Moments (SQMOM) (Attarakih, M. M., Drumm, C.,
Bart, H.-J. (2009). Solution of the population balance equation using the Sectional Quadrature Method of
Moments (SQMOM). Chem. Eng. Sci. 64, 742-752) is extended to take into account the continuous flow
systems in spatial domain. In this regard, the SQMOM is extended to solve the spatially distributed
nonhomogeneous bivariate PBE to model the hydrodynamics and physical/reactive mass transfer
behavior of liquid-liquid extraction equipment. Based on the extended SQMOM, two different steady
state and dynamic simulation algorithms for hydrodynamics and mass transfer behavior of liquid-liquid
extraction equipment are developed and efficiently implemented. At the steady state modeling level, a
Spatially-Mixed SQMOM (SM-SQMOM) algorithm is developed and successfully implemented in a onedimensional
physical spatial domain. The integral spatial numerical flux is closed using the mean mass
droplet diameter based on the One Primary and One Secondary Particle Method (OPOSPM which is the
simplest case of the SQMOM). On the other hand the hydrodynamics integral source terms are closed
using the analytical Two-Equal Weight Quadrature (TEqWQ). To avoid the numerical solution of the
droplet rise velocity, an analytical solution based on the algebraic velocity model is derived for the
particular case of unit velocity exponent appearing in the droplet swarm model. In addition to this, the
source term due to mass transport is closed using OPOSPM. The resulting system of ordinary differential
equations with respect to space is solved using the MATLAB adaptive Runge–Kutta method (ODE45). At
the dynamic modeling level, the SQMOM is extended to a one-dimensional physical spatial domain and
resolved using the finite volume method. To close the mathematical model, the required quadrature nodes
and weights are calculated using the analytical solution based on the Two Unequal Weights Quadrature
(TUEWQ) formula. By applying the finite volume method to the spatial domain, a semi-discreet ordinary
differential equation system is obtained and solved. Both steady state and dynamic algorithms are
extensively validated at analytical, numerical, and experimental levels. At the numerical level, the
predictions of both algorithms are validated using the extended fixed pivot technique as implemented in
PPBLab software (Attarakih, M., Alzyod, S., Abu-Khader, M., Bart, H.-J. (2012). PPBLAB: A new
multivariate population balance environment for particulate system modeling and simulation. Procedia
Eng. 42, pp. 144-562). At the experimental validation level, the extended SQMOM is successfully used
to model the steady state hydrodynamics and physical and reactive mass transfer behavior of agitated
liquid-liquid extraction columns under different operating conditions. In this regard, both models are
found efficient and able to follow liquid extraction column behavior during column scale-up, where three
column diameters were investigated (DN32, DN80, and DN150). To shed more light on the local
interactions among the contacted phases, a reduced coupled PBE and CFD framework is used to model
the hydrodynamic behavior of pulsed sieve plate columns. In this regard, OPOSPM is utilized and
implemented in FLUENT 18.2 commercial software as a special case of the SQMOM. The dropletdroplet
interactions
(breakage
and
coalescence)
are
taken
into
account
using
OPOSPM,
while
the
required
information
about
the
velocity
field
and
energy
dissipation
is
calculated
by
the
CFD
model.
In
addition
to
this,
the proposed coupled OPOSPM-CFD framework is extended to include the mass transfer. The
proposed framework is numerically tested and the results are compared with the published experimental
data. The required breakage and coalescence parameters to perform the 2D-CFD simulation are estimated
using PPBLab software, where a 1D-CFD simulation using a multi-sectional gird is performed. A very
good agreement is obtained at the experimental and the numerical validation levels.
The Symbol Grounding Problem (SGP) is one of the first attempts to proposed a hypothesis about mapping abstract concepts and the real world. For example, the concept "ball" can be represented by an object with a round shape (visual modality) and phonemes /b/ /a/ /l/ (audio modality).
This thesis is inspired by the association learning presented in infant development.
Newborns can associate visual and audio modalities of the same concept that are presented at the same time for vocabulary acquisition task.
The goal of this thesis is to develop a novel framework that combines the constraints of the Symbol Grounding Problem and Neural Networks in a simplified scenario of association learning in infants. The first motivation is that the network output can be considered as numerical symbolic features because the attributes of input samples are already embedded. The second motivation is the association between two samples is predefined before training via the same vectorial representation. This thesis proposes to associate two samples and the vectorial representation during training. Two scenarios are considered: sample pair association and sequence pair association.
Three main contributions are presented in this work.
The first contribution is a novel Symbolic Association Model based on two parallel MLPs.
The association task is defined by learning that two instances that represent one concept.
Moreover, a novel training algorithm is defined by matching the output vectors of the MLPs with a statistical distribution for obtaining the relationship between concepts and vectorial representations.
The second contribution is a novel Symbolic Association Model based on two parallel LSTM networks that are trained on weakly labeled sequences.
The definition of association task is extended to learn that two sequences represent the same series of concepts.
This model uses a training algorithm that is similar to MLP-based approach.
The last contribution is a Classless Association.
The association task is defined by learning based on the relationship of two samples that represents the same unknown concept.
In summary, the contributions of this thesis are to extend Artificial Intelligence and Cognitive Computation research with a new constraint that is cognitive motivated. Moreover, two training algorithms with a new constraint are proposed for two cases: single and sequence associations. Besides, a new training rule with no-labels with promising results is proposed.
Erfolgreiches Compliance-Management basiert unverzichtbar auf einer gelebten, authentischen, wertegeleiteten Compliance-Kultur als Teil der Organisationskultur. Organisationskulturen sind zwar von außen nicht instruktiv plan- und steuerbar, doch durch gezielte systemische Interventionen beeinflussbar.
Eine nachhaltige Compliance-Kultur beinhaltet die fortwährende Kommunikation der Organisationsmitglieder über individuelle und organisationale Annahmen, Werte, Denk- und Verhaltensmuster und einer daraus resultierenden gemeinsamen Auffassung über die Bedeutung von Compliance in der Organisation.
Wirksame Interventionen systemischer Beratung setzen an den mentalen Modellen an und nicht an formalen Regeln und Kontrollmechanismen. Compliance-Management das vorwiegend auf Kontrolle und damit auf individuelles Fehlverhalten blickt, ignoriert die organisationalen Kontexte und kann aus systemischer Sicht nicht langfristig erfolgreich sein.
Den Führungskräften kommt bei der Verankerung von Compliance in der Organisation besondere Bedeutung zu.
Für systemische Berater*innen gilt es, dem Klientensystem Musterunterbrechungen und neue Handlungsoptionen durch passende Prozessbegleitung und Interventionssetzung zu ermöglichen. Dabei zielen alle Interventionen auf die Reflexion persönlicher und organisationaler mentaler Modelle und die Entwicklung der eigenständigen und verantwortlichen Handlungsfähigkeit der Organisationsmitglieder auf Basis der gemeinsamen Compliance-Kultur.
Compliance ist ein andauernder Change-Prozess und somit Teil der allgemeinen Veränderungsfähigkeit von Organisationen. Dieser Prozess zur integren Organisation muss sowohl auf personaler wie auf organisationaler Ebene stattfinden. Die Wechselwirkungen haben nicht nur Einfluss auf das Thema Compliance, sondern wirken positiv auf das Gesamtsystem als lernende und reflektierende Organisation.
Die systemische Beratung kann das Compliance-Management bei der Verankerung einer Compliance-Kultur in Organisationen nachhaltig unterstützen, indem Beteiligte in den Veränderungsprozess aktiv mit einbezogen werden, neue Perspektiven eröffnet, implizites Wissen sichtbar gemacht und grundlegende Annahmen reflektiert werden.
Congress Report 2018.9-10
(2018)
Congress Report 2018.5-8
(2018)
Der Einstieg in ein kommunales Starkregenrisikomanagement muss über eine fundierte Risikoanalyse erfolgen, die mögliche Gefährdungen, Objektbetroffenheiten und Schadenspotenziale identifiziert und bewertet. GIS-basierte Verfahren stellen hierfür vergleichsweise einfache, effiziente Werkzeuge dar, deren Ergebnisse jedoch erheblich von subjektiven Festlegungen, der Qualität der Eingangsdaten und methodischen Einzelaspekten abhängen. Im Gegensatz zur vergleichsweise zuverlässig quantifizierbaren Gefährdung entzieht sich die Objektvulnerabilität bislang mangels Daten noch einer gebietsweiten Beurteilung. Auch die Ersatzgröße Schadenspotenzial lässt sich nur schwer auf mikroskaliger Ebene erfassen.
Das im Rahmen dieser Arbeit entwickelte Gesamtkonzept einer GIS-basierten Risikoanalyse widmet sich zum einen einer methodischen Vertiefung der einzelnen Arbeitsschritte und analysiert die Auswirkungen unterschiedlicher Festlegungen auf die generierten Ergebnisse. Ein Hauptaugenmerk liegt dabei auf dem Einfluss der Eingangsdaten und deren optimaler Verwertung. Parallel dazu werden die Abbildungsdefizite der Vulnerabilität näher untersucht und Vorschläge für eine methodische Verbesserung der gebietsweiten Schadenspotenzialanalyse ausgearbeitet. Beide Schritte münden in Empfehlungen zur Anwendung sowie zur Ergebnisverwertung im Zuge der weiterführenden Risikokommunikation.
Die Untersuchungen zeigen, dass vor allem die Vorglättung des Oberflächenmodells (DOM) das Gefährdungsergebnis prägt und dass für Senken und Fließwege unterschiedliche DOM-Aufbereitungen erforderlich sind. Ferner darf die methodische Berücksichtigung weiterer gefährdungsrelevanter Parameter nicht die Effizienz und Handhabungsvorteile beeinträchtigen. Die Abbildung von Vulnerabilitäten auf Objektebene scheitert vorrangig an mangelnden Angaben zur Objektanfälligkeit und zur Bewältigungskapazität, während sich Schadenspotenziale sehr grob anhand von Nutzungsdaten abschätzen lassen. Eine bessere Objektivierung der Schadenspotenzialanalyse lässt sich erreichen, wenn dieses getrennt nach Vulnerabilitätsdimensionen bewertet wird und wenn dazu charakteristische Schadenstypen als Hilfsgrößen der Bewertung verwendet werden.
Risikobewertungen sind vorrangig vulnerabilitätsbezogen, d. h. mit Fokus auf möglichen Schadensausmaße und Präventionsmaßnahmen durchzuführen. Dies kann jedoch nur auf Objektebene, konkret durch bzw. mit dem potenziell Betroffenen erfolgen. Damit wird die Risikoanalyse zwangsläufig zu einem gemeinsamen Prozess und Dialog zwischen kommunaler Verantwortung zu Information und Aufklärung auf der einen Seite und individueller Eigenverantwortung und Risikoakzeptanz auf der anderen Seite.
In recent years, enormous progress has been made in the field of Artificial Intelligence (AI). Especially the introduction of Deep Learning and end-to-end learning, the availability of large datasets and the necessary computational power in form of specialised hardware allowed researchers to build systems with previously unseen performance in areas such as computer vision, machine translation and machine gaming. In parallel, the Semantic Web and its Linked Data movement have published many interlinked RDF datasets, forming the world’s largest, decentralised and publicly available knowledge base.
Despite these scientific successes, all current systems are still narrow AI systems. Each of them is specialised to a specific task and cannot easily be adapted to all other human intelligence tasks, as would be necessary for Artificial General Intelligence (AGI). Furthermore, most of the currently developed systems are not able to learn by making use of freely available knowledge such as provided by the Semantic Web. Autonomous incorporation of new knowledge is however one of the pre-conditions for human-like problem solving.
This work provides a small step towards teaching machines such human-like reasoning on freely available knowledge from the Semantic Web. We investigate how human associations, one of the building blocks of our thinking, can be simulated with Linked Data. The two main results of these investigations are a ground truth dataset of semantic associations and a machine learning algorithm that is able to identify patterns for them in huge knowledge bases.
The ground truth dataset of semantic associations consists of DBpedia entities that are known to be strongly associated by humans. The dataset is published as RDF and can be used for future research.
The developed machine learning algorithm is an evolutionary algorithm that can learn SPARQL queries from a given SPARQL endpoint based on a given list of exemplary source-target entity pairs. The algorithm operates in an end-to-end learning fashion, extracting features in form of graph patterns without the need for human intervention. The learned patterns form a feature space adapted to the given list of examples and can be used to predict target candidates from the SPARQL endpoint for new source nodes. On our semantic association ground truth dataset, our evolutionary graph pattern learner reaches a Recall@10 of > 63 % and an MRR (& MAP) > 43 %, outperforming all baselines. With an achieved Recall@1 of > 34% it even reaches average human top response prediction performance. We also demonstrate how the graph pattern learner can be applied to other interesting areas without modification.
SDE-driven modeling of phenotypically heterogeneous tumors: The influence of cancer cell stemness
(2018)
We deduce cell population models describing the evolution of a tumor (possibly interacting with its
environment of healthy cells) with the aid of differential equations. Thereby, different subpopulations
of cancer cells allow accounting for the tumor heterogeneity. In our settings these include cancer
stem cells known to be less sensitive to treatment and differentiated cancer cells having a higher
sensitivity towards chemo- and radiotherapy. Our approach relies on stochastic differential equations
in order to account for randomness in the system, arising e.g., by the therapy-induced decreasing
number of clonogens, which renders a pure deterministic model arguable. The equations are deduced
relying on transition probabilities characterizing innovations of the two cancer cell subpopulations,
and similarly extended to also account for the evolution of normal tissue. Several therapy approaches
are introduced and compared by way of tumor control probability (TCP) and uncomplicated tumor
control probability (UTCP). A PDE approach allows to assess the evolution of tumor and normal
tissue with respect to time and to cell population densities which can vary continuously in a given set
of states. Analytical approximations of solutions to the obtained PDE system are provided as well.
Though environmental inequality research has gained extensive interest in the United States, it has received far less attention in Europe and Germany. The main objective of this book is to extend the research on environmental inequality in Germany. This book aims to shed more light on the question of whether minorities in Germany are affected by a disproportionately high burden of environmental pollution, and to increase the general knowledge about the causal mechanisms, which contribute to the unequal distribution of environmental hazards across the population.
To improve our knowledge about environmental inequality in Germany, this book extends previous research in several ways. First, to evaluate the extent of environmental inequality, this book relies on two different data sources. On the on hand, it uses household-level survey data and self-reports about the impairment through air pollution. On the other hand, it combines aggregated census data and objective register-based measures of industrial air pollution by using geographic information systems (GIS). Consequently, this book offers the first analysis of environmental inequality on the national level that uses objective measures of air pollution in Germany. Second, to evaluate the causes of environmental inequality, this book applies a panel data analysis on the household level, thereby offering the first longitudinal analysis of selective migration processes outside the United States. Third, it compares the level of environmental inequality between German metropolitan areas and evaluates to which extent the theoretical arguments of environmental inequality can explain differing levels of environmental inequality across the country. By doing so, this book not only investigates the impact of indicators derived by the standard strand of theoretical reasoning but also includes structural characteristics of the urban space.
All studies presented in this book confirm the disproportionate exposure of minorities to environmental pollution. Minorities live in more polluted areas in Germany but also in more polluted parts of the communities, and this disadvantage is most severe in metropolitan regions. Though this book finds evidence for selective migration processes contributing to the disproportionate exposure of minorities to environmental pollution, it also stresses the importance of urban conditions. Especially cities with centrally located industrial facilities yield a high level of environmental inequality. This poses the question of whether environmental inequality might be the result of two independent processes: 1) urban infrastructure confines residential choices of minorities to the urban core, and 2) urban infrastructure facilitates centrally located industries. In combination, both processes lead to a disproportionate burden of minority households.
Tables or ranked lists summarize facts about a group of entities in a concise and structured fashion. They are found in all kind of domains and easily comprehensible by humans. Some globally prominent examples of such rankings are the tallest buildings in the World, the richest people in Germany, or most powerful cars. The availability of vast amounts of tables or rankings from open domain allows different ways to explore data. Computing similarity between ranked lists, in order to find those lists where entities are presented in a similar order, carries important analytical insights. This thesis presents a novel query-driven Locality Sensitive Hashing (LSH) method, in order to efficiently find similar top-k rankings for a given input ranking. Experiments show that the proposed method provides a far better performance than inverted-index--based approaches, in particular, it is able to outperform the popular prefix-filtering method. Additionally, an LSH-based probabilistic pruning approach is proposed that optimizes the space utilization of inverted indices, while still maintaining a user-provided recall requirement for the results of the similarity search. Further, this thesis addresses the problem of automatically identifying interesting categorical attributes, in order to explore the entity-centric data by organizing them into meaningful categories. Our approach proposes novel statistical measures, beyond known concepts, like information entropy, in order to capture the distribution of data to train a classifier that can predict which categorical attribute will be perceived suitable by humans for data categorization. We further discuss how the information of useful categories can be applied in PANTHEON and PALEO, two data exploration frameworks developed in our group.
Computational problems that involve dynamic data, such as physics simulations and program development environments, have been an important
subject of study in programming languages. Recent advances in self-adjusting
computation made progress towards achieving efficient incremental computation by providing algorithmic language abstractions to express computations that respond automatically to dynamic changes in their inputs. Selfadjusting programs have been shown to be efficient for a broad range of problems via an explicit programming style, where the programmer uses specific
primitives to identify, create and operate on data that can change over time.
This dissertation presents implicit self-adjusting computation, a type directed technique for translating purely functional programs into self-adjusting
programs. In this implicit approach, the programmer annotates the (toplevel) input types of the programs to be translated. Type inference finds
all other types, and a type-directed translation rewrites the source program
into an explicitly self-adjusting target program. The type system is related to
information-flow type systems and enjoys decidable type inference via constraint solving. We prove that the translation outputs well-typed self-adjusting
programs and preserves the source program’s input-output behavior, guaranteeing that translated programs respond correctly to all changes to their
data. Using a cost semantics, we also prove that the translation preserves the
asymptotic complexity of the source program.
As a second contribution, we present two techniques to facilitate the processing of large and dynamic data in self-adjusting computation. First, we
present a type system for precise dependency tracking that minimizes the
time and space for storing dependency metadata. The type system improves
the scalability of self-adjusting computation by eliminating an important assumption of prior work that can lead to recording spurious dependencies.
We present a type-directed translation algorithm that generates correct selfadjusting programs without relying on this assumption. Second, we show a
probabilistic-chunking technique to further decrease space usage by controlling the fundamental space-time tradeoff in self-adjusting computation.
We implement implicit self-adjusting computation as an extension to Standard ML with compiler and runtime support. Using the compiler, we are able
to incrementalize an interesting set of applications, including standard list
and matrix benchmarks, ray tracer, PageRank, sparse graph connectivity, and
social circle counts. Our experiments show that our compiler incrementalizes existing code with only trivial amounts of annotation, and the resulting
programs bring asymptotic improvements to large datasets from real-world
applications, leading to orders of magnitude speedups in practice.
Trotz der - theoretisch über die konstruktivistische Systemtheorie begründeten und durch die Organisationsforschung empirisch belegten - zentralen Rolle der Prozesse in der Einzelschule für die Gestaltung von Schulentwicklung, werden durch die Bildungspolitik über die Gestaltung der Systemumwelt wesentliche Impulse für diese Entwicklungsprozesse gesetzt, diese rechtlich und im Bereich der Ressourcen ermöglicht oder eben auch auf diesem Wege blockiert.
In der Arbeit wird ein Modell zur Bestimmung wesentlicher Einflussfaktoren auf bildungspolitische Schulreformen im Bereich institutioneller und parteipolitischer Vetospieler, Interessengruppen der Stakeholder, Medien sowie wissenschaftlicher Akteure entwickelt, über das deren Rationalisierungspotential im Sinne einer stärkeren Evidenzbasierung bildungspolitischer Entscheidungen, ihre Einflussstärke und Implementationsstärke bestimmbar werden. Exemplarisch wird dieses Modell im Anschluss auf die institutionelle Neubestimmung der Evidenzbasierung in Baden-Württemberg angewandt.
Die vorliegende Forschung fokussiert den Fachkräfteerhalt im Gesundheitswesen aus erziehungs- und sozialwissenschaftlicher Perspektive. Dabei geht die Untersuchung den Fragen nach, welche Faktoren den Verbleib im Pflegeberuf beeinflussen, inwieweit die Implementierung gesundheitsfördernder Maßnahmen (BGF) innerhalb des Betrieblichen Gesundheitsmanagements (BGM) zum Erhalt im Pflegeberuf beiträgt und welche gesundheitsfördernden Maßnahmen Pflegefachkräfte benötigen, um (weiterhin) im Beruf arbeiten zu können. Erziehungs- und sozialwissenschafliches Erkenntnisinteresse liegt darin, was zur Vermittlung gesundheitsrelevanter Informationen in der Kindheit beigetragen hat und wie diese Aneignungsprozesse den Begriff der individuellen Gesundheit geprägt haben. Die sozialwissenschaftliche Theoriebasis bildet zum einen das Segment des kulturellen Kapitals der „Habitus/Feld-Theorie“ Bourdieus, der als Aneignung von Kulturkapital die Vermittlung vorschulischer Bildung kennzeichnet, die untrennbar mit dem Individuum verbunden ist. Ein weiteres Teilelement der theoretischen Ausgangsbasis fußt auf autopoietischen Aspekten der „System/Umwelt-Theorie“ Luhmanns, der individuelle Selbststeuerungsprozesse für die Aufnahme und Verarbeitung (gesundheitsrelevanter) Informationen verantwortlich macht. Organisationspädagogische Komponenten bilden den Rahmen des theoretischen Modells, die als Verbindung zwischen Individuum und Organisation fungieren und ädaquate Angebots-strukturen zur Vermittlung einer adressatengerechten Gesundheitsförderung anbieten. Über-einstimmend in allen drei Theorieelementen wird die individuelle Systemgeschichte (Biografie) als relevanter Kernaspekt identifiziert, die sich in der Empirie widerspiegelt.
Zur Beantwortung der Forschungsfragen werden sowohl quantitative als auch qualitative Methoden der empirsichen Sozialforschung gewählt; mit einer Reichweite der Analyse von Dokumenten über qualitative Interviews bis hin zur Entwicklung von Typen.
Als bedeutsame empirische Kernkategorie kristallisiert sich die Zuschreibung „Wertschät-zung/Anerkennung“ heraus, die sich bereits im Theorieteil wiederfindet.
Da die Studie „PflegeWert“ (2011) in der Altenpflege durchgeführt wurde, nimmt die vorliegende Forschung ausschließlich klinisch tätige Pflegefachkräfte in den Blick.
Schlüsselbegriffe: Kulturelles Kapital; Autopoiesis; Organisationspädagogik; System-geschichte; Typologie; Wertschätzung
Eine Anpassung von Wasserversorgungs- und Abwasserentsorgungssystemen im ländlichen Raum kann aufgrund vielfältiger Herausforderungen wie demografischen, siedlungsstrukturellen und klimatischen Veränderungen erforderlich werden. Im Zuge dessen können auch die Nachhaltigkeit und Ressourceneffizienz der bestehenden Systeme gesteigert werden. Das Ziel dieser Arbeit ist die Ableitung von Handlungsempfehlungen zur Unterstützung der notwendigen Anpassungsprozesse der Abwasserentsorgung ländlicher Gemeinden. Dazu werden verschiedene Transformationspfade für Abwassersysteme aufgezeigt und analysiert.
In dieser Arbeit wird ein softwaregestütztes Entscheidungs- und Optimierungssystem angewendet und evaluiert, dass optimale Anpassungsmöglichkeiten aufgezeigt. Das gemischt-ganzzahlige lineare Optimierungsmodell berechnet für jede Gemeinde in Abhängigkeit von dem ausgewählten Szenario und vorgegebenen Zielen den optimalen Transformationspfad mit seiner zeitlichen und räumlichen Umsetzung. In den Szenarien werden zukünftige Entwicklungen der Bevölkerung, der Siedlungsstruktur, des Wasserbedarfs, der Kosten technischer Anlagen und des Klimawandels berücksichtigt. Die Zielfunktion bildet sich aus der gewichteten Summe ökonomischer, ökologischer und sozialer Bewertungskriterien. Die beispielhafte Anwendung des Modells erfolgt für zwei repräsentative ländliche Modellkommunen in Rheinland-Pfalz.
Durch eine detaillierte Auswertung und Evaluierung von ausgewählten Kombinationen von Szenarien und Bewertungskriterien kann das Spektrum an möglichen Transformationspfaden von der Erhaltung des zentralen Systems bis hin zu dezentralen und ressourcenorientierten Systemen aufgezeigt werden. Sensitivitätsbetrachtungen zeigen, dass die Auswahl und Gewichtung der Bewertungskriterien und die lokalen Randbedingungen der Gemeinde einen größeren Einfluss auf die resultierende Transformationspfade haben als die Auswahl der Szenarien.
Der Zustand des Entwässerungssystems wie der Anteil alter Kanäle, ein großer Anteil Mischsystem, große Durchmesser und eine große Kanallänge pro Einwohner sowie eine niedrige Siedlungsdichte fördern dezentrale Strukturen und sind geeignete Voraussetzungen für einen Systemwechsel. Bei der Priorisierung der Ziele Flexibilität, Wasserbilanz und Wasserrecycling wird die Dezentralisierung eines Systems mit Kleinkläranlagen favorisiert. Ein ressourcenorientiertes System mit einer Grau- und Schwarzwassertrennung ist nur zukünftig vorteilhaft, wenn die Ziele Wasserrecycling, Nährstoffrecycling und/oder Energieeffizienz priorisiert werden. Wenn ein Systemwechsel vollzogen werden soll, müssen auch die Auswirkungen auf die Wasserversorgung und Abwasserreinigung untersucht werden.
Es kann gezeigt werden, dass bei einer abnehmenden Bevölkerung dezentrale und ressourcenorientierte Systeme im ländlichen Raum eine Alternative darstellen. Zur Begleitung von Transformationsprozessen ist die Verwendung einer adäquaten Methodik zum Aufzeigen von verschiedenen Systemalternativen (z.B. mathematische Optimierung) zielführend.
Berufliche Umbrüche sind Teil der Entwicklung eines Menschen. Sie berühren auch seine Persönlichkeit und seine Identität. Wann kann man von gelingender Identitätsentwicklung sprechen? Woran lässt sich diese festmachen? Kann berufsbiografische Diskontinuität einen gelingenden Beitrag zur Identitätsentwicklung darstellen? Und wenn ja, wie? Was bedeutet es, berufliche Umbrüche nicht nur anzunehmen, sondern auch zu gestalten, damit sie einen positiven Beitrag zur Identitätsentwicklung leisten? Welche Faktoren sind dafür förderlich? Und wie sollten diese Erkenntnisse in der erwachsenenbildnerischen Praxis berücksichtigt werden? Die Arbeit nimmt zunächst den Begriff der Identität in den Blick und wendet sich besonders dem Begriff der Anerkennung zu. Nach Betrachtungen zum Zusammenhang von Identität und Erwerbsarbeit sowie einem Überblick über die Phasen von Erwerbsbiografien werden erwachsenenpädagogische Überlegungen angestellt, die für Transitionsprozesse benötigte Kompetenzen ins Zentrum stellen und Konsequenzen für die Arbeit in Einrichtungen der Erwachsenenbildung darstellen.
The transfer of substrates between to enzymes within a biosynthesis pathway is an effective way to synthesize the specific product and a good way to avoid metabolic interference. This process is called metabolic channeling and it describes the (in-)direct transfer of an intermediate molecule between the active sites of two enzymes. By forming multi-enzyme cascades the efficiency of product formation and the flux is elevated and intermediate products are transferred and converted in a correct manner by the enzymes.
During tetrapyrrole biosynthesis several substrate transfer events occur and are prerequisite for an optimal pigment synthesis. In this project the metabolic channeling process during the pink pigment phycoerythrobilin (PEB) was investigated. The responsible ferredoxin-dependent bilin reductases (FDBR) for PEB formation are PebA and PebB. During the pigment synthesis the intermediate molecule 15,16-dihydrobiliverdin (DHBV) is formed and transferred from PebA to PebB. While in earlier studies a metabolic channeling of DHBV was postulated, this work revealed new insights into the requirements of this protein-protein interaction. It became clear, that the most important requirement for the PebA/PebB interaction is based on the affinity to their substrate/product DHBV. The already high affinity of both enzymes to each other is enhanced in the presence of DHBV in the binding pocket of PebA which leads to a rapid transfer to the subsequent enzyme PebB. DHBV is a labile molecule and needs to be rapidly channeled in order to get correctly further reduced to PEB. Fluorescence titration experiments and transfer assays confirmed the enhancement effect of DHBV for its own transfer.
More insights became clear by creating an active fusion protein of PebA and PebB and comparing its reaction mechanism with standard FDBRs. This fusion protein was able to convert biliverdin IXα (BV IXα) to PEB similar to the PebS activity, which also can convert BV IXα via DHBV to PEB as a single enzyme. The product and intermediate of the reaction were identified via HPLC and UV-Vis spectroscopy.
The results of this work revealed that PebA and PebB interact via a proximity channeling process where the intermediate DHBV plays an important role for the interaction. It also highlights the importance of substrate channeling in the synthesis of PEB to optimize the flux of intermediates through this metabolic pathway.
Im Fokus dieser Promotionsarbeit stand die Synthese neuer kationischer Eisenkomplexe, die
sowohl einen Cyclopentadienyl-, als auch einen Phenylliganden besitzen. Der Sechsringligand
wurde dabei mit stickstoff- oder phosphorhaltigen Substituenten funktionalisiert. Dabei konnten
erstmals Eisenarenkomplexe mit Azidobenzolliganden isoliert und charakterisiert werden. Die
Umsetzung mit heterocyclischen Nucleophilen zeigte bei den 1,2,3-Triazolen die Möglichkeit in
1- und 2-Position eine Bindungsknüpfung einzugehen. Dies konnte durch die Verwendung von
Imidazolidsalzen umgangen werden und so konnte eine Reihe mono- und disubstituierter
Eisenkomplexe mit Methylimidazol und Benzimidazol synthetisiert werden. Durch Alkylierung und
Benzylierung gelang auf diesem Weg der Zugang zu di- und trikationischen Eisenarenkomplexen,
welche die Vorstufe zu NHC-Komplexen bilden. Für die Funktionalisierung mit phosphorhaltigen
Gruppen konnte ein Syntheseweg erarbeitet und auf disubstituierte Komplexe übertragen werden.
Es gelang durch die Koordination von Gold einen kationischen heterobimetallischen Komplex zu
synthetisieren und vollständig zu charakterisieren. Dieser zeigte in mehreren
Cyclisierungsreaktionen hohe katalytische Aktivität, welche über der literaturbekannter
Katalysatoren lag. Mitunter konnten vergleichbare Umsätze unter milderen Bedingungen erzielt
werden.
This thesis consists of five chapters. Chapter one elaborates on the principle of cognitive consistency and provides an overview of what extant research refers to as cognitive consistency theories (e.g., Abelson et al., 1968; Harmon-Jones & Harmon-Jones, 2007; Simon, Stenstrom, & Read, 2015). Moreover, it describes the most prominent theoretical representatives in this context, namely balance theory (Heider, 1946, 1958), congruity theory (Osgood & Tannenbaum, 1955), and cognitive dissonance theory (Festinger, 1957). Chapter one further outlines the role of individuals’ preference for cognitive consistency in the context of financial resource acquisition, the recruitment of employees and the acquisition of customers in the entrepreneurial context.
Chapter two is co-authored by Prof. Dr. Matthias Baum and presents two separate studies in which we empirically investigate the hypothesis that social entrepreneurs face a systematic disadvantage, compared to for-profit entrepreneurs, when seeking to acquire financial resources. Further, our work goes beyond existing research by introducing biased perceptions as a factor that may constrain social enterprise resource acquisition and therefore possibly stall the process of social value creation. On the foundation of role congruity theory (Eagly & Karau, 2002), we emphasize on the question whether social entrepreneurs provide signals which are less congruent with the stereotype of successful entrepreneurs and, in such, are perceived as less competent. We further test whether such biased competency perceptions feed forward into a lower probability to receive funding.
Chapter three is also co-authored by Prof. Dr. Matthias Baum as well as by Eva Henrich. The aim of this chapter is to further our understanding of the early recruitment phase and to contribute to the current debate about how firms should orchestrate their recruitment channels in order to enhance the creation of employer knowledge. We introduce the concept of integrated marketing communication into the recruitment field and examine how the level of consistency regarding job or organization information affects the recall and the recognition of that information. We additionally test whether information consistency among multiple recruitment channels influences information recognition failure quota. Answering this question is important as by failing to remember the source of recruitment information, job seekers may attribute job information to the wrong firm and thus create an incorrect employer knowledge.
Chapter four, which is co-authored by Prof. Dr. Matthias Baum, introduces customer congruity perceptions between a brand and a reward in the context of customer referral programs as an essential driver of the effectiveness of such programs. More precisely, we posit and empirically test a model according to which the decision-making process of the customer recommending a firm involves multiple mental steps and assumes reward perceptions to be an immediate antecedent of brand evaluation, which then, ultimately shapes the likelihood of recommendation. The level of congruity/incongruity is set up as an antecedent state and affects the perceived attractiveness of the reward. Our work contributes to the discussion on the optimal level of congruity between a prevailing schema in the mind of the customer and a stimulus presented. In addition, chapter four introduces customer referral programs as a strategic tool for brand managers. Chapter four is further published in Psychology & Marketing.
Chapter five first proposes that marketing strategies specifically designed to induce word-of-mouth (WOM) behavior are particular relevant for new ventures. Against the background that previous research suggests that customer perceptions of young firm age may influence customer behavior and the degree to which customers support new ventures (e.g., Choi & Shepherd, 2005; Stinchcombe, 1965), we secondly conduct an experiment to examine the causal mechanisms linking firm age and customer WOM. Chapter five, too, is co-authored by Prof. Dr. Matthias Baum.
Increasing costs due to the rising attrition of drug candidates in late developmental phases alongside post-marketing withdrawal of drugs challenge the pharmaceutical industry to further improve their current preclinical safety assessment strategies. One of the most common reasons for the termination of drug candidates is drug induced hepatotoxicity, which more often than not remains undetected in early developmental stages, thus emphasizing the necessity for improved and more predictive preclinical test systems. One reason for the very limited value of currently applied in vitro test systems for the detection of potential hepatotoxic liabilities is the lack of organotypic and tissue-specific physiology of hepatocytes cultured in ordinary monolayer culture formats.
The thesis at hand primarily deals with the evaluation of both two- and three-dimensional cell culture approaches with respect to their relative ability to predict the hepatotoxic potential of drug candidates in early developmental phases. First, different hepatic cell models, which are routinely used in pharmaceutical industry (primary human hepatocytes as well as the three cell lines HepG2, HepaRG and Upcyte hepatocytes), were investigated in conventional 2D monolayer culture with respect to their ability to detect hepatotoxic effects in simple cytotoxicity studies. Moreover, it could be shown that the global protein expression levels of all cell lines substantially differ from that of primary human hepatocytes, with the least pronounced difference in HepaRG cells.
The introduction of a third dimension through the cultivation of spheroids enables hepatocytes to recapitulate their typical native polarity and furthermore dramatically increases the contact surface of adjacent cells. These differences in cellular architecture have a positive influence on hepatocyte longevity and the expression of drug metabolizing enzymes and transporters, which could be proven via immunofluorescent (IF) staining for at least 14 days in PHH and at least 28 days in HepaRG spheroids, respectively. Additionally, the IF staining of three different phase III transporters (MDR1, MRP2 and BSEP) indicated a bile canalicular network in spheroids of both cell models. A dose-dependent inducibility of important cytochrome P450 isoenzymes in HepaRG spheroids could be shown on the protein level via IF for at least 14 days. CYP inducibility of HepaRG cells cultured in 2D and 3D was compared on the mRNA level for up to 14 days and inducibility was generally lower in 3D compared to 2D under the conditions of this study. In a comparative cytotoxicity study, both PHH and HepaRG spheroids as well as HepaRG monolayers have been treated with five hepatotoxic drugs for up to 14 days and viability was measured at three time points (days 3, 7 and 14). A clear time- and dose-dependent onset of the drug-induced hepatotoxic effects was observable in all conditions tested, indicated by a shift of the respective EC50 value towards lower doses by increasing exposure. The observed effects were most pronounced in PHH spheroids, thus indicating those as the most sensitive cell model in this study. Moreover, HepaRG cells were more sensitive in spheroid culture compared to monolayers, which suggests a potential application of spheroids as long-term test system for the detection of hepatotoxicities with slow onset. Finally, the basal protein expression levels of three antigens (CYP1A2, CYP3A4 and NAT 1/2) were analyzed via Western Blotting in HepaRG cells cultured in three different cell culture formats (2D, 3D and QV) in order to estimate the impact of the cell culture conditions on protein expression levels. In the QV system enables a pump-driven flow of cell culture media, which introduces both mechanical stimuli through shear and molecular stimuli through dynamic circulation to the monolayer. Those stimuli resulted in a clearly positive effect on the expression levels of the selected antigens by an increased expression level in comparison to both 2D and 3D. In contrast, HepaRG spheroids showed time-dependent differences with the overall highest levels at day 7.
The studies presented in this thesis delivered valuable information on the increased physiological relevance in dependence on the cell culture format: three-dimensionality as well as the circulation of media lead to a more differentiated phenotype in hepatic cell models. Those cell culture formats are applicable in preclinical drug development in order to obtain more relevant information at early developmental stages and thus help to create a more efficient drug development process. Nonetheless, further studies are necessary to thoroughly characterize, validate and standardize such novel cell culture approaches prior to their routine application in industry.
In Rheinland-Pfalz hinterlässt der demografische Wandel insbesondere in den ländlichen Regionen seine Spuren und die Gesellschaft wird „älter, bunter, weniger“. Ministerpräsidentin Malu Dreyer verdeutlichte bereits in ihrer Regierungserklärung 2013, dass auch die Förderpolitik des Landes neu ausgerichtet werden muss, um den Herausforderungen des demografischen Wandels frühzeitig begegnen zu können. Dabei sind die stärkere Zusammenarbeit der Kommunen sowie die gemeinsame Erarbeitung von überörtlichen Entwicklungskonzepten notwendig, um den gemeinsamen Bedürfnissen Rechnung tragen zu können. Die Entwicklungskonzepte sollen auf Basis von moderierten Beteiligungsprozessen entstehen, da die Bürgerinnen und Bürger am besten wissen, wie sich die Bedarfe in einer Region aufgrund des demografischen Wandels ändern.
In diesem Zusammenhang startete das Land Rheinland-Pfalz im Jahr 2013 die Zukunftsinitiative „Starke Kommunen – Starkes Land“, welche ein 30-monatiges landesweites Beratungs- und Begleitprojekt darstellte. Der Wettbewerb im Jahr 2013 richtete sich an die Verbandsgemeinden und verbandsfreien Gemeinden in Rheinland-Pfalz, an dessen Ende sechs Modellräume ausgewählt wurden. In diesen wurden Möglichkeiten von Bürgerbeteiligungen und langfristiger interkommunaler Zusammenarbeit auf Verbandsgemeinde-Ebene erprobt und ausgewertet.
Prof. Steinebach und das Team begleiteten die Zukunftsinitiative wissenschaftlich. Der Aufgabenbereich umfasste dabei die Evaluierung der organisatorischen Struktur und des Projektaufbaus, die Analyse der inhaltlichen Themenfelder sowie die Untersuchung und Bewertung der interkommunalen Kooperation. Am Ende der wissenschaftlichen Begleitung wurden die Ergebnisse aufgearbeitet und Handlungsempfehlungen gegeben. Daraus sollen Rückschlüsse für die Förderpolitik des Landes gezogen werden.
Im Zeitraum von März bis Mai 2017 wurde eine Evaluierung der Zukunftsinitiative durchgeführt. Diese ist im Download enthalten.
Road accidents remain as one of the major causes of death and injuries globally. Several million people die every year due to road accidents all over the world. Although the number of accidents in European region have reduced in the past years, road safety still remains a major challenge. Especially in case of commercial trucks, due to the size and load of the vehicle, even minor collisions with other road users would lead to serious injuries or death. In order to reduce number of accidents, automotive industry is rapidly developing advanced driver assistance systems (ADAS) and automated driving technologies. Efficient and reliable solutions are required for these systems to sense, perceive and react to different environmental conditions. For vehicle safety applications such as collision avoidance with vulnerable road users (VRUs), it is not only important for the system to efficiently detect and track the objects in the vicinity of the vehicle but should also function robustly.
An environment perception solution for application in commercial truck safety systems and for future automated driving is developed in this work. Thereby a method for integrated tracking and classification of road users in the near vicinity of the vehicle is formulated. The drawbacks in conventional multi-object tracking algorithms with respect to state, measurement and data association uncertainties have been addressed with the recent advancements in the field of unified multi-object tracking solutions based on random finite sets (RFS). Gaussian mixture implementation of the recently developed labeled multi-Bernoulli (LMB) filter [RSD15] is used as the basis for multi-object tracking in this work. Measurement from an high-resolution radar sensor is used as the main input for detecting and tracking objects.
On one side, the focus of this work is on tracking VRUs in the near vicinity of the truck. As it is beneficial for most of the vehicle safety systems to also know the category that the object belongs to, the focus on the other side is also to classify the road users. All the radar detections believed to originate from a single object are clustered together with help of density based spatial clustering for application with noise (DBSCAN) algorithm. Each cluster of detections would have different properties based on the respective object characteristics. Sixteen distinct features based on radar detections, that are suitable for separating pedestrians, bicyclists and passenger car categories are selected and extracted for each of the cluster. A machine learning based classifier is constructed, trained and parameterised for distinguishing the road users based on the extracted features.
The class information derived from the radar detections can further be used by the tracking algorithm, to adapt the model parameters used for precisely predicting the object motion according to the category of the object. Multiple model labeled multi-Bernoulli filter (MMLMB) is used for modelling different object motions. Apart from the detection level, the estimated state of an object on the tracking level also provides information about the object class. Both these informations are fused using Dempster-Shafer theory (DST) of evidence, based on respective class probabilities Thereby, the output of the integrated tracking and classification with MMLMB filter are classified tracks that can be used by truck safety applications with better reliability.
The developed environment perception method is further implemented as a real-time prototypical system on a commercial truck. The performance of the tracking and classification approaches are evaluated with the help of simulation and multiple test scenarios. A comparison of the developed approaches to a conventional converted measurements Kalman filter with global nearest neighbour association (CMKF-GNN) shows significant advantages in the overall accuracy and performance.
Mobility has become an integral feature of many wireless networks. Along with this mobility comes the need for location awareness. A prime example for this development are today’s and future transportation systems. They increasingly rely on wireless communications to exchange location and velocity information for a multitude of functions and applications. At the same time, the technological progress facilitates the widespread availability of sophisticated radio technology such as software-defined radios. The result is a variety of new attack vectors threatening the integrity of location information in mobile networks.
Although such attacks can have severe consequences in safety-critical environments such as transportation, the combination of mobility and integrity of spatial information has not received much attention in security research in the past. In this thesis we aim to fill this gap by providing adequate methods to protect the integrity of location and velocity information in the presence of mobility. Based on physical effects of mobility on wireless communications, we develop new methods to securely verify locations, sequences of locations, and velocity information provided by untrusted nodes. The results of our analyses show that mobility can in fact be exploited to provide robust security at low cost.
To further investigate the applicability of our schemes to real-world transportation systems, we have built the OpenSky Network, a sensor network which collects air traffic control communication data for scientific applications. The network uses crowdsourcing and has already achieved coverage in most parts of the world with more than 1000 sensors.
Based on the data provided by the network and measurements with commercial off-the-shelf hardware, we demonstrate the technical feasibility and security of our schemes in the air traffic scenario. Moreover, the experience and data provided by the OpenSky Network allows us to investigate the challenges for our schemes in the real-world air traffic communication environment. We show that our verification methods match all
requirements to help secure the next generation air traffic system.
This research explores the development of web based reference software for
characterisation of surface roughness for two-dimensional surface data. The reference software used for verification of surface characteristics makes the evaluation methods easier for clients. The algorithms used in this software
are based on International ISO standards. Most software used in industrial measuring
instruments may give variations in the parameters calculated due to numerical changes in
calculation. Such variations can be verified using the proposed reference software.
The evaluation of surface roughness is carried out in four major steps: data capture, data
align, data filtering and parameter calculation. This work walks through each of these steps
explaining how surface profiles are evaluated by pre-processing steps called fitting and
filtering. The analysis process is then followed by parameter evaluation according to DIN EN
ISO 4287 and DIN EN ISO 13565-2 standards to extract important information from the
profile to characterise surface roughness.
If gradient based derivative algorithms are used to improve industrial products by reducing their target functions, the derivatives need to be exact.
The last percent of possible improvement, like the efficiency of a turbine, can only be gained if the derivatives are consistent with the solution process that is used in the simulation software.
It is problematic that the development of the simulation software is an ongoing process which leads to the use of approximated derivatives.
If a derivative computation is implemented manually, it will be inconsistent after some time if it is not updated.
This thesis presents a generalized approach which differentiates the whole simulation software with Algorithmic Differentiation (AD), and guarantees a correct and consistent derivative computation after each change to the software.
For this purpose, the variable tagging technique is developed.
The technique checks at run-time if all dependencies, which are used by the derivative algorithms, are correct.
Since it is also necessary to check the correctness of the implementation, a theorem is developed which describes how AD derivatives can be compared.
This theorem is used to develop further methods that can detect and correct errors.
All methods are designed such that they can be applied in real world applications and are used within industrial configurations.
The process described above yields consistent and correct derivatives but the efficiency can still be improved.
This is done by deriving new derivative algorithms.
A fixed-point iterator approach, with a consistent derivation, yields all state of the art algorithms and produces two new algorithms.
These two new algorithms include all implementation details and therefore they produce consistent derivative results.
For detecting hot spots in the application, the state of the art techniques are presented and extended.
The data management is changed such that the performance of the software is affected only marginally when quantities, like the number of input and output variables or the memory consumption, are computed for the detection.
The hot spots can be treated with techniques like checkpointing or preaccumulation.
How these techniques change the time and memory consumption is analyzed and it is shown how they need to be used in selected AD tools.
As a last step, the used AD tools are analyzed in more detail.
The major implementation strategies for operator overloading AD tools are presented and implementation improvements for existing AD tools are discussed.\
The discussion focuses on a minimal memory consumption and makes it possible to compare AD tools on a theoretical level.
The new AD tool CoDiPack is based on these findings and its design and concepts are presented.
The improvements and findings in this thesis make it possible, that an automatic, consistent and correct derivative is generated in an efficient way for industrial applications.
Die Arbeit stellt in Form eines Theorie-Praxis-Transfers eine Möglichkeit dar, der zunehmenden Heterogenität in der Schuleingangsphase durch die Bildung jahrgangsgemischter Klassen Rechnung zu tragen. Es werden Voraussetzungen, Mittel, Wege und Stolpersteine dargestellt und besonders die Aufgaben der Schulleitung als Verantwortliche des Schulentwicklungsprozesses dargestellt.
Neuronal inhibition is mediated by glycine and/or GABA. Inferior colliculus (IC) neurons receive glycinergic and GABAergic
inputs, whereas inhibition in hippocampus (HC) predominantly relies on GABA. Astrocytes heterogeneously
express neurotransmitter transporters and are expected to adapt to the local requirements regarding neurotransmitter
homeostasis. Here we analyzed the expression of inhibitory neurotransmitter transporters in IC and HC astrocytes using
whole-cell patch-clamp and single-cell reverse transcription-PCR. We show that most astrocytes in both regions expressed
functional glycine transporters (GlyTs). Activation of these transporters resulted in an inward current (IGly) that
was sensitive to the competitive GlyT1 agonist sarcosine. Astrocytes exhibited transcripts for GlyT1 but not for
GlyT2. Glycine did not alter the membrane resistance (RM) arguing for the absence of functional glycine receptors (GlyRs).
Thus, IGly was mainly mediated by GlyT1. Similarly, we found expression of functional GABA transporters (GATs) in all IC
astrocytes and about half of the HC astrocytes. These transporters mediated an inward current (IGABA) that was sensitive to
the competitive GAT-1 and GAT-3 antagonists NO711 and SNAP5114, respectively. Accordingly, transcripts for GAT-1 and
GAT-3 were found but not for GAT-2 and BGT-1. Only in hippocampal astrocytes, GABA transiently reduced
RM demonstrating the presence of GABAA receptors (GABAARs). However, IGABA was mainly not contaminated
by GABAAR-mediated currents as RM changes vanished shortly after GABA application. In both regions, IGABA
was stronger than IGly. Furthermore, in HC the IGABA/IGly ratio was larger compared to IC. Taken together, our
results demonstrate that astrocytes are heterogeneous across and within distinct brain areas. Furthermore, we
could show that the capacity for glycine and GABA uptake varies between both brain regions.
Untersuchungsgegenstand dieser Arbeit ist die Darstellung von wissenschaftlichen Erkenntnissen der Organisationstheorie und der educational governance Forschung über das Entstehen von öffentlichen Verwaltungen sowie deren Ansätze zur Reformierung. Die öffentliche Bildungsverwaltung in Niedersachsen wird an diese Erkenntnisse angelehnt und der Stand der Bildungsreform an den theoretischen Erkenntnissen gemessen. Ebenso wird das Geflecht der unterschiedlichen behördlichen Ebenen näher beleuchtet sowie deren Funktionalitäten bzw. Dysfunkionalitäten analysiert.
Optimal control of partial differential equations is an important task in applied mathematics where it is used in order to optimize, for example, industrial or medical processes. In this thesis we investigate an optimal control problem with tracking type cost functional for the Cattaneo equation with distributed control, that is, \(\tau y_{tt} + y_t - \Delta y = u\). Our focus is on the theoretical and numerical analysis of the limit process \(\tau \to 0\) where we prove the convergence of solutions of the Cattaneo equation to solutions of the heat equation.
We start by deriving both the Cattaneo and the classical heat equation as well as introducing our notation and some functional analytic background. Afterwards, we prove the well-posedness of the Cattaneo equation for homogeneous Dirichlet boundary conditions, that is, we show the existence and uniqueness of a weak solution together with its continuous dependence on the data. We need this in the following, where we investigate the optimal control problem for the Cattaneo equation: We show the existence and uniqueness of a global minimizer for an optimal control problem with tracking type cost functional and the Cattaneo equation as a constraint. Subsequently, we do an asymptotic analysis for \(\tau \to 0\) for both the forward equation and the aforementioned optimal control problem and show that the solutions of these problems for the Cattaneo equation converge strongly to the ones for the heat equation. Finally, we investigate these problems numerically, where we examine the different behaviour of the models and also consider the limit \(\tau \to 0\), suggesting a linear convergence rate.
Kapitel eins fokussiert auf die Forschungsfragen und Bezugstheorien der vorliegenden Arbeit. In Kapitel zwei geht es um die Darstellung des Anerkennungsbegriffs, Überlegungen zur Entwicklung von Anerkennungsverhältnissen und die drei für diese Arbeit wesentlichen Anerkennungstheorien von Wolfgang Müller-Commichau, Axel Honneth und Werner Nothdurft. Kapitel drei ist der 'Emotionalen Kompetenz' gewidmet und umfasst neben Definitionsversuchen die Beschreibung unterschiedlicher Aspekte emotionaler Kompetenz, die Darstellung der Begriffe Empathie, Verstehensfähigkeit, Introspektions- und Selbstreflexionsfähigkeit – Eigenschaften, die sowohl für die Suche als auch für das Geben von Anerkennung Bedeutung haben und schließt mit Überlegungen zur Förderung emotionaler Kompetenz in Kontexten der Erwachsenenbildung. In Kapitel vier gerät die Kommunikationsfähigkeit/Gesprächskompetenz in den Fokus. Nach einer Beschreibung der Begriffe werden Fragen dazu, wie gelingende Gespräche, wie ein verstehender Dialog aussehen könnte, thematisiert und wie Kommunikationsfähigkeit/ Gesprächskompetenz in erwachsenenpädagogischen Settings weiterentwickelt werden könnte. Kapitel fünf stellt anerkennende pädagogische Beziehungsgestaltungen ins Zentrum der Betrachtung. In den Fokus gelangen wechselseitige Anerkennungsverhältnisse (Beispiel Anerkennungsskulptur) und die bejahende/ ermöglichende bzw. begrenzende Perspektive (Verkennung, Missverstehen, ausbleibende Anerkennung) von Anerkennung. Kapitel sechs bringt eine Zusammenfassung der Ergebnisse, die in ihrer Relevanz für die Gestaltung von Anerkennungsverhältnissen in Kontexten der Erwachsenenbildung dargestellt werden. Am Ende des Kapitels geht es um Überlegungen zu einer Kultur der Anerkennung, um Anerkennung als Haltung. Das Schlusskapitel sieben bringt ein Resümee und einen Ausblick mit neuen Forschungsfragen zum Thema Anerkennung.
The aim of this dissertation is to explain processes in recruitment by gaining a better understanding of how perceptions evolve and how recruitment outcomes and perceptions are influenced. To do so, this dissertation takes a closer look at the formation of fit perceptions, the effects of top employer awards on pre-hire recruitment outcomes, and on how perceptions about external sources are influenced.
Fast Internet content delivery relies on two layers of caches on the request path. Firstly, content delivery networks (CDNs) seek to answer user requests before they traverse slow Internet paths. Secondly, aggregation caches in data centers seek to answer user requests before they traverse slow backend systems. The key challenge in managing these caches is the high variability of object sizes, request patterns, and retrieval latencies. Unfortunately, most existing literature focuses on caching with low (or no) variability in object sizes and ignores the intricacies of data center subsystems.
This thesis seeks to fill this gap with three contributions. First, we design a new caching system, called AdaptSize, that is robust under high object size variability. Second, we derive a method (called Flow-Offline Optimum or FOO) to predict the optimal cache hit ratio under variable object sizes. Third, we design a new caching system, called RobinHood, that exploits variances in retrieval latencies to deliver faster responses to user requests in data centers.
The techniques proposed in this thesis significantly improve the performance of CDN and data center caches. On two production traces from one of the world's largest CDN AdaptSize achieves 30-91% higher hit ratios than widely-used production systems, and 33-46% higher hit ratios than state-of-the-art research systems. Further, AdaptSize reduces the latency by more than 30% at the median, 90-percentile and 99-percentile.
We evaluate the accuracy of our FOO analysis technique on eight different production traces spanning four major Internet companies.
We find that FOO's error is at most 0.3%. Further, FOO reveals that the gap between online policies and OPT is much larger than previously thought: 27% on average, and up to 43% on web application traces.
We evaluate RobinHood with production traces from a major Internet company on a 50-server cluster. We find that RobinHood improves the 99-percentile latency by more than 50% over existing caching systems.
As load imbalances grow, RobinHood's latency improvement can be more than 2x. Further, we show that RobinHood is robust against server failures and adapts to automatic scaling of backend systems.
The results of this thesis demonstrate the power of guiding the design of practical caching policies using mathematical performance models and analysis. These models are general enough to find application in other areas of caching design and future challenges in Internet content delivery.
In der vorliegenden Arbeit wird die Entwicklung und Beurteilung einer alternativen
kontinuierlichen Preform-Technologie zur Vorstabilisierung von trockenen Kohlenstofffaserhalbzeugen
unter Verwendung der Ultraschall-Schweiß-Technologie für
Kunststoffe präsentiert. Aktuell verwendete Technologien für Großbauteile in der
Luftfahrt sind in der Regel diskontinuierlich und wenig produktiv. Zudem weisen sie
Probleme hinsichtlich des gewünschten Kompaktierungsgrades und der Oberflächenqualität
auf. Diesen Nachteilen soll durch den Einsatz des kontinuierlichen
Ultraschall-Preformens begegnet werden.
Innerhalb der Ausarbeitung wurde eine neue Funktionseinheit, die für die Anforderungen
in einem kontinuierlichen Preform-Prozess geeignet ist, entwickelt und mit
passender Sensorik und Steuerung in einen Versuchsstand integriert. Durch statische
Versuche konnte das halbzeugabhängige Aufheizverhalten untersucht
werden. Es zeigte sich, dass der Erwärmungsprozess durch Reibung zwischen den
Filamenten bestimmt wird und somit einen homogenen Prozess unterstützt.
Untersuchungen der Parameter führten zu diskreten und materialabhängigen Prozessfenstern
und einem tieferen Verständnis für die Einflüsse des Schweiß-Prozesses
auf das Preform-Verhalten. Durch die Betrachtung von Prozessgrenzen
konnten unerwünschte Strukturdefekte ausgeschlossen und das Potenzial für die
Nutzung verschiedener Materialien sowie für den Einsatz an komplexeren Bauteilen
aufgezeigt werden. Weiterhin wurde durch Permeabilitätsuntersuchungen gezeigt,
dass es einen materialabhängigen Einfluss des Prozesses auf die Infusionierbarkeit
gibt, der sich sowohl als eine Verbesserung als auch eine als Verschlechterung
darstellen kann. Durch vibrationsinduzierte Verdichtungsprozesse konnten höhere
Faservolumengehalte bei einer gesteigerten Produktivität erzielt werden. Auch eine
partielle Verbesserung der mechanischen Eigenschaften ist durch die Anwendung
des Ultraschall-Prefom-Verfahrens möglich. Für die Herstellung komplexerer Strukturen
eignet sich das Verfahren ebenso, wie an einem Demonstrator gezeigt werden
konnte. Geometrische Restriktionen grenzen die Anwendbarkeit allerdings ein.
Durch die Entwicklung der Technologie konnte eine vielversprechende Alternative
dargelegt werden, die Kosten sparen und Bauteileigenschaften verbessern kann.
The simulation of cutting process challenges established methods due to large deformations and topological changes. In this work a particle finite element method (PFEM) is presented, which combines the benefits of discrete modeling techniques and methods based on continuum mechanics. A crucial part of the PFEM is the detection of the boundary of a set of particles. The impact of this boundary detection method on the structural integrity is examined and a relation of the key parameter of the method to the eigenvalues of strain tensors is elaborated. The influence of important process parameters on the cutting force is studied and a comparison to an empirical relation is presented.
In modern algebraic geometry solutions of polynomial equations are studied from a qualitative point of view using highly sophisticated tools such as cohomology, \(D\)-modules and Hodge structures. The latter have been unified in Saito’s far-reaching theory of mixed Hodge modules, that has shown striking applications including vanishing theorems for cohomology. A mixed Hodge module can be seen as a special type of filtered \(D\)-module, which is an algebraic counterpart of a system of linear differential equations. We present the first algorithmic approach to Saito’s theory. To this end, we develop a Gröbner basis theory for a new class of algebras generalizing PBW-algebras.
The category of mixed Hodge modules satisfies Grothendieck’s six-functor formalism. In part these functors rely on an additional natural filtration, the so-called \(V\)-filtration. A key result of this thesis is an algorithm to compute the \(V\)-filtration in the filtered setting. We derive from this algorithm methods for the computation of (extraordinary) direct image functors under open embeddings of complements of pure codimension one subvarieties. As side results we show
how to compute vanishing and nearby cycle functors and a quasi-inverse of Kashiwara’s equivalence for mixed Hodge modules.
Describing these functors in terms of local coordinates and taking local sections, we reduce the corresponding computations to algorithms over certain bifiltered algebras. It leads us to introduce the class of so-called PBW-reduction-algebras, a generalization of the class of PBW-algebras. We establish a comprehensive Gröbner basis framework for this generalization representing the involved filtrations by weight vectors.
Bedeutung des Konzepts außerschulischer Lernorte für die Pflegeausbildung, Kompetenzentwicklung durch das Aufsuchen außerschulischer Lernorte, Anwendung des Konzepts außerschulischer Lernorte auf unterschiedliche pflegerelevante Themen, konkrete Umsetzungsstrategien für das Konzept außerschulischer Lernorte in der Pflegeausbildung
Analyzing Centrality Indices in Complex Networks: an Approach Using Fuzzy Aggregation Operators
(2018)
The identification of entities that play an important role in a system is one of the fundamental analyses being performed in network studies. This topic is mainly related to centrality indices, which quantify node centrality with respect to several properties in the represented network. The nodes identified in such an analysis are called central nodes. Although centrality indices are very useful for these analyses, there exist several challenges regarding which one fits best
for a network. In addition, if the usage of only one index for determining central
nodes leads to under- or overestimation of the importance of nodes and is
insufficient for finding important nodes, then the question is how multiple indices
can be used in conjunction in such an evaluation. Thus, in this thesis an approach is proposed that includes multiple indices of nodes, each indicating
an aspect of importance, in the respective evaluation and where all the aspects of a node’s centrality are analyzed in an explorative manner. To achieve this
aim, the proposed idea uses fuzzy operators, including a parameter for generating different types of aggregations over multiple indices. In addition, several preprocessing methods for normalization of those values are proposed and discussed. We investigate whether the choice of different decisions regarding the
aggregation of the values changes the ranking of the nodes or not. It is revealed that (1) there are nodes that remain stable among the top-ranking nodes, which
makes them the most central nodes, and there are nodes that remain stable
among the bottom-ranking nodes, which makes them the least central nodes; and (2) there are nodes that show high sensitivity to the choice of normalization
methods and/or aggregations. We explain both cases and the reasons why the nodes’ rankings are stable or sensitive to the corresponding choices in various networks, such as social networks, communication networks, and air transportation networks.
Im Rahmen dieser Dissertation wurden nachhaltige Konzepte zur selektiven C-C, C-N, und C-S Bindungsknüpfung erarbeitet. Der Fokus lag dabei auf der Entwicklung katalytischer und ressourcenschonender Prozesse, die auf leicht zugänglichen und kostengünstigen Startmaterialien beruhen.
Im ersten Teilprojekt gelang es, eine abfallminimierte Eintopfsynthese von Amiden ausgehend von den entsprechenden Ammoniumcarboxylaten und einem niedermolekularen Alkin als Aktivator zu entwickeln. Entscheidend hierbei war die Identifikation eines hochaktiven und stabilen Rutheniumkatalysators, mit dem die Addition des Carboxylates an das Alkin selbst in Gegenwart von Aminen möglich ist. Eine Aminolyse der intermediär gebildeten Enolester liefert im Anschluss die gewünschten Amide zusammen mit einer niedermolekularen und leicht abtrennbaren Carbonylverbindung als einzigem Nebenprodukt.
In einem weiteren Projekt gelang es eine carboxylatdirigierte ortho-Arylierung von Benzoesäuren mit kostengünstigen und breit verfügbaren Arylhalogeniden zu entwickeln. Der bei diesem Verfahren eingesetzte Rutheniumkatalysator besticht dabei nicht nur durch seine hohe Aktivität, sondern ist im Vergleich zu bisher genutzten Katalysatoren um ein vielfaches günstiger und erlaubt selbst die Umsetzung von unreaktiveren Arylchloriden. Durch Kombination dieser neu entwickelten Methode mit einer Protodecarboxylierung bzw. einer decarboxylierenden Kreuzkupplung konnte weiterhin die Carboxygruppe als Ankerpunkt für weitere Funktionalisierungsschritte genutzt und so deren Überlegenheit im Vergleich zu anderen dirigierenden Gruppen demonstriert werden.
Daneben gelang in einem dritten Teilprojekt, welches zwei thematisch sehr verwandte Unterprojekte umfasst, die Einführung der pharmakologisch bedeutsamen Trifluormethylthiolgruppe in aliphatische Substrate unter Verzicht auf stöchiometrische Mengen an präformierten Metallspezies. Unter Verwendung der lagerstabilen Me4NSCF3 Vorstufe, welche aus den kommerziell erhältlichen Reagenzien Me4NF, elementarem Schwefel und TMS-CF3 zugänglich ist, konnten -Diazoester erstmals mit katalytischen Mengen eines Kupfersalzes zu den entsprechenden trifluormethylthiolierten Produkten umgesetzt werden. Zusätzlich hierzu gelang es, über eine indirekte Reaktionsführung aliphatische Kohlenstoffelektrophile, wie Halogenide oder Mesylate, in einer Eintopfreaktion zunächst zu thiocyanieren und anschließend über einen Langlois-Austausch mit kostengünstigem TMS-CF3 in die entsprechenden trifluormethylthiolierten Spezies umzuwandeln. Beide Verfahren bestechen mit einer hohen Toleranz gegenüber funktionellen Gruppen und einer deutlichen Reduktion der gebildeten Abfallmengen im Vergleich zu etablierten Verfahren.
Im letzten Teilprojekt dieser Arbeit konnte eine abfallfreie Hydroxymethylierung terminaler Alkine unter Nutzung von CO2 als nachhaltigem C1-Baustein realisiert werden. Durch den Einsatz der organischen Base 2,2,6-6-Tetramethylpiperidin werden Phenylacetylenderivate in einem sequentiellen Eintopfverfahren zunächst carboxyliert und im Anschluss daran zu den entsprechenden Alkoholen hydriert, wobei die Base nach der Sequenz wieder freigesetzt und als einziges Nebenprodukt Wasser gebildet wird. Analog dazu gelang es durch die Nutzung von Kaliumphosphat als Base dieses Konzept auch auf die anspruchsvolleren aliphatisch substituierten Alkine zu übertragen. Als Schlüsselschritt dieser Reaktionssequenz gilt eine Veresterung der intermediär gebildeten Kaliumcarboxylate in Methanol unter CO2 Druck. Das zusammen mit dem Produkt gebildete Basengemisch aus Kaliumhydrogencarbonat und Dikaliumhydrogenphosphat kann anschließend durch thermische Behandlung wieder in Wasser, Kohlendioxid und die eingesetzte Base Kaliumphosphat umgewandelt werden, sodass in der Gesamtsequenz lediglich Wasser als Nebenprodukt anfällt.
Certain brain tumours are very hard to treat with radiotherapy due to their irregular shape caused by the infiltrative nature of the tumour cells. To enhance the estimation of the tumour extent one may use a mathematical model. As the brain structure plays an important role for the cell migration, it has to be included in such a model. This is done via diffusion-MRI data. We set up a multiscale model class accounting among others for integrin-mediated movement of cancer cells in the brain tissue, and the integrin-mediated proliferation. Moreover, we model a novel chemotherapy in combination with standard radiotherapy.
Thereby, we start on the cellular scale in order to describe migration. Then we deduce mean-field equations on the mesoscopic (cell density) scale on which we also incorporate cell proliferation. To reduce the phase space of the mesoscopic equation, we use parabolic scaling and deduce an effective description in the form of a reaction-convection-diffusion equation on the macroscopic spatio-temporal scale. On this scale we perform three dimensional numerical simulations for the tumour cell density, thereby incorporating real diffusion tensor imaging data. To this aim, we present programmes for the data processing taking the raw medical data and processing it to the form to be included in the numerical simulation. Thanks to the reduction of the phase space, the numerical simulations are fast enough to enable application in clinical practice.
Informatorische Systeme finden zunehmend Eingang in Bildungseinrichtungen. „Schulen ans Netz“, eine 2012 abgeschlossene Förderinitiative des Bundesministeriums für Bildung und Forschung (BMBF) unter Beteiligung der Deutschen Telekom, ist ein Beispiel dafür. Das Land Rheinland-Pfalz stellt mit moodle@RLP Studienseminaren und Schulen eine kostenlose und wartungsfreundliche Lernplattform zur Verfügung. Neben dem Einsatz zu unterrichtlichen Zwecken legt der Verfasser das Augenmerk auf Möglichkeiten zur Optimierung schulorganisatorischer Arbeitsprozesse, zum Beispiel im Hinblick auf die Raum- und Gerätereservierung oder die Archivierung und Katalogisierung von Dokumenten und Unterrichtsmaterialien. Es werden hierzu notwendige Konfigurationseinstellungen erläutert und auf diese Weise eine virtuelle Organisationsstruktur einer Schule realisiert. Ihre Implementierung ist im Rahmen eines Schulentwicklungsprozesses an der IGS Wörth praktisch erprobt worden. Die hieraus gewonnenen Erkenntnisse bilden eine Basis für eine allgemeine, an der Praxis orientierten und theoretisch fundierten Handreichung zur Implementierung von moodle an Schulen. Insgesamt kommt die Studie zu dem Schluss, dass moodle durchaus eine Reihe an Möglichkeiten zur Verbesserung sowohl unterrichtlicher als auch schulorganisatorischer Aspekte besitzt, die jedoch nur dann zielführend ihre Wirkung entfalten können, wenn Schulentwicklungsprozesse erfolgreich durchgeführt werden. Hier kommt der Schulleitung eine Schlüsselrolle zu.
Die Arbeit beschäftigt sich mit der Interkulturellen Kompetenz als pädagogische Schlüsselqualifikation in der Erwachsenenbildung. Es werden verschiedene Modelle zur Interkulturellen Kompetenz dargestellt. Der Erwerb Interkultureller Kompetenz wird erläutert und in den erwachsenenpädagogischen Zusammenhang eingeordnet. Es wird der Forschungsfrage nachgegangen, inwieweit die konstruktivistische
Erwachsenenbildung und der Emotionale Konstruktivismus den Erwerb Interkultureller Kompetenz von Lehrenden der Erwachsenenbildung unterstützen können. Fünf leitfadengestützte Interviews ergänzen die als Literaturarbeit konzipierte Masterarbeit.
Das „Herzstück der Gewährleistung“ in Unternehmenskaufverträgen bilden die Jahresabschlussgarantien, sog. Bilanzgarantien. Dabei sichert der Verkäufer dem Käufer auf der Tatbestandseite von Bilanzgarantien zu, dass der Jahresabschluss des Zielunternehmens in Übereinstimmung mit den gesetzlichen Vorschriften er-stellt wurde. Das Interesse des Verkäufers besteht darin, nach dem Verkauf des Unternehmens frei über den Kaufpreis verfügen zu können, ohne dass es zu einer Haftungsinanspruchnahme durch den Käufer kommt. Die Arbeit beschäftigt sich aus unternehmenspraktischer und juristischer Sicht mit den Rechtsfolgen bei Ein-tritt des Garantiefalls, insbesondere der Bilanzauffüllung im Lichte des Schadens-rechts der §§ 249 ff. BGB.
We studied the development of cognitive abilities related to intelligence and creativity
(N = 48, 6–10 years old), using a longitudinal design (over one school year), in order
to evaluate an Enrichment Program for gifted primary school children initiated by
the government of the German federal state of Rhineland-Palatinate (Entdeckertag
Rheinland Pfalz, Germany; ET; Day of Discoverers). A group of German primary school
children (N = 24), identified earlier as intellectually gifted and selected to join the
ET program was compared to a gender-, class- and IQ- matched group of control
children that did not participate in this program. All participants performed the Standard
Progressive Matrices (SPM) test, which measures intelligence in well-defined problem
space; the Creative Reasoning Task (CRT), which measures intelligence in ill-defined
problem space; and the test of creative thinking-drawing production (TCT-DP), which
measures creativity, also in ill-defined problem space. Results revealed that problem
space matters: the ET program is effective only for the improvement of intelligence
operating in well-defined problem space. An effect was found for intelligence as
measured by SPM only, but neither for intelligence operating in ill-defined problem space
(CRT) nor for creativity (TCT-DP). This suggests that, depending on the type of problem
spaces presented, different cognitive abilities are elicited in the same child. Therefore,
enrichment programs for gifted, but also for children attending traditional schools,
should provide opportunities to develop cognitive abilities related to intelligence,
operating in both well- and ill-defined problem spaces, and to creativity in a parallel,
using an interactive approach.
Vor dem Hintergrund einer Häufung schadensträchtiger Ereignisse in den letzten Jahren und einer zukünftig möglichen Zunahme extremer Niederschläge infolge des Klimawandels sind mittlerweile methodische Ansätze des Risikomanagements im Rahmen einer kommunalen Überflutungsvorsorge etabliert. Zu der dafür erforderlichen
ortsbezogenen Analyse konkreter Überflutungsgefährdungen existieren
aktuell verschiedene methodische Ansätze unterschiedlicher Komplexität und Aussagekraft. Bestehende Anwendungsempfehlungen und vergleichende Untersuchungen stellen die integrale Berechnung des oberirdischen und unterirdischen Abflusses mithilfe bi-direktional gekoppelter 1D/2D-Abflussmodelle als den methodisch
umfassendsten und aussagekräftigsten Ansatz zur Durchführung entsprechender Analysen dar. Die hohe Komplexität dieser Modelle schlägt sich in einer Vielzahl an Einflussgrößen nieder, welche sich auf die Berechnungsergebnisse auswirken können. Zusätzlich ist die Kalibrierung von Modellen zur Überflutungssimulation aufgrund der oftmals fehlenden „Messdaten“ zum realen Überflutungsgeschehen stark begrenzt. Aufgrund fehlender konkreter Vorgaben und
Empfehlungen zur Anwendung der Methode bzw. zur Modellkonfiguration ist die Vergleichbarkeit von Analyseergebnissen und Gefährdungsaussagen derzeit nicht gegeben.
Die Ziele der vorliegenden Arbeit sind die Identifizierung und Quantifizierung von Einflussgrößen und die Erarbeitung entsprechender Anwendungsempfehlungen zur Erhöhung der Vergleichbarkeit beim Einsatz bi-direktional gekoppelter 1D/2DAbflussmodelle zur überflutungsbezogenen Gefährdungsanalyse.
Für zwei Modellgebiete, die sich hinsichtlich relevanter Gebietseigenschaften stark unterscheiden, wurden bi-direktional gekoppelte 1D/2D-Abflussmodelle mit einer Referenzkonfiguration erstellt und mithilfe von Daten zu historischen Überflutungsereignissen bestmöglich plausibilisiert. Im Rahmen einer Sensitivitätsanalyse an den beiden Referenzmodellen wurde eine große Zahl an Zusammenhängen und Auswirkungen durch Auslenkung relevanter Einflussgrößen identifiziert und quantifiziert. Um eine anwendungsbezogene Einschätzung zu gewährleisten wurden
Vergleichsindikatoren entwickelt, die nicht nur die Berücksichtigung berechneter Wasserstände und Fließgeschwindigkeiten, sondern auch eine Bewertung der Einflussgrößen hinsichtlich ihrer Auswirkungen auf die Gefährdungsaussage ermöglichen.
Anhand der Ergebnisse wurden gebietsspezifische Anwendungsempfehlungen für den Einsatz bi-direktional gekoppelter 1D/2D-Abflussberechnungen zur Gefährdungsanalyse abgeleitet. Die erarbeiteten Anwendungsempfehlungen tragen zu einer Erhöhung der Vergleichbarkeit künftiger Analysen der ortsbezogenen Überflutungsgefährdung bei. Die entwickelte Untersuchungsmethodik kann bei künftigen Ergänzungen oder Konkretisierungen der Anwendungsempfehlungen, z.B. anhand der Untersuchung weiterer Modellgebiete oder neuer Einflussgrößen, eingesetzt werden.
Based on the Lindblad master equation approach we obtain a detailed microscopic model of photons in a dye-filled cavity, which features condensation of light. To this end we generalise a recent non-equilibrium approach of Kirton and Keeling such that the dye-mediated contribution to the photon-photon interaction in the light condensate is accessible due to an interplay of coherent and dissipative dynamics. We describe the steady-state properties of the system by analysing the resulting equations of motion of both photonic and matter degrees of freedom. In particular, we discuss the existence of two limiting cases for steady states: photon Bose-Einstein condensate and laser-like. In the former case, we determine the corresponding dimensionless photon-photon interaction strength by relying on realistic experimental data and find a good agreement with previous theoretical estimates. Furthermore, we investigate how the dimensionless interaction strength depends on the respective system parameters.
Areal optical surface topography measurement is an emerging technology for industrial quality control. However, neither calibration procedures nor the utilization of material measures are standardized. State of the art is the calibration of a set of metrological characteristics with multiple calibration samples (material measures). Here, we propose a new calibration sample (artefact) capable of providing the entire set of relevant metrological characteristics within only one single sample. Our calibration artefact features multiple material measures and is manufactured with two-photon laser lithography (direct laser writing, DLW). This enables a holistic calibration of areal topography measuring instruments with only one series of measurements and without changing the sample.
Background: Aneuploidy, or abnormal chromosome numbers, severely alters cell physiology and is widespread in
cancers and other pathologies. Using model cell lines engineered to carry one or more extra chromosomes, it has
been demonstrated that aneuploidy per se impairs proliferation, leads to proteotoxic as well as replication stress
and triggers conserved transcriptome and proteome changes.
Results: In this study, we analysed for the first time miRNAs and demonstrate that their expression is altered in
response to chromosome gain. The miRNA deregulation is independent of the identity of the extra chromosome
and specific to individual cell lines. By cross-omics analysis we demonstrate that although the deregulated miRNAs
differ among individual aneuploid cell lines, their known targets are predominantly associated with cell development,
growth and proliferation, pathways known to be inhibited in response to chromosome gain. Indeed, we show that up
to 72% of these targets are downregulated and the associated miRNAs are overexpressed in aneuploid cells, suggesting
that the miRNA changes contribute to the global transcription changes triggered by aneuploidy. We identified
hsa-miR-10a-5p to be overexpressed in majority of aneuploid cells. Hsa-miR-10a-5p enhances translation of a
subset of mRNAs that contain so called 5’TOP motif and we show that its upregulation in aneuploids provides
resistance to starvation-induced shut down of ribosomal protein translation.
Conclusions: Our work suggests that the changes of the microRNAome contribute on one hand to the adverse
effects of aneuploidy on cell physiology, and on the other hand to the adaptation to aneuploidy by supporting
translation under adverse conditions.
Keywords: Aneuploidy, Cancer, miRNA, miR-10a-5p, Trisomy
Ecophysiological characterizations of photoautotrophic communities are not only necessary to identify the response of carbon fixation related to different climatic factors, but also to evaluate risks connected to changing environments. In biological soil crusts (BSCs), the description of ecophysiological features is difficult, due to the high variability in taxonomic composition and variable methodologies applied. Especially for BSCs in early successional stages, the available datasets are rare or focused on individual constituents, although these crusts may represent the only photoautotrophic component in many heavily disturbed ruderal areas, such as parking lots or building areas with increasing surface area worldwide. We analyzed the response of photosynthesis and respiration to changing BSC water contents (WCs), temperature and light in two early successional BSCs. We investigated whether the response of these parameters was different between intact BSC and the isolated dominating components. BSCs dominated by the cyanobacterium Nostoc commune and dominated by the green alga Zygogonium ericetorum were examined. A major divergence between the two BSCs was their absolute carbon fixation rate on a chlorophyll basis, which was significantly higher for the cyanobacterial crust. Nevertheless, independent of species composition, both crust types and their isolated organisms had convergent features such as high light acclimatization and a minor and very late-occurring depression in carbon uptake at water suprasaturation. This particular setup of ecophysiological features may enable these communities to cope with a high variety of climatic stresses and may therefore be a reason for their success in heavily disturbed areas with ongoing human impact. However, the shape of the response was different for intact BSC compared to separated organisms, especially in absolute net photosynthesis (NP) rates. This emphasizes the importance of measuring intact BSCs under natural conditions for collecting reliable data for meaningful analysis of BSC ecosystem services.
Die vorliegende Ausarbeitung greift die gegenwärte öffentliche Diskussion in Deutschland zu den
NOx-Emissionen von Dieselmotoren im realen Fahrbetrieb auf. Anhand von Motoren für leichte Nutzfahrzeuge und „Non Road“ Anwendungen werden konventielle, d.h. bereits verfügbare und in Serie eingeführte Maßnahmen zur Steigerung des Verbrennungsluftverhältnises und damit der Temperaturen des Abgasmassenstroms, mit der inneren Lastpunktverschiebung verglichen.
Die Absenkung des Verbrennungsluftverhältnises (λ) wird zur Sicherstellung der Funktion der Abgasnachbehandlung, inbesonders der NOx-Rohemissionen, und zur Darstellung eines ausreichenden Wirkungsgrades der Abgasnachbehandlung bei niedrigen Lasten benötigt. Der urbane Lieferverkehr ist in typischerweise durch den Stop&Go-Betrieb im innenstädtischen Betrieb, mit einem Betrieb bei kleinen Motordrehmomenten und Drehzahlen, sowie mit hohen zeitlichen Leerlaufanteilen verbunden. In diesem Lastbereich sind bei den derzeitigen Motorkonzepten zusätzliche motorische Maßnahmen und neue Konzepte notwendig, um die Einhaltung heutiger und zukünftiger Emissionsvorschriften sowie der Emissiongrenzwerte im realen Fahrbetrieb sicherzustellen. Dazu muss das hohe Verbrennungsluft-verhältnis, das heute der Grund für den niedrigen Kraftstoffverbrauch des Dieselmotors im Vergleich zum Ottomotor ist, abgesenkt werden. Die bisher eingesetzten konv. motorischen Maßnahmen (z.B. die Drosselung) führen zur einem Anstieg des Kraftstoffverbrauchs und damit auch der CO2-Emissionen. Eine bisher nicht verwendete Möglichkeit bzw. Maßnahme zur Reduktion des Verbrennungsluftverhältnisses beim Dieselmotor ist die dynamische Lastpunktverschiebung mittels Zylinderabschaltung.
Der größte Teil der Nutzfahrzeuge für den urbanen Personen- und Güterverkehr sowie die Mehrzahl der Arbeitmaschinen sind mit einem Vierzylinder-Dieselmotor ausgestattet. Für diese kleinen Nutzfahrzeugmotoren wird ein neuartiges Motorenkonzept vorgestellt. Das 3up-Motorenkonzept ermöglicht die Steigerung des Verbrennungsluftverhältnisses durch dyn. Lastpunktverschiebung (Zylinderabschaltung) bei signifikant niedrigeren indidzierten Kraftstoffverbrauch (z.B. bis zu – 20%), im Vergleich zu den konv. Maßnahmen zur Steigerung der Abgastemperatur bei Dieselmotoren. Dadurch ist es möglich, im realen Fahrbetrieb, d.h. bei Leerlauf und niedrigen Drehzahlen, bei vergleichbaren Schadstoffrohemissionen nachhaltig den realen Kraftstoffverbrauch zu senken.
Die Untersuchungen an den realiserten Konzeptmotoren zeigen die möglichen Verbesserungen bzgl. der Anhebung der Temperatur des Abgasmassenstroms, des Kraftstoffverbrauchs und die notwendigen Anpassungen bei der Realisierung dieses Motorkonzeptes für einen Dieselmotor auf.
Zunehmend strengere Regulierungen der CO2-Emissionen von Neuwagen seitens
der europäischen Union erfordern den Einsatz von Leichtbaukonzepten, welche für
die Massenproduktion geeignet sind. Dies erfordert den Einsatz leistungsstarker und
zugleich kostengünstiger Werkstoffe. Für den breiten Einsatz im Transportbereich
werden daher vermehrt kurzglasfaserverstärkte Thermoplaste zur Substitution
klassischer Metallkomponenten eingesetzt. Die geringen Werkstoffkosten, die stetig
weiterentwickelten mechanischen Eigenschaften sowie die Möglichkeit zur
Funktionsintegration aufgrund der hohen Formgebungsfreiheit des Spritzgussprozesses
sind entscheidende Vorteile dieser Werkstoffgruppe. Der Spritzgussprozess
führt zu einer lokal stark variierenden Faserorientierung. Die Werkstoffeigenschaften
hängen dabei entscheidend von der Faserorientierung ab. Besitzt der
Werkstoff parallel zur Faserrichtung seine höchste Steifig- und Festigkeit, sind diese
quer zur Faserorientierung am niedrigsten. Zusätzlich besitzt die thermoplastische
Matrix ein ausgeprägt nichtlineares Werkstoffverhalten, wodurch die strukturmechanische
Berechnung kurzfaserverstärkter Bauteile deutlich erschwert wird. Eine
geeignete Methodik zur Charakterisierung und numerischen Abbildung des
nichtlinearen anisotropen Werkstoffverhaltens mit anschließender Lebensdaueranalyse
ist zurzeit nicht vorhanden und bildet das Ziel dieser Arbeit.
Der untersuchte Werkstoff findet häufig Einsatz in strukturellen Komponenten im
Fahrwerks- und Motorbereich. In diesen Einsatzgebieten ist er zusätzlich zu den
mechanischen Lasten auch Umwelteinflüssen, wie beispielsweise Feuchtigkeit oder
Steinschlägen, ausgesetzt. Im Rahmen der durchgeführten experimentellen Arbeiten
wird der Einfluss dieser zusätzlichen einsatzbedingten Lasten auf die statischen
Eigenschaften und das Lebensdauerverhalten untersucht. Ist ein Fahrwerksbauteil
ganzjährig Wasser und Feuchtigkeit ausgesetzt, kann es in Winterzeiten auch zu
Kontakt mit Tausalzlösungen kommen. In Auslagerungsversuchen über einen
Zeitraum von etwa einem Jahr wird der Werkstoff folgenden Medien ausgesetzt:
Wasser, wässrigem Natriumchlorid und wässrigem Calciumchlorid. Zu verschiedenen
Expositionszeiten werden Proben entnommen und statischen Zugversuchen
unterzogen. Die Auslagerung bewirkt eine deutliche Verschlechterung der Werkstoffeigenschaften,
welche jedoch durch eine Rücktrocknung im Vakuumofen wieder
vollständig hergestellt werden kann.
Mithilfe eines speziell entwickelten Prüfstandes wird der Einfluss von Wasser und Calciumchlorid auf das zyklische Werkstoffverhalten untersucht. Dieser Prüfstand
erlaubt das Besprühen der Proben während eines Dauerschwingversuches. Eine
Reduktion der Lebensdauer aufgrund einer Exposition mit Calciumchlorid kann nicht
nachgewiesen werden. Zur Simulation von dauerhaften Mikro-Steinschlägen wird die
Oberflächenrauheit von Probekörpern künstlich mittels Sandstrahlen erhöht. Sowohl
in den statischen als auch zyklischen Versuchen unter Medieneinfluss kann nur eine
geringe Festigkeitsreduktion ermittelt werden. Dies ist auf die Duktilität des Werkstoffes
und der damit einhergehenden Unempfindlichkeit gegenüber Kerben
zurückzuführen.
Moderne Prozesssimulationen können die Faserverteilung in Bauteilen komplexer
Geometrie noch nicht realitätsnah abbilden, weshalb in dieser Arbeit die
experimentelle Orientierungsanalyse im Mikro-Computertomographen verwendet
wird. Neben Probekörpern wird auch eine komplette Fahrwerkskomponente im
Mikro-Computertomographen analysiert. Die Orientierungsinformationen finden zur
numerischen Beschreibung des Werkstoffverhaltens in der Finite-Elemente-Methode
Verwendung. Eine vollständige statische Werkstoffcharakterisierung dient als
Grundlage für die komplexe Werkstoffmodellierung. Zur Beschreibung des
Lebensdauerverhaltens werden umfangreiche Dauerschwing- und Restfestigkeitsversuche
für unterschiedliche Faserorientierungen und Spannungsverhältnisse
durchgeführt.
Selbstentwickelte Programmroutinen importieren den Faserorientierungstensor jedes
FE-Elementes und definieren in Abhängigkeit der Faserrichtung sowie der
Faseranteile in die jeweilige Richtung das Werkstoffmodell. Eine inkrementelle
Lebensdaueranalyse greift ebenfalls auf selbstentwickelte Routinen zurück und
berechnet die ertragbare Schwingspielzahl unter Berücksichtigung einer zyklischen
Steifigkeitsdegradation hochbelasteter Elemente und damit einhergehenden
Spannungsumlagerungen. Die Routine wird an den zyklisch geprüften Standard-
Probekörpern kalibriert und an der bereits erwähnten Fahrwerkskomponente
validiert. Für unterschiedliche Lastniveaus und Spannungsverhältnisse werden die
Versuchsergebnisse sehr gut durch die entwickelte Berechnungsmethodik
abgebildet. Sowohl die ertragbare Schwingspielzahl als auch das Schadensbild der
Simulation stimmen mit den Versuchen überein.
The Power and Energy Student Summit (PESS) is designed for students, young professionals and PhD-students in the field of power engineering. PESS offers the possibility to gain first experience in presentation, publication and discussion with a renowned audience of specialists. Therefore, the conference is accompanied and supervised by established scientists and experts. The venue changes every year. In 2018, the University of Kaiserslautern held the eighth PESS conference. This document presents the submissions of this conference.
For almost thirty years bast fibers such as flax, hemp, kenaf, sisal and jute have been
used as reinforcing material in the molding process of both thermoplastic and thermoset
matrices. The main application areas of these natural fiber reinforced composites
in Europe are limited almost exclusively to the passenger car range. Typical
components are door panels, rear parcel shelves, instrument boards and trunk linings.
Natural fiber reinforced composites have become prevalent due to their good
mechanical properties and their low production costs. The main advantage in applying
natural fibers as reinforcement in composite materials is the price. Nowadays this
argument becomes more and more important due to the scarcity of synthetic raw materials
and consequently, their rising prices. Additionally the low density (approx.
1.5 g/cm³) of natural fibers confers them a very good lightweight potential. Other advantageous
features of natural fiber composites include very good processing and
acoustic properties. Further benefits such as good life cycle assessment and easier
processability compared to glass fiber material should also be taken into account.
Disadvantages of natural fibers are unevenness of the fiber quality and varying fiber
characteristics due to differences in soil, climate and fiber separation and their low
heat resistance (at temperatures exceeding 220 °C, some fiber components start
thermal degradation). Another disadvantage of natural fiber reinforced materials is
that with some matrices (mostly thermoplastic polymers) a sufficient impregnation of
the fibers can only be achieved if the fiber content in the composite is kept low, usually
below 50 wt.-%. Under these conditions the best performance of the natural fiber
reinforcement can not be realized. Another disadvantage of non-impregnated thermoplastic
prepregs is the long processing cycle times, which result from heating up the enclosed air in the prepreg during the process. Alternatively pure natural fiber
based non-woven fabrics are impregnated with thermoset systems. Due to the relatively
simple handling compared to alternative procedures, the thermoforming of thermoset
bonded prepregs is a very promising method for manufacturing natural fiber
reinforced components.
In this work, a novel general concept for natural fiber reinforced composites with a
natural fiber content of approx. 80 wt.-% and a thermoset matrix is developed. A suitable
material combination as well as an optimal process execution that help to meet the technical requirements for the natural fiber reinforced composites will be demonstrated.
Hemp and kenaf have been chosen as reinforcement fibers. In this work it is shown
that hemp and kenaf can be used as successful reinforcement alternatives to the
more established flax fibers in composite materials. Short flax fibers, which are commonly
used as reinforcement in composites (approx. 67 % for the German automotive
applications), are the “waste” of the long fiber production and their availability
and price strongly depend on the demand of the long fibers from the textile industry
and therefore their cost can strongly fluctuate, as it has been demonstrated in the
past few years. In contrast fiber plants such as hemp and kenaf are especifically cultivated
for technical applications and their availability and price is much more stable.
For their application a profound knowledge of the structural and mechanical properties
of the fibers is indispensable. In this work single filament tensile tests on these
two types of natural fibers are carried out. The cross-section area of both fibers, necessary
for the calculation of the tensile properties, was intensively studied using light
microscopy and Scanning Electron Microscopy (SEM) analysis. Because the occurrence
of flaws within the fiber is random in nature, tensile strength data of these fibers
was statistically analyzed using the Weibull distribution. The strengths were estimated
by means of Weibull statistics and then were compared to experimentally
measured strengths.
For a better handling of the material, both kenaf and hemp fibers were manufactured
to needle punched fiber mats. For the impregnation of the natural fiber mats, a Foulard-
process with the thermoset matrix as an aqueous solution was employed. The
reproducibility of this impregnation process was examined. Different matrix Systems with different chemical compositions were applied on the needle punched fiber mats.
The impregnated prepregs were heated and consolidated to components in a onestep-
process. A big advantage of this procedure is the short cycle times, since no
additional pre-heating process is required, in contrast to thermoplastic bonded prepregs.
Additionally, a parameter study of the mechanical properties of the composites
was performed. The best matrix system satisfying the work conditions and properties
of the composites was chosen to carry out the next working step, namely optimization of the compression molding process for the thermoset bonded natural fiber prepregs.
Apart from the material composition of prepregs, general processing parameters
such as temperature, time and pressure play a decisive role for the quality of structures
made of natural fiber reinforced polymers. The impregnated prepregs were
consolidated in a one-step-process to components. A systematic parameter study of
the influence of the relevant process parameters on the characteristics of manufactured
components was performed. Mould temperatures over 200 °C lead to thermal
degradation of the fibers. This temperature should not be exceeded when working
with natural fibers. Furthermore, the composites clearly display a dependence on the
processing pressure. The flexural properties increase with increasing manufacturing
pressures between 15 and 60 bar, reaching a maximum at 60 bar. At higher pressures
(80 to 200 bar) a decrease of the flexural properties is demonstrated. SEM images
of the fracture surface of the composites show that the decrease of the mechanical
properties is related to structural damage of the fiber.
A new technology allowing pressing under vacuum conditions was developed and tested. The press is equipped with a vacuum chamber and achieves very short cycle
processing times (up to less than one minute during the compression molding). The
aspiration connections of the vacuum chamber ensure that the residual moisture and
the condensation products of the matrix chemical reaction could be directly evacuated.
This type of press ensures also very safe processing and working conditions.
The properties of the components fulfill the technical specifications for natural fiber
reinforced polymers for use in the car interior. This versatile composite material is not
only limited to automotive applications, but may also be used for product manufacturing
in other industries. This work shows that the process parameters can be optimized
to fit a particular application.
Das Ziel der Studie war es, die Reaktionen der Protagonisten an den Kinder-und Ju-gendsportschulen der DDR auf die gesellschaftlichen Veränderungen der Wendejahre zu eruieren. Es sollte herausgefunden werden, inwieweit diese Ereignisse die Bildungs-merkmale beeinflussten. Dazu wurden historische Archivdokumente analysiert und in 28 qualitativen Interviews 33 Zeitzeugen befragt. Eine wesentliche Erkenntnis war, dass die Arbeit an den KJS bis in das Jahr 1991 hinein nahezu unverändert fortgeführt wur-de. Durch eine partielle Ausdehnung der Thematik auf die heutigen Eliteschulen des Sports leistet der Text einen Beitrag zur Diskussion über den Leistungssport in Deutsch-land und dessen Spezialschulen.
Die Arbeit richtet sich neben Wissenschaftlern an leistungssportlich und bildungspoli-tisch interessierte Eltern, Pädagogen, Trainer und Verantwortungsträger.
Adaptive Strukturoptimierung von Faserkunststoffverbunden unter Berücksichtigung bionischer Aspekte
(2006)
Es finden immer häufiger Faserverbundmaterialien in Strukturbauteilen Anwendung,
da bei konventionellen Materialien die Zielkriterien, wie definierte Festigkeit, Steifigkeit,
etc. nicht mehr bzw. nicht mit hinreichend geringem Bauteilgewicht erreicht werden
können. Angesichts der hohen Kosten ist es verständlich, dass Faserkunststoffverbunde
(FKV) vorzugsweise in den Bereichen eingesetzt werden, wo die eingangs
erwähnten Optimierungsziele hohe Priorität haben. Besonders hervorzuheben ist
hierbei die Luft- und Raumfahrt. Zunehmende Bedeutung gewinnt der Einsatz von
Faserverbundwerkstoffen aber auch in der Automobil- bzw. Maschinenbauindustrie.
Mit fortschreitender Verbesserung der Optimierungsmethoden sowie der Fertigungstechnologien
und der damit verbundenen Kostenreduktion, werden heute bereits
komplexe Module hergestellt. Das zieht wiederum eine lastgerechte und werkstoffspezifische
Konstruktion nach sich. Gegenstand der Arbeit ist die Entwicklung eines
Topologieoptimierungswerkzeuges zur werkstoffgerechten Auslegung von FKVStrukturen.
Ziel ist, FKV - eine Klasse von Hochleistungswerkstoffen, deren Potenzial
sich nur mit geeigneten Modellen zur Nutzung ihrer anisotropen Eigenschaften ausschöpfen
lässt - unter Berücksichtigung der technischen Realisierbarkeit zu optimieren.
Dabei werden natürliche Wachstumsprinzipien in einen iterativen Prozess überführt.
Als Ziel dieses Algorithmus kann entweder eine gezielte Steifigkeit oder eine
gewichtsoptimale Lösung bei hinreichender Festigkeit mit möglichst gleichmäßiger
Spannungsverteilung im Bauteil definiert werden. Erreicht wird dies durch eine effektive
Lastverteilung von hoch belasteten auf geringer belastete Bereiche und somit
auch die Optimierung der Materialverteilung. In diesem Designvorschlag wird die
Grundorientierung der Basisschicht, die kraftflussgerechte Orientierung der Laminateinzellagen
sowie die Topologie von Zulagenschichten bzw. des Gesamtlaminates
optimiert. Besonders interessant ist die adaptive Strukturoptimierung von FKVStrukturen
bei lokalen Zulagen an hoch belasteten Krafteinleitungsstellen bzw. allgemein
in Bereichen hoher Spannungen. Wie weiterhin gezeigt wird, ist die entwickelte
adaptive Topologie- und Faserwinkeloptimierung in Kombination aus technologischer,werkstoffmechanischer sowie wirtschaftlicher Sicht vorteilhaft und kann
problemlos in der Praxis angewandt werden.
More and more fibre-reinforced composite materials are being used in structural building
components because with conventional materials, the target criteria, such as
defined strength, rigidity etc. can no longer be achieved with a sufficiently low weight
of the structural components, if at all. In view of the high costs, it is understandable
that fibre-reinforced plastic composites tend to be used in technical areas where the
optimization goals mentioned above have a high priority. The aviation and aerospace
industry deserves special mention here. The use of fibre composite materials is also
gaining significance in the automotive and mechanical engineering industry. Thanks
to increasing improvements in optimization methods and manufacturing technologies
and the reduction in costs that this brings with it, complex modules are being produced
even today. This in turn ensures specific-material construction with the necessary
load-bearing properties. The objective of the presentation is the development of
a topology optimization tool for designing Fibre-plastic-composite (FPC)-structures
which is appropriate for each material involved. The objective is to optimize FPC – a
class of high-performance materials the potential of which can only be exploited with
suitable models for the utilization of their anisotropic properties – under consideration
of their capability for technical realization. In doing so, natural growth principles are
implemented into an iterative process, thereby enabling computer simulation. The
main goal of this algorithm is maximum rigidity with as even a distribution of tension
as possible throughout the component, which is achieved by distributing the load
from high-load to lower load bearing areas, thereby optimizing the material distribution.
The weight optimization of specific components is possible in this way. The basic
orientation of the base layer, the orientation of the individual laminate layers in a
manner appropriate to the power flux, as well as the topology of bonding layers
and/or the entire laminate are optimized in this design recommendation. Of particular
interest here is the adaptive structural optimization of FPC structures with localized
bonding to high-load bearing load introduction points or generally, in areas with high
stresses. As continues to be shown, the developed adaptive topology and fibre angle optimization is beneficial from a technological, material-mechanical and economical
point of view, and can be applied in everyday practice without any problems.
Composite materials are used in many modern tools and engineering applications and
consist of two or more materials that are intermixed. Features like inclusions in a matrix
material are often very small compared to the overall structure. Volume elements that
are characteristic for the microstructure can be simulated and their elastic properties are
then used as a homogeneous material on the macroscopic scale.
Moulinec and Suquet [2] solve the so-called Lippmann-Schwinger equation, a reformulation of the equations of elasticity in periodic homogenization, using truncated
trigonometric polynomials on a tensor product grid as ansatz functions.
In this thesis, we generalize their approach to anisotropic lattices and extend it to
anisotropic translation invariant spaces. We discretize the partial differential equation
on these spaces and prove the convergence rate. The speed of convergence depends on
the smoothness of the coefficients and the regularity of the ansatz space. The spaces of
translates unify the ansatz of Moulinec and Suquet with de la Vallée Poussin means and
periodic Box splines, including the constant finite element discretization of Brisard and
Dormieux [1].
For finely resolved images, sampling on a coarser lattice reduces the computational
effort. We introduce mixing rules as the means to transfer fine-grid information to the
smaller lattice.
Finally, we show the effect of the anisotropic pattern, the space of translates, and the
convergence of the method, and mixing rules on two- and three-dimensional examples.
References
[1] S. Brisard and L. Dormieux. “FFT-based methods for the mechanics of composites:
A general variational framework”. In: Computational Materials Science 49.3 (2010),
pp. 663–671. doi: 10.1016/j.commatsci.2010.06.009.
[2] H. Moulinec and P. Suquet. “A numerical method for computing the overall response
of nonlinear composites with complex microstructure”. In: Computer Methods in
Applied Mechanics and Engineering 157.1-2 (1998), pp. 69–94. doi: 10.1016/s00457825(97)00218-1.
The use of polymers subjected to various tribological situations has become state of
the art. Owing to the advantages of self-lubrication and superior cleanliness, more
and more polymer composites are now being used as sliding elements, which were
formerly composed of metallic materials only. The feature that makes polymer composites
so promising in industrial applications is the opportunity to tailor their properties
with special fillers. The main aim of this study was to strength the importance of
integrating various functional fillers in the design of wear-resistant polymer composites
and to understand the role of fillers in modifying the wear behaviour of the materials.
Special emphasis was focused on enhancement of the wear resistance of
thermosetting and thermoplastic matrix composites by nano-TiO2 particles (with a
diameter of 300nm).
In order to optimize the content of various fillers, the tribological performance of a
series of epoxy-based composites, filled with short carbon fibre (SCF), graphite,
PTFE and nano-TiO2 in different proportions and combinations, was investigated.
The patterns of frictional coefficient, wear resistance and contact temperature were
examined by a pin-on-disc apparatus in a dry sliding condition under different contact
pressures and sliding velocities. The experimental results indicated that the addition
of nano-TiO2 effectively reduced the frictional coefficient, and consequently the contact
temperature, of short-fibre reinforced epoxy composites. Based on scanning
electron microscopy (SEM) and atomic force microscopy (AFM) observations of the
worn surfaces, a positive rolling effect of the nanoparticles between the material pairs
was proposed, which led to remarkable reduction of the frictional coefficient. In particular,
this rolling effect protected the SCF from more severe wear mechanisms, especially
in high sliding pressure and speed situations. As a result, the load carrying capacity of materials was significantly improved. In addition, the different contributions
of two solid lubricants, PTFE powders and graphite flakes, on the tribological
performance of epoxy nanocomposites were compared. It seems that graphite contributes
to the improved wear resistance in general, whereas PTFE can easily form a
transfer film and reduce the wear rate, especially in the running-in period. A combination of SCF and solid lubricants (PTFE and graphite) together with TiO2 nanoparticles
can achieve a synergistic effect on the wear behaviour of materials.
The favourable effect of nanoparticles detected in epoxy composites was also found
in the investigations of thermoplastic, e.g. polyamide (PA) 6,6 matrix. It was found
that nanoparticles could reduce the friction coefficient and wear rate of the PA6,6
composite remarkably, when additionally incorporated with short carbon fibres and
graphite flakes. In particular, the addition of nanoparticles contributed to an obvious
enhancement of the tribological performances of the short-fibre reinforced, hightemperature
resistant polymers, e.g. polyetherimide (PEI), especially under extreme
sliding conditions.
A procedure was proposed in order to correlate the contact temperature and the
wear rate with the frictional dissipated energy. Based on this energy consideration, a
better interpretation of the different performance of distinct tribo-systems is possible.
The validity of the model was illustrated for various sliding tests under different conditions.
Although simple quantitative formulations could not be expected at present, the
study may lead to a fundamental understanding of the mechanisms controlling friction
and wear from a general system point of view. Moreover, using the energybased
models, the artificial neural network (ANN) approach was applied to the experimental
data. The well-trained ANN has the potential to be further used for online
monitoring and prediction of wear progress in practical applications.
Die Verwendung von Polymeren im Hinblick auf verschiedene tribologische Anwendungen
entspricht mittlerweile dem Stand der Technik. Aufgrund der Vorteile von
Selbstschmierung und ausgezeichneter Sauberkeit werden polymere Verbundwerkstoffe
immer mehr als Gleitelemente genutzt, welche früher ausschließlich aus metallischen
Werkstoffen bestanden. Die Besonderheit, die polymere Verbundwerkstoffe
so vielversprechend für industrielle Anwendungen macht, ist die Möglichkeit ihre Eigenschaften
durch Zugabe von speziellen Füllstoffen maßzuschneidern. Das Hauptziel
dieser Arbeit bestand darin, die Wichtigkeit der Integration verschiedener funktionalisierter
Füllstoffe in den Aufbau polymerer Verbundwerkstoffe mit hohem Verschleißwiderstand
aufzuzeigen und die Rolle der Füllstoffe hinsichtlich des Verschleißverhaltens
zu verstehen. Hierbei lag besonderes Augenmerk auf der Verbesserung
des Verschleißwiderstandes bei Verbunden mit duromerer und thermoplastischer
Matrix durch die Präsenz von TiO2-Partikeln (Durchmesser 300nm).
Das tribologische Verhalten epoxidharzbasierter Verbunde, gefüllt mit kurzen Kohlenstofffasern
(SCF), Graphite, PTFE und nano-TiO2 in unterschiedlichen Proportionen
und Kombinationen wurde untersucht, um den jeweiligen Füllstoffgehalt zu optimieren.
Das Verhalten von Reibungskoeffizient, Verschleißwiderstand und Kontakttemperatur
wurde unter Verwendung einer Stift-Scheibe Apparatur bei trockenem
Gleitzustand, verschiedenen Kontaktdrücken und Gleitgeschwindigkeiten erforscht.
Die experimentellen Ergebnisse zeigen, dass die Zugabe von nano-TiO2 in kohlenstofffaserverstärkte
Epoxide den Reibungskoeffizienten und die Kontakttemperatur
herabsetzen können. Basierend auf Aufnahmen der verschlissenen Oberflächen
durch Rasterelektronen- (REM) und Rasterkraftmikroskopie (AFM) trat ein positiver
Rolleffekt der Nanopartikel zwischen den Materialpaaren zum Vorschein, welcher zu
einer beachtlichen Reduktion des Reibungskoeffizienten führte. Dieser Rolleffekt schützte insbesondere die SCF vor schwerwiegenderen Verschleißmechanismen,
speziell bei hohem Gleitdruck und hohen Geschwindigkeiten. Als Ergebnis konnte
die Tragfähigkeit dieser Materialien wesentlich verbessert werden. Zusätzlich wurde
die Wirkung zweier fester Schmierstoffe (PTFE-Pulver und Graphit-Flocken) auf die tribologische Leistungsfähigkeit verglichen. Es scheint, daß Graphit generell zur Verbesserung
des Verschleißwiderstandes beiträgt, wobei PTFE einen Transferfilm bilden
kann und die Verschleißrate insbesondere in der Einlaufphase reduziert. Die
Kombination von SCF und festen Schmierstoffen zusammen mit TiO2-Nanopartikeln
kann einen Synergieeffekt bei dem Verschleißverhalten der Materialien hervorrufen.
Der positive Effekt der Nanopartikel in Duromeren wurde ebenfalls bei den Untersuchungen
von Thermoplasten (PA 66) gefunden. Die Nanopartikel konnten den Reibungskoeffizienten
und die Verschleißrate der PA 66-Verbunde herabsetzen, wobei
zusätzlich Kohlenstofffasern und Graphit-Flocken enthalten waren. Die Zugabe von
Nanopartikeln trug offensichtlich auch zur Verbesserung der tribologischen Leistungsfähigkeit
von SCF-verstärkten, hochtemperaturbeständigen Polymeren (PEI)
insbesondere unter extremen Gleitzuständen, bei. Es wurde eine Methode vorgestellt,
um die Kontakttemperatur und die Verschleißrate mit der durch Reibung dissipierten
Energie zu korrelieren. Diese Energiebetrachtung ermöglicht eine bessere
Interpretation der verschiedenen Eigenschaften von ausgewählten Tribo-Systemen.
Die Gültigkeit dieses Models wurde für mehrere Gleittests unter verschiedenen Bedingungen
erklärt.
Vom generellen Blickpunkt eines tribologischen Systems aus mag diese Arbeit zu
einem fundamentalen Verständnis der Mechanismen führen, welche das Reibungs und Verschleißverhalten kontrollieren, obwohl hier einfache quantitative (mathematische)
Zusammenhänge bisher nicht zu erwarten sind. Der auf energiebasierenden
Modellen fußende Lösungsansatz der neuronalen Netzwerke (ANN) wurde darüber
hinaus auf die experimentellen Datensätze angewendet. Die gut trainierten ANN's
besitzen das Potenzial sie in der praktischen Anwendungen zur Online-
Datenauswertung und zur Vorhersage des Verschleißfortschritts einzusetzen.
The use of polymers subjected to various tribological situations has become state of
the art. Owing to the advantages of self-lubrication and superior cleanliness, more
and more polymer composites are now being used as sliding elements, which were
formerly composed of metallic materials only. The feature that makes polymer composites
so promising in industrial applications is the opportunity to tailor their properties
with special fillers. The main aim of this study was to strength the importance of
integrating various functional fillers in the design of wear-resistant polymer composites
and to understand the role of fillers in modifying the wear behaviour of the materials.
Special emphasis was focused on enhancement of the wear resistance of
thermosetting and thermoplastic matrix composites by nano-TiO2 particles (with a
diameter of 300nm).
In order to optimize the content of various fillers, the tribological performance of a
series of epoxy-based composites, filled with short carbon fibre (SCF), graphite,
PTFE and nano-TiO2 in different proportions and combinations, was investigated.
The patterns of frictional coefficient, wear resistance and contact temperature were
examined by a pin-on-disc apparatus in a dry sliding condition under different contact
pressures and sliding velocities. The experimental results indicated that the addition
of nano-TiO2 effectively reduced the frictional coefficient, and consequently the contact
temperature, of short-fibre reinforced epoxy composites. Based on scanning
electron microscopy (SEM) and atomic force microscopy (AFM) observations of the
worn surfaces, a positive rolling effect of the nanoparticles between the material pairs
was proposed, which led to remarkable reduction of the frictional coefficient. In particular,
this rolling effect protected the SCF from more severe wear mechanisms, especially
in high sliding pressure and speed situations. As a result, the load carrying
capacity of materials was significantly improved. In addition, the different contributions
of two solid lubricants, PTFE powders and graphite flakes, on the tribologicalperformance of epoxy nanocomposites were compared. It seems that graphite contributes
to the improved wear resistance in general, whereas PTFE can easily form a
transfer film and reduce the wear rate, especially in the running-in period. A combination of SCF and solid lubricants (PTFE and graphite) together with TiO2 nanoparticles
can achieve a synergistic effect on the wear behaviour of materials.
The favourable effect of nanoparticles detected in epoxy composites was also found
in the investigations of thermoplastic, e.g. polyamide (PA) 6,6 matrix. It was found
that nanoparticles could reduce the friction coefficient and wear rate of the PA6,6
composite remarkably, when additionally incorporated with short carbon fibres and
graphite flakes. In particular, the addition of nanoparticles contributed to an obvious
enhancement of the tribological performances of the short-fibre reinforced, hightemperature
resistant polymers, e.g. polyetherimide (PEI), especially under extreme
sliding conditions.
A procedure was proposed in order to correlate the contact temperature and the
wear rate with the frictional dissipated energy. Based on this energy consideration, a
better interpretation of the different performance of distinct tribo-systems is possible.
The validity of the model was illustrated for various sliding tests under different conditions.
Although simple quantitative formulations could not be expected at present, the
study may lead to a fundamental understanding of the mechanisms controlling friction
and wear from a general system point of view. Moreover, using the energybased
models, the artificial neural network (ANN) approach was applied to the experimental
data. The well-trained ANN has the potential to be further used for online monitoring and prediction of wear progress in practical applications.Die Verwendung von Polymeren im Hinblick auf verschiedene tribologische Anwendungen
entspricht mittlerweile dem Stand der Technik. Aufgrund der Vorteile von
Selbstschmierung und ausgezeichneter Sauberkeit werden polymere Verbundwerkstoffe
immer mehr als Gleitelemente genutzt, welche früher ausschließlich aus metallischen
Werkstoffen bestanden. Die Besonderheit, die polymere Verbundwerkstoffe
so vielversprechend für industrielle Anwendungen macht, ist die Möglichkeit ihre Eigenschaften
durch Zugabe von speziellen Füllstoffen maßzuschneidern. Das Hauptziel
dieser Arbeit bestand darin, die Wichtigkeit der Integration verschiedener funktionalisierter
Füllstoffe in den Aufbau polymerer Verbundwerkstoffe mit hohem Verschleißwiderstand
aufzuzeigen und die Rolle der Füllstoffe hinsichtlich des Verschleißverhaltens
zu verstehen. Hierbei lag besonderes Augenmerk auf der Verbesserung
des Verschleißwiderstandes bei Verbunden mit duromerer und thermoplastischer
Matrix durch die Präsenz von TiO2-Partikeln (Durchmesser 300nm).
Das tribologische Verhalten epoxidharzbasierter Verbunde, gefüllt mit kurzen Kohlenstofffasern
(SCF), Graphite, PTFE und nano-TiO2 in unterschiedlichen Proportionen
und Kombinationen wurde untersucht, um den jeweiligen Füllstoffgehalt zu optimieren.
Das Verhalten von Reibungskoeffizient, Verschleißwiderstand und Kontakttemperatur
wurde unter Verwendung einer Stift-Scheibe Apparatur bei trockenem
Gleitzustand, verschiedenen Kontaktdrücken und Gleitgeschwindigkeiten erforscht.
Die experimentellen Ergebnisse zeigen, dass die Zugabe von nano-TiO2 in kohlenstofffaserverstärkte
Epoxide den Reibungskoeffizienten und die Kontakttemperatur
herabsetzen können. Basierend auf Aufnahmen der verschlissenen Oberflächen
durch Rasterelektronen- (REM) und Rasterkraftmikroskopie (AFM) trat ein positiver
Rolleffekt der Nanopartikel zwischen den Materialpaaren zum Vorschein, welcher zu
einer beachtlichen Reduktion des Reibungskoeffizienten führte. Dieser Rolleffekt
schützte insbesondere die SCF vor schwerwiegenderen Verschleißmechanismen,
speziell bei hohem Gleitdruck und hohen Geschwindigkeiten. Als Ergebnis konnte die Tragfähigkeit dieser Materialien wesentlich verbessert werden. Zusätzlich wurde
die Wirkung zweier fester Schmierstoffe (PTFE-Pulver und Graphit-Flocken) auf die tribologische Leistungsfähigkeit verglichen. Es scheint, daß Graphit generell zur Verbesserung
des Verschleißwiderstandes beiträgt, wobei PTFE einen Transferfilm bilden
kann und die Verschleißrate insbesondere in der Einlaufphase reduziert. Die
Kombination von SCF und festen Schmierstoffen zusammen mit TiO2-Nanopartikeln
kann einen Synergieeffekt bei dem Verschleißverhalten der Materialien hervorrufen.
Der positive Effekt der Nanopartikel in Duromeren wurde ebenfalls bei den Untersuchungen
von Thermoplasten (PA 66) gefunden. Die Nanopartikel konnten den Reibungskoeffizienten
und die Verschleißrate der PA 66-Verbunde herabsetzen, wobei
zusätzlich Kohlenstofffasern und Graphit-Flocken enthalten waren. Die Zugabe von
Nanopartikeln trug offensichtlich auch zur Verbesserung der tribologischen Leistungsfähigkeit
von SCF-verstärkten, hochtemperaturbeständigen Polymeren (PEI)
insbesondere unter extremen Gleitzuständen, bei. Es wurde eine Methode vorgestellt,
um die Kontakttemperatur und die Verschleißrate mit der durch Reibung dissipierten
Energie zu korrelieren. Diese Energiebetrachtung ermöglicht eine bessere
Interpretation der verschiedenen Eigenschaften von ausgewählten Tribo-Systemen.
Die Gültigkeit dieses Models wurde für mehrere Gleittests unter verschiedenen Bedingungen
erklärt.
Vom generellen Blickpunkt eines tribologischen Systems aus mag diese Arbeit zu
einem fundamentalen Verständnis der Mechanismen führen, welche das Reibungsund
Verschleißverhalten kontrollieren, obwohl hier einfache quantitative (mathematische)
Zusammenhänge bisher nicht zu erwarten sind. Der auf energiebasierenden
Modellen fußende Lösungsansatz der neuronalen Netzwerke (ANN) wurde darüber
hinaus auf die experimentellen Datensätze angewendet. Die gut trainierten ANN's
besitzen das Potenzial sie in der praktischen Anwendungen zur Online-
Datenauswertung und zur Vorhersage des Verschleißfortschritts einzusetzen.
Spätestens seit den 1990ern bildet die Lean Production den Status quo der Produktionssysteme in der diskreten Klein- und Großserienfertigung. Mittels der Umstellung auf eine nachfrageorientierte Produktion und Vermeidung jeglicher nicht-wertschöpfender Aktivitäten konnte die Lean Production bei geringen Investitionen hohe Effizienzsteigerungen erreichen. Heute stößt die Lean Production allerdings an ihre Grenzen, da sie nicht das Potenzial moderner Informations- und Kommunikationstechnologie berücksichtigt. Der Lean Production mangelt es u.a. an der notwendigen Wandelbarkeit der Fertigungslinien, um zukünftige Anforderungen wie z.B. eine kundenindividuelle Fertigung in Losgröße 1 zu ermöglichen.
Die stattfindende Digitalisierung der Produktion will diesen zukünftigen Produktionsanforde-rungen gerecht werden. Neue digitale Technologien sowie die gestiegene Leistung der Kom-ponenten ermöglichen eine intelligente Produktion, die Mitarbeiter in komplexen Produktions-prozessen unterstützt. Der gleichzeitig stattfindende Preisverfall und die Miniaturisierung in der Informations- und Kommunikationstechnologie führen auch in der Produktion zu allgegenwärtigen, vernetzten Computern. Das Potenzial dieser technologischen Entwicklung ist unumstritten, dennoch mangelt es aktuell an einer übergreifenden und ganzheitlichen Betrachtung, die eine Integration der Digitalisierung und der neuen Anwendungen in bestehende Produktionsumgebungen miteinbezieht.
Ziel der vorliegenden Arbeit ist die Erarbeitung einheitlicher informationstechnischer Schnittstellen für die Lean Production. Die erarbeitete Referenzarchitektur definiert technologieunabhängige Schnittstellen und schafft den notwendigen Rahmen für die Nutzung digitaler Technologien in bestehenden Lean-Methoden. Bestandteil der Referenzarchitektur ist eine Systemarchitektur, die Rollen und deren Verhältnisse beschreibt. Ergänzt wird sie durch ein Informationsmodell, das die je Rolle benötigten Funktionalitäten und die ausgetauschten Nachrichten spezifiziert, sowie durch eine Softwarearchitektur für die Umsetzung der Schnitt-stellen. Die Referenzarchitektur wurde auf einen bestehenden Forschungsdemonstrator der Technologie-Initiative SmartFactory KL e.V. exemplarisch übertragen.
Die konventionelle Verarbeitung naturfaserverstärkter, thermoplastischer Kunststof-fe zu Bauteilen erfolgt derzeit in einem aufwändigen, mehrstufigen Pressverfahren, welches mit hohen Investitionskosten und hohem Platzbedarf verbunden ist. Aus-gangsmaterial bilden Hybridvliese aus Naturfasern und thermoplastischen Schmelzfasern, welche eine Straße mit mindestens zwei Pressen durchlaufen müssen. In der Heizpresse wird das Vlies unter Wärmezufuhr und Druck kompak-tiert und die Naturfasern dabei imprägniert. Anschließend erfolgt die Formgebung in einer Umformpresse. Das Verfahren hat den wirtschaftlich großen Nachteil, dass die Imprägnierung und die Formgebung zeitlich wie räumlich direkt aneinander ge-koppelt sind, da es keine Alternative zur Erwärmung der Hybridvliese mit gleichzeiti-ger Imprägnierung gibt.
Im Rahmen dieser Arbeit wird ein neuartiger Aufheizprozess für naturfaserverstärkte Thermoplaste auf Basis von Infrarotstrahlung entwickelt, der diese Probleme auf-greift. Als Ausgangsmaterial hierfür werden bereits imprägnierte und vorkompaktier-te Naturfasermatten verwendet, mit denen die hocheffizienten Thermoform-Prozessketten genutzt werden sollen, wie sie beispielsweise bei glas- oder kohlen-stofffaserverstärkten Thermoplasten zum Einsatz kommen. Aufgrund der thermi-schen Restriktionen von Naturfasern bei der Verarbeitung wird eine materialselekti-ve Infrarot-Erwärmungsmethode konzipiert und untersucht, deren Ziel eine optimier-te, maximierte Absorption der Strahlung durch das Polymer darstellt. Es wird ge-währleistet, dass die Absorption durch Naturfasern auch bei der Variation der Roh-stoffqualität minimal ist. So können auch geringfügig kompaktierte Naturfaser-Halbzeuge mit hohem Porengehalt mithilfe des Aufheizprozesses auf eine ausrei-chende Umformtemperatur erwärmt werden, ohne die Verstärkungsfasern thermisch zu schädigen. Die Untersuchung des Prozesseinflusses im Hinblick auf mechani-sche Eigenschaften sowie Geruch und Emissionen validiert die Großserientaug-lichkeit des entwickelten Aufheizverfahrens.
Die Ergebnisse dieser Arbeit werden in Richtlinien für die Verarbeitung thermoplas-tischer, vorimprägnierter und kompaktierter, naturfaserverstärkter Kunststoffe zu-sammengefasst und sollen dem Verarbeiter eine gezielte Auswahl von Halbzeugen und die Minimierung der Prozesszykluszeit ermöglichen.
Energieeffizientere Konstruktionen insbesondere in der Automobilindustrie und bei
deren Zulieferern erfordern die Substitution schwerer Bauteile aus Stahl und anderen
metallischen Werkstoffen durch entsprechende Leichtbauvarianten aus Kunst- bzw.
Verbundwerkstoffen. Dieser Trend setzt sich nach der erfolgreichen Einführung von
Kunststoffbauteilen im Innenraum von Automobilen auch vermehrt bei sicherheitsrelevanten
Konstruktionen z.B. im Motorraum durch. Um die hohen Anforderungen an
die mechanischen Eigenschaften der verwendeten Materialien erfüllen zu können,
werden überwiegend Faserverbundwerkstoffe eingesetzt. Da im Rahmen der Bauteilentwicklung
der Einsatz der Finite-Elemente-Methode (FEM) mittlerweile zum Stand
der Technik gehört, müssen auch für Faserverbundwerkstoffe die entsprechenden
Materialmodelle auf ihre Anwendbarkeit hin überprüft und gegebenenfalls weiter oder
neu entwickelt werden.
In dieser Arbeit wird ein Versuchs- und Auswertekonzept zur Bestimmung der mechanischen
Materialkennwerte von langglasfaserverstärktem Polypropylen (PP-LGF)
vorgestellt und validiert. Es wird orthotrop visko-elasto-plastisches Materialverhalten
des Verbundes angenommen. Zur Ermittlung der Datensätze für die FE-Simulation
werden Zug- und Schubversuche bei fünf unterschiedlichen Abzugsgeschwindigkeiten
von quasistatisch bis 10 m/s durchgeführt. Dabei werden mit Hilfe der Grauwertkorrelationsanalyse
berührungslos Dehnungsfelder auf der Oberfläche der Probekörper
erfasst und später mit Kraft-Zeit-Daten zu Spannungs-Dehnungs-Kurven verrechnet.
Das orthotrope Materialverhalten von PP-LGF wird berücksichtigt, indem
sowohl Zugversuche an Probekörpern mit vorwiegend in Zugrichtung als auch an
solchen mit überwiegend quer dazu orientierten Fasern ausgewertet werden.
Die Dehnratenabhängigkeit des Materials wird über einen visko-elasto-plastischen
Ansatz in 1D getrennt für zwei Zugbelastungsrichtungen mathematisch beschrieben
und die Parameter über einen Least-Square-Fit unter Verwendung des Levenberg-
Marquardt-Verfahrens bestimmt. Im Rahmen eines Vergleichs experimentell ermittelter
Verschiebungs- und Dehnungsfelder einer gelochten Zugprobe mit den Ergebnissen einer korrespondierenden FE-Simulation wird ein orthotrop elasto-plastischer
Simulationsansatz in 3D validiert. Dabei wird eine Formulierung nach HILL für orthotropes
Fließen berücksichtigt. Am Ende der Arbeit wird gezeigt, inwieweit das erfolgreich
validierte Modell auf eine komplexere Bauteilgeometrie übertragen werden
kann. Es wird deutlich, dass bei sehr komplexen Geometrien die Qualität der Simulationsergebnisse
nicht nur vom verwendeten Materialmodell und der Güte der Materialparameter
abhängt, sondern zunehmend von der Qualität einer der FEM vorgeschalteten
Füllanalyse.
The scarcity of raw materials such as oil and natural gas has led the necessity to design
more and more energy-efficient constructions. This applies particularly to the
automotive industry and its component suppliers. There are two possibilities to meet
this obligation. On the one hand, one can develop new forms of drive concepts, e.g.
hybrid or electric motors. On the other hand, the reduction of weight can significantly
diminish the consumption of fuel. Especially in the aerospace industry every gram
less counts. To put this requirement into action traditional materials, e.g. steel and
cast iron, are replaced by new lightweight materials. This can be miscellaneous light
alloys or one of several fibre reinforced plastics. After the production of plastic devices
such as display panels in cars, more and more security-relevant plastic devices
appeared.
This report deals with one important material within the group of glass fibre reinforced
thermoplastics i.e. long-glass-fibre reinforced polypropylene. Polypropylene with approximately
14% of the worldwide usage of plastics is very cheap and can support
companies in cost-saving. This aspect becomes more and more important considering
the expansion of global business competition, especially in the automotive industry.
With approximately 50%, glass-fibre reinforced polypropylene is the dominant
material in the group of glass fibre reinforced thermoplastics. To counteract the demand
of shorter development times in the design process the automotive industry
and its suppliers count on simulation tools such as the finite-element (FE)-simulation.
For this reason the quality of the mathematical material models has to be improved
and its parameters have to be identified. After choosing a suitable material model and
identifying the corresponding parameters, a verification of both has to follow to assure
their reliability. This is typically carried out by comparing measurement with simulation
data at distinctive points of the considered geometry. With advanced performance
of computer hardware and measurement systems it is possible to measure
specimens and more complex geometries at high strain rates by means of high
speed cameras and to conduct FE-Simulations in a justifiable time with sufficient accuracy Thus the following chapter firstly discusses the basics of continuum mechanics with
its well-established mathematical formulations for anisotropic elasticity, plasticity and
viscoelasticity and the corresponding rheological models. In chapter three the properties
of the matrix material polypropylene are presented with more precise consideration
of the strength and failure of the composite material under tensile load depending
on the fibre length and volume. Thereafter, the geometry and dimensions of the
specimens for tensile and shear tests are presented, together with a test sample
which is used as an example for the design of automotive structures via coactions of
measuring and simulation techniques. Chapter four deals with the state of the art in
high speed testing, the experimental setup and its mode of operation as well as the
explanation of different kinds of evaluation software which is used in this work.
Here, the main focus is aimed at the determination and interpretation of displacement
and strain fields with the grey scale method. The following paragraph describes different
initial examinations of specimens and the test sample. In this context, exposures
of fracture surfaces and polished micrograph sections were examined by
means of optical and scanning electron microscopy. In this way discontinuities and
cracks caused by the injection moulding process are detected. The quality of the
specimens and the test sample and their suitability for systematic material testing are
finally evaluated by means of thermoelastic stress analysis and a laser extensometer.
With these systems a direct optical strain measurement can be accomplished to
screen the homogeneity of specimens and parts.
In chapter six an approach for an experimental method is presented for measuring
displacement fields of the surface of specimens of long-glass-fibre reinforced polypropylene
at high strain rate. A strategy is introduced for reasonable data evaluation
to characterise stress strain behaviour under tensile and shear load. Specimens of
long-glass-fibre polypropylene with a fibre volume content of 30% and 40% respectively,
are tested and analysed. Anisotropy of the material is considered by testing
specimens with fibres oriented either in the direction of the tensile load or perpendicular
to it. The resulting stress strain curves for the two main directions are used as
basis for identifying material properties for an orthotropic constitutive law. Hence the
elastic parameters that are collected from stress strain curves are the axial modulus
in fibre direction and perpendicular to it, the shear modulus in the fibre plane and the
matrix plane and finally the lateral contraction in fibre direction, at right angle to it and
in the matrix plane. After having collected the parameters for elasticity, the HILLcriterion
is utilised to describe orthotropic plasticity. The different stresses at the
yielding points related to the designated directions are used to compute the parameters
of the HILL-criterion. Finally, in order to describe the strain-rate dependent behaviour
of the material, a one dimensional rheological model with four relaxation
terms is utilized to represent the set of curves resulting from tests of specimens at five different strain rates. The viscoelastic parameters are identified by means of a
least square approach using the Levenberg-Marquardt algorithm.
In chapter eight, the elastic-plastic orthotropic material model is verified for low strain
rates. A specimen with a hole in its middle is exposed to a tensile load until break and
simultaneously measured by means of a CCD-camera to obtain the two-dimensional
displacement field on its surface. Comparison of the experimental displacements with
the displacements of a finite-element model at the same points shows the quality of
the material model and its parameters. Finally, in chapter nine, the results of a filling
simulation of the test sample is shown and again a comparison of measured and
simulated data is presented. This we describe the potential and the limits of current
filling-simulation-software in conjunction with a popular finite-element-tool like
ABAQUS. To conclude appropriate mathematical characterisation and reliable parameters
of long-glass-fibre reinforced polypropylene require stringent experimental
and theoretical characterisation. Complete specification of such a complex material is still very time-consuming and prone to mistakes during the whole sequence of operations.
For this reason it is very important to improve the reliability of every single step
in product engineering. Hence the performance of a mathematical material model is
not only dependent on its formulation but also and particularly on the quality of its
material parameters whether they are determined directly from material tests or by
means of special optimization software. The best optimization tools can only optimize
material parameters reliably if the underlying experimental data is just as reliable.
Multiphase materials combine properties of several materials, which makes them interesting for high-performing components. This thesis considers a certain set of multiphase materials, namely silicon-carbide (SiC) particle-reinforced aluminium (Al) metal matrix composites and their modelling based on stochastic geometry models.
Stochastic modelling can be used for the generation of virtual material samples: Once we have fitted a model to the material statistics, we can obtain independent three-dimensional “samples” of the material under investigation without the need of any actual imaging. Additionally, by changing the model parameters, we can easily simulate a new material composition.
The materials under investigation have a rather complicated microstructure, as the system of SiC particles has many degrees of freedom: Size, shape, orientation and spatial distribution. Based on FIB-SEM images, that yield three-dimensional image data, we extract the SiC particle structure using methods of image analysis. Then we model the SiC particles by anisotropically rescaled cells of a random Laguerre tessellation that was fitted to the shapes of isotropically rescaled particles. We fit a log-normal distribution for the volume distribution of the SiC particles. Additionally, we propose models for the Al grain structure and the Aluminium-Copper (\({Al}_2{Cu}\)) precipitations occurring on the grain boundaries and on SiC-Al phase boundaries.
Finally, we show how we can estimate the parameters of the volume-distribution based on two-dimensional SEM images. This estimation is applied to two samples with different mean SiC particle diameters and to a random section through the model. The stereological estimations are within acceptable agreement with the parameters estimated from three-dimensional image data
as well as with the parameters of the model.
Fucoidan is a class of biopolymers mainly found in brown seaweeds. Due to its diverse medical importance, homogenous supply as well as a GMP-compliant product is of a special interest. Therefore, in addition to optimization of its extraction and purification from classical resources, other techniques were tried (e.g., marine tissue culture and heterologous expression of enzymes involved in its biosynthesis). Results showed that 17.5% (w/w) crude fucoidan after pre-treatment and extraction was obtained from the brown macroalgae F. vesiculosus. Purification by affinity chromatography improved purity relative to the commercial purified product. Furthermore, biological investigations revealed improved anti-coagulant and anti-viral activities compared with crude fucoidan. Furthermore, callus-like and protoplast cultures as well as bioreactor cultivation were developed from F. vesiculosus representing a new horizon to produce fucoidan biotechnologically. Moreover, heterologous expression of several enzymes involved in its biosynthesis by E. coli (e.g., FucTs and STs) demonstrated the possibility to obtain active enzymes that could be utilized in enzymatic in vitro synthesis of fucoidan. All these competitive techniques could provide the global demands from fucoidan.
Zur Eigenspannungsausbildung bei der wickeltechnischen Verarbeitung thermoplastischer Bandhalbzeuge
(2005)
Filament winding is today a well established production technique for fiber reinforced
pressure vessels. Most of the parts are still made using thermosets as matrix material,
but parts with thermoplastic matrices are today on the edge to mass production.
Usually these parts are made from fully consolidated unidirectional fiber reinforced
thermoplastic tapes. During processing the matrix material is molten and the tapes
are placed on the substrate where they re-solidify. A wide range of material combinations
are available on the market. The materials used in the present investigation are
semi-crystalline thermoplastics and glass or carbon fiber i.e. carbon fiber reinforced
Polyetheretherketone, glass fiber reinforced Polyetheretherketone and glass fiber
reinforced Polypropylene.
Applications can be found in the field of medium and high pressure vessels like they
are used for natural gas and hydrogen storage or for tubes and pipes for their transport.
During the design of such parts mostly idealized properties as for example tensile
strength are used. Residual stresses which are inherent for composite materials
are only considered as part of the safety factor.
The present work investigates the generation of residual stresses for in-situ consolidation
during filament winding. Within this process consolidation of the tape material
and the substrate takes place immediately after the tapes are placed. This is contrary
to the normal curing of thermoset materials and has a large influence on the generation
of the residual stress. The impact of these stresses on the behavior of the produced
parts during service is one of the topics of this investigation. Therefore the
background of thermal residual stresses in semi-crystalline thermoplastic parts is discussed
and a closer look on the crystallization behavior of the matrix materials was
taken. As the beginning of the crystal growth is a major point in the generation of thermal residual stress.
The aim of the present work is to find process parameter combinations that allow to
compensate the thermal residual stresses and to generate a residual stress profile
that – unlike the thermal residual stresses - brings about structural benefit. Ring
samples with a defined geometry were made to measure the generated stresses.
The geometry of the samples was chosen in a way that prevents influences of the
boundary conditions of the free edges on the measuring point.
In the investigations the residual stresses were measured in circumferential direction
using a method where the ring samples were cut in radial direction and the deformation
was measured using strain gages. From the strain the local stress can be determined.
It was tried to minimize the number of experiments. Therefore the influence of filament
winding process parameters on the residual stress were investigated using a
Design of Experiments approach where the main influences on the residual stress
generation can be found from a relatively small number of experiments such as 8
instead of 128. As a result of these experiments it was found that the winding angle,
the mandrel temperature, the annealing, the wall thickness and the tape tension have
a significant influence on residual stresses. With increasing winding angles the influence
on the measured circumferential stresses increase regardless to kind of residual
stresses. The mandrel temperature has a large influence on the temperature difference
that causes the stress between fiber and matrix. They are caused by different
thermal expansion coefficients of fiber and matrix. Structural benefit through annealing
is only theoretically possible because the required outside temperatures
along with internal cooling of the parts can not be realized within an industrial processes.
Increasing wall thickness leads to also increasing residual stress but it can not
be the aim to build oversized parts for the sake of residual stresses. The applied tape
tension was identified as a parameter that can be used to achieve the desired residual
stress state with reasonable efforts.
Different ways of varying the tape tension with increasing wall thickness were investigated.
The tape tension was increased with every layer to a chosen maximum value or, after half of the layers were placed, in one step to the maximum value. Furthermore
a continuously high tape tension and a variant without tape tension was investigated.
The experiments led to the conclusion that increasing tape tension with increasing
wall thickness is a viable way to have structural benefit from residual stress.
The increasing in one step gave the best results.
The impact of the thermal history during production is discussed as well. Temperatures
must not exceed the softening point of the matrix. Otherwise a part of the tape
tension gets lost by relaxation. In a particular case the relaxation reached an amount
where the compensation of the thermal stresses failed. Thermodynamic calculations
led to the conclusion that the energy transfer into the material by mandrel heating
and melt energy caused a temperature above the softening point.
The impact of tape tension on material quality is documented. Very low tape tension
can not guarantee a proper consolidation. On the other hand excessive tape tension
can lead to matrix squeeze out and in particular cases to cracks due to too high residual
stresses. Therefore the tape tension profile should be well adapted to work
load, the composite and its properties.
Investigations on the relaxation behavior of the residual stresses showed that relaxation
occurs and that a part of the residual stress relaxes when the samples were exposed
to higher temperatures. Test at room temperature showed no significant sign
of relaxation. When the temperature was raised – in this case to 80 °C - the samples
clearly relaxed. The amount of induced residual stress sank to half of its initial value.
Investigations on the structural benefit showed that material savings of up to 23 % of
weight are possible for high pressure applications and fiber reinforcements with relatively
low fiber volume content. Higher fiber volume contents which also mean higher
strengths reduce the benefit. As the strength of the material increases the benefit
reduces in relation to it.
Nevertheless there is a potential in material saving and one should keep in mind that
the costs to establish the equipment to control the tape tension is cheap in comparison
to the achievable result.
In dieser Arbeit sollten Liganden für Übergangsmetalle auf Basis von cyclischen Peptiden mit natürlichen und nicht-natürlichen Aminosäureuntereinheiten entwickelt werden. Durch die chiralen Aminosäuren in den Cyclopeptiden sollte deren Chiralität auf den Metallkomplex übertragen werden. Dadurch könnten Materialien für die Racematspaltung auf Basis von Koordinationsnetzwerken oder chirale Rezeptoren mit geeigneten Hohlräumen auf Basis von diskreten Koordinationsverbindungen zugänglich werden. Cyclische Kationenrezeptoren können als Wirkstoff in der Medizin Anwendung finden, zum Beispiel als Mimetikum für Ionophore wie Valinomycin.
Im ersten Teil der Arbeit wurden die Synthesen einer Reihe von Cyclotetrapeptiden, welche in alternierender Reihenfolge Prolin- und nicht-cyclische α-Aminosäureuntereinheiten enthielten, verfolgt. Als vielversprechendste Grundstruktur erwies sich dabei ein Cyclotetrapeptid mit D-Phenylalanin und L-4-Azido-Prolineinheiten, da es eine Vielzahl von möglichen Funktionalisierungen über die Azidgruppen ermöglichte. Durch Einführung geeigneter funktioneller Gruppen in der Peripherie des Cyclopeptidrings wurden Koordinationsstellen für Metallzentren geschaffen. Von den erhaltenen Produkten eignete sich keins für den Aufbau von Koordinationsnetzwerken (Metal-organic frameworks; MOF). Die Ursache ist höchstwahrscheinlich die zu hohe Flexibilität der betreffenden Cyclopeptide. Die hohe Flexibilität dieser Verbindungen wurde ebenfalls bei den Versuchen zur Darstellung von diskreten Koordinationsverbindungen mit Pd(II) deutlich. Hier wurde ein dinuklearer Pd(II)-Komplex erhalten, in dem die beiden Cyclopeptidliganden charakteristisch andere Konformationen annehmen als in der freien Form.
Weiterhin wurde im zweiten Teil der Arbeit eine Synthese für Cyclohexapeptide mit N-alkylierten 5-Amino-4-oxo-1,4-dihydropyridin-3-carbonsäureeinheiten entwickelt. Das gewünschte Produkt wurde in einer 16-stufigen Synthese erhalten. NMR-spektroskopische Studien zeigten, dass es in Lösung ein komplexes Konformerengleichgewicht aufweist. Die Studien deuten außerdem an, dass es mit Alkalimetallionen in Lösung wechselwirkt.
Der vorliegende Tagungsband erscheint als Band 1 der neuen Schriftenreihe Wasser Infrastruktur Ressourcen, in der die Fachgebiete Siedlungswasserwirtschaft und Ressourceneffiziente Abwasserbehandlung der TU Kaiserslautern künftig ihre wissenschaftlichen Aktivitäten und Ergebnisse gemeinsam publizieren werden. Für den Start dieser Schriftenreihe erscheint die Sammlung der Beiträge zur Gemeinschaftstagung aqua urbanica trifft RegenwasserTage bestens geeignet. Die Fachbeiträge beleuchten mit Regenwasser in urbanen Räumen ein Themenfeld, das seit mehr als 25 Jahren im Fokus der Forschungsaktivitäten des Herausgebers steht und ein zentrales Element der beiden in diesem Jahr zusammengeführten Tagungen seit vielen Jahren darstellt. Die Regenwassertage finden 2018 zum 17. Mal statt. Die aqua urbanica wird seit 2011 von den sechs siedlungswasserwirtschaftlichen Schwesterinstitutionen der
eawag-ETH Zürich, der Hochschule für Technik Rapperswil, der TU Graz, der Universität Innsbruck, der Universität Stuttgart und der TU Kaiserslautern in Kooperation mit den nationalen Organisationen DWA, ÖWAV und VSA veranstaltet.
Die Gemeinschaftstagung widmet sich dem verantwortungsvollen Umgang mit Regenwasser als zentraler Baustein zur Sicherstellung leistungsfähiger kommunaler Entwässerungssysteme. Mit der Fokussierung auf Regenwasser in urbanen Räumen soll den besonderen Herausforderungen Rechnung getragen werden, die aus dem zukunftsgerechten Umgang mit Regenwasser in Siedlungsgebieten erwachsen. Die kommunale Überflutungsvorsorge als Starkregenrisikomanagement, der Schutz der Gewässer vor Belastungen aus Regenwetterabflüssen und der Erhalt des lokalen Wasserhaushalts erfordern eine interdisziplinäre, kooperative Bearbeitung. Sie müssen mit ihren Zielkonflikten auch im Lichte großer Ungewissheiten zukünftiger Entwicklungen bearbeitet werden. Das gilt in besonderem Maße für die in den letzten Jahren beobachtete Häufung extremer Niederschlagsereignisse als mögliche Folge des Klimawandels. Zur Sicherstellung des durch die EN 752 europaweit vorgegebenen Überflutungsschutzes in urbanen Räumen braucht es ein leistungsfähiges Entwässerungssystem, das von mehreren Generationen geschaffen wurde und das es auch weiterhin zu erhalten und zu optimieren gilt.
Die genannten Anliegen sind gleichermaßen Themen mit hoher Wertigkeit sowohl bei den umwelt- und kommunalpolitisch Verantwortlichen als auch in der öffentlichen Wahrnehmung. In Verbindung mit den Anforderungen der EU-Wasserrahmenrichtlinie und dem dort verankerten Verschlechterungsverbot für den Zustand der Gewässer gilt es, die oberirdischen Gewässer und das Grundwasser soweit möglich vor Stoffeinträgen durch Regenwetterabflüsse zu schützen.
Nach Möglichkeit sollte nur noch nicht behandlungsbedürftiges oder entsprechend vorgereinigtes Regenwasser eingeleitet bzw. zur Versickerung gebracht werden. Dafür kommen innerhalb der bisher eher zentral ausgerichteten Entwässerungskonzepte zunehmend auch intelligente dezentrale und möglichst naturnahe Maßnahmen zum Einsatz. Das sich daraus ergebende Spannungsfeld soll im Rahmen der Tagung möglichst breit betrachtet und diskutiert werden.
Mit den Themenschwerpunkten
• Ansätze für ein zukunftsfähiges Starkregenrisikomanagement
• Lösungsansätze für eine wassersensible Stadtentwicklung
• Bewertung der Gewässerbelastungen durch Regenwetterabflüsse
• Methoden und Anlagen der Regenwasserbehandlung
bietet die Gemeinschaftstagung aqua urbanica trifft RegenwasserTage interessierten Teilnehmern aus Behörden, Kommunen und Verbänden, Hochschulen und Ingenieurbüros einen Überblick über die aktuellen Entwicklungen und den derzeitigen Stand im Umgang mit Regenwasser. Dabei werden Herausforderungen für die moderne Siedlungsentwässerung aufgegriffen und Erfahrungen aus geplanten und realisierten Projekten vorgestellt und diskutiert. Damit soll auch der Austausch zwischen Wissenschaft und Praxis gefördert und verstärkt werden.
Using valuation theory we associate to a one-dimensional equidimensional semilocal Cohen-Macaulay ring \(R\) its semigroup of values, and to a fractional ideal of \(R\) we associate its value semigroup ideal. For a class of curve singularities (here called admissible rings) including algebroid curves the semigroups of values, respectively the value semigroup ideals, satisfy combinatorial properties defining good semigroups, respectively good semigroup ideals. Notably, the class of good semigroups strictly contains the class of value semigroups of admissible rings. On good semigroups we establish combinatorial versions of algebraic concepts on admissible rings which are compatible with their prototypes under taking values. Primarily we examine duality and quasihomogeneity.
We give a definition for canonical semigroup ideals of good semigroups which characterizes canonical fractional ideals of an admissible ring in terms of their value semigroup ideals. Moreover, a canonical semigroup ideal induces a duality on the set of good semigroup ideals of a good semigroup. This duality is compatible with the Cohen-Macaulay duality on fractional ideals under taking values.
The properties of the semigroup of values of a quasihomogeneous curve singularity lead to a notion of quasihomogeneity on good semigroups which is compatible with its algebraic prototype. We give a combinatorial criterion which allows to construct from a quasihomogeneous semigroup \(S\) a quasihomogeneous curve singularity having \(S\) as semigroup of values.
As an application we use the semigroup of values to compute endomorphism rings of maximal ideals of algebroid curves. This yields an explicit description of the intermediate rings in an algorithmic normalization of plane central arrangements of smooth curves based on a criterion by Grauert and Remmert. Applying this result to hyperplane arrangements we determine the number of steps needed to compute the normalization of a the arrangement in terms of its Möbius function.
The phase field approach is a powerful tool that can handle even complicated fracture phenomena within an apparently simple framework. Nonetheless, a profound understanding of the model is required in order to be able to interpret the obtained results correctly. Furthermore, in the dynamic case the phase field model needs to be verified in comparison to experimental data and analytical results in order to increase the trust in this new approach. In this thesis, a phase field model for dynamic brittle fracture is investigated with regard to these aspects by analytical and numerical methods
Zur kontinuierlichen Herstellung von Faser-Kunstoff-Verbunden in Form von Profilen
hat sich das Pultrusionsverfahren seit langem erfolgreich industriell etabliert. Bis jetzt
wurden fast ausschließlich duroplastische Matrizes verwendet. Aufgrund der
zahlreichen Vorteile wecken thermoplastische Faserverbundwerkstoffe zunehmend
das Interesse der Industrie; der Einsatz und die Fertigung von thermoplastischen
Profilen in hohen Stückzahlen werden jedoch bislang wegen mangelnder
Grundkenntnisse noch nicht realisiert.
In der vorliegenden Arbeit wird der Pultrusionsprozess thermoplastischer
Faserverbundwerkstoffe im Hinblick auf Realisierbarkeit und Optimierung von
Prozessparametern untersucht. Ziel war es bereits vorliegende Erkenntnisse zu
erweitern und bestehende Wissenslücken zu schließen. Als Ausgangsmaterial
wurden verschiedene Garntypen verwendet: ein Garn aus Kohlenstoff- und Polyamid
12-Fasern, ein Mischgarn aus Glas- und Polypropylen-Fasern sowie Polypropylen
pulverimprägnierte Glasfasern (sogenannte Towpregs). Besonderes Augenmerk lag
auf dem ersten Garntyp aus CF/PA12, der diskontinuierliche Fasern enthält. Mit
diesen Materialien wurden unidirektional faserverstärkte, rechteckige und runde
Profile hergestellt. Weiterhin wurde der Einfluss von zwei Hauptprozessparametern,
die Temperatur der Vorheizzone und der Heizdüse und die Abzugsgeschwindigkeit,
sowie von der Länge der Heizdüse auf die Profilqualität analysiert. Die jeweils
verwendeten Garntypen, der sich einsstellende Faservolumengehalt sowie der
Feuchtigkeitseinfluss wurden zusätzlich systematisch untersucht. Weiterhin wurde
die Abzugskraft analysiert.
Die Charakterisierung der Pultrudatqualität erfolgte durch mechanische und
morphologische Prüfungen. Der Imprägnierungsgrad, die Biegeeigenschaften und
die Scherfestigkeit, sowie zweitrangig die Charpy-Schlagzähigkeit und die
Zugeigenschaften wurden hierzu ermittelt und anschließend bewertet. Weiterhin
wurde die Oberflächenqualität mittels Laserprofilometrie untersucht.
Einen entscheidenden Faktor stellte die Abzugsgeschwindigkeit dar. Bis auf die
Oberfläche wurden Verschlechterungen der Imprägnierung und der mechanischen
Eigenschaften mit zunehmender Geschwindigkeit beobachtet.
Weiterhin wurde der Abkühlungsprozess untersucht. Die bei der Pultrusion
vorhandenen Abkühlraten sind sehr hoch und werden von der
Abzugsgeschwindigkeit sowie der Kühldüsentemperatur beeinflusst.Die Erstellung eines Verarbeitungsfensters für das Garn aus CF/PA12 wurde
erfolgreich durch Verwendung einer Qualitätskennzahl durchgeführt.
Des Weiteren wurde die Erstarrung und der Prozess der Kristallisation aus der
Schmelze für das CF/PA12 System näher untersucht. Zur Beschreibung der
isothermen sowie nicht-isothermen Kristallisationskinetik wurden verschiedene
Methoden angewandt. In diesem Zusammenhang lieferten das Modell von Chuah
zufriedenstellende Ergebnisse.
Weiterhin erfolgte die Modellierung der Wärmeübertragung zur Vorhersage der
Temperatur im Material während der Pultrusion mit der Finiten Elemente Methode.
Aufbauend hierauf können im Versuchsvorfeld die am besten geeigneten
Werkzeugtemperatur-/Abzugsgeschwindigkeitskombinationen eingestellt werden.
The popularity of composite materials is constantly growing, which can be verified by
the rising number of composite parts in our everyday life. Examples of composite
parts can be found in the Airbus A 380 or the constantly increasing number of wind
turbines which contain composite rotor blades of over 50m length. Because of the
main features of composites, which are light weight combined with high strength and
the possibility of tailoring the strength and the stiffness of the composite according to
the requirements, their application is highly efficient and economic.
In order to manufacture a composite part by employing a Liquid Composite Molding
Process (LCM), it is first necessary to select an appropriate manufacturing process
such as the Resin Transfer Molding Process (RTM) and to design a mold which corresponds
to the requirements of the selected process. Then the stacking sequence of
the individual fibrous reinforcements is designed to withstand the loads on the final
part. To achieve an efficient composite manufacturing process, pre-shaped, handable,
dry reinforcing structures, so called preforms, need to be applied. Such preforms
can be assembled either by using conventional binder technologies or by the
recently developed “cut and sew approach”. A variety of available software simulation
tools support the design engineer in this task. These tools are, on the one hand, a
fast way of gaining information about the expected loads the mold has to endure during
the injection process. On the other hand, they provide the possibility to optimize
the injection process and its process parameters and to identify critical points of incomplete
saturation. With this information at hand, the design of the mold can be adjusted
in order to obtain optimal processing conditions for a slim and efficient production
cycle.
A prerequisite for employing these powerful simulation tools is to obtain thorough
knowledge of the required input parameters concerning the fibrous reinforcement to
be used. The most important input parameters are the compaction behavior and the
permeability of the fibrous stacking sequence. Because of the absence of modelbased
tools to provide this input information experimental determination methods
have to be employed.
This work introduces two semi-automated measurement cells which determine the inplane
permeability of fibrous reinforcements in an efficient manner, i.e. the dielectrical permeability work cell and the optical compaction and permeability work cell. The
latter of which can determine both the required compaction and the permeability information
in one single experiment. The design and manner of operating of the optical
compaction and permeability work cell is described and its functionality is validated
by a comparison of experimental results.
The complexity of modern real-time systems is increasing day by day. This inevitable rise in complexity predominantly stems from two contradicting requirements, i.e., ever increasing demand for functionality, and required low cost for the final product. The development of modern multi-processors and variety of network protocols and architectures have enabled such a leap in complexity and functionality possible. Albeit, efficient use of these multi-processors and network architectures is still a major problem. Moreover, the software design and its development process needs improvements in order to support rapid-prototyping for ever changing system designs. Therefore, in this dissertation, we provide solutions for different problems faced in the development and deployment process of real-time systems. The contributions presented in this thesis enable efficient utilization of system resources, rapid design & development and component modularity & portability.
In order to ease the certification process, time-triggered computation model is often used in distributed systems. However, time-triggered scheduling is NP-hard, due to which the process of schedule generation for complex large systems becomes convoluted. Large scheduler run-times and low scalability are two major problems with time-triggered scheduling. To solve these problems, we present a modular real-time scheduler based on a novel search-tree pruning technique, which consumes less time (compared to the state-of-the-art) in order to schedule tasks on large distributed time-triggered systems. In order to provide end-to-end guarantees, we also extend our modular scheduler to quickly generate schedules for time-triggered network traffic in large TTEthernet based networks. We evaluate our schedulers on synthetic but practical task-sets and demonstrate that our pruning technique efficiently reduces scheduler run-times and exhibits adequate scalability for future time-triggered distributed systems.
In safety critical systems, the certification process also requires strict isolation between independent components. This isolation is enforced by utilizing resource partitioning approach, where different criticality components execute in different partitions (each temporally and spatially isolated from each other). However, existing partitioning approaches use periodic servers or tasks to service aperiodic activities. This approach leads to utilization loss and potentially leads to large latencies. On the contrary to the periodic approaches, state-of-the-art aperiodic task admission algorithms do not suffer from problems like utilization loss. However, these approaches do not support partitioned scheduling or mixed-criticality execution environment. To solve this problem, we propose an algorithm for online admission of aperiodic tasks which provides job execution flexibility, jitter control and leads to lower latencies of aperiodic tasks.
For safety critical systems, fault-tolerance is one of the most important requirements. In time-triggered systems, modes are often used to ensure survivability against faults, i.e., when a fault is detected, current system configuration (or mode) is changed such that the overall system performance is either unaffected or degrades gracefully. In literature, it has been asserted that a task-set might be schedulable in individual modes but unschedulable during a mode-change. Moreover, conventional mode-change execution strategies might cause significant delays until the next mode is established. In order to address these issues, in this dissertation, we present an approach for schedulability analysis of mode-changes and propose mode-change delay reduction techniques in distributed system architecture defined by the DREAMS project. We evaluate our approach on an avionics use case and demonstrate that our approach can drastically reduce mode-change delays.
In order to manage increasing system complexity, real-time applications also require new design and development technologies. Other than fulfilling the technical requirements, the main features required from such technologies include modularity and re-usability. AUTOSAR is one of these technologies in automotive industry, which defines an open standard for software architecture of a real-time operating system. However, being an industrial standard, the available proprietary tools do not support model extensions and/or new developments by third-parties and, therefore, hinder the software evolution. To solve this problem, we developed an open-source AUTOSAR toolchain which supports application development and code generation for several modules. In order to exhibit the capabilities of our toolchain, we developed two case studies. These case studies demonstrate that our toolchain generates valid artifacts, avoids dirty workarounds and supports application development.
In order to cope with evolving system designs and hardware platforms, rapid-development of scheduling and analysis algorithms is required. In order to ease the process of algorithm development, a number of scheduling and analysis frameworks are proposed in literature. However, these frameworks focus on a specific class of applications and are limited in functionality. In this dissertation, we provide the skeleton of a scheduling and analysis framework for real-time systems. In order to support rapid-development, we also highlight different development components which promote code reuse and component modularity.
The core muscles play a central role in stabilizing the head during headers in soccer. The objective of this study was to examine the influence of a fatigued core musculature on the acceleration of the head during jump headers and run headers. Acceleration of the head was measured in a pre-post-design in 68 soccer players (age: 21.5 ± 3.8 years, height: 180.0 ± 13.9 cm, weight: 76.9 ± 8.1 kg). Data were recorded by means of a telemetric 3D acceleration sensor and with a pendulum header. The treatment encompassed two exercises each for the ventral, lateral, and dorsal muscle chains. The acceleration of the head between pre- and post-test was reduced by 0.3 G (p = 0.011) in jump headers and by 0.2 G (p = 0.067) in run headers. An additional analysis of all pretests showed an increased acceleration in run headers when compared to stand headers (p < 0.001) and jump headers (p < 0.001). No differences were found in the sub-group comparisons: semi-professional vs. recreational players, offensive vs. defensive players. Based on the results, we conclude that the acceleration of the head after fatiguing the core muscles does not increase, which stands in contrast to postulated expectations. More tests with accelerated soccer balls are required for a conclusive statement.