Refine
Year of publication
- 2016 (75) (remove)
Document Type
- Doctoral Thesis (40)
- Periodical Part (14)
- Article (9)
- Part of a Book (5)
- Working Paper (3)
- Master's Thesis (2)
- Book (1)
- Other (1)
Language
- German (75) (remove)
Has Fulltext
- yes (75)
Keywords
- Stadtplanung (8)
- MINT (5)
- Mathematische Modellierung (5)
- Schule (4)
- Gentoxizität (2)
- Hochschulforschung (2)
- Wissenschaftliche Weiterbildung (2)
- Alkenylbenzene (1)
- American Exceptionalism (1)
- Amerikanische Außenpolitik (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (12)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (10)
- Universität (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Mathematik (5)
- Kaiserslautern - Fachbereich Architektur (2)
- Kaiserslautern - Fachbereich Informatik (2)
- Universitätsbibliothek (2)
Die Bewertung bestehender Bauteile unterscheidet sich grundsätzlich von der Bemessung neu zu erstellender Bauteile, da im Gegensatz zur Neubausituation bemessungsrelevante Parameter am Bestandstragwerk ermittelt werden können. Trotzdem müssen baustatische Nachweise in beiden Fällen auf Basis der aktuellen technischen Baubestimmungen geführt werden, deren Sicherheits- und Nachweiskonzept zur Erstellung von Neubauten konzipiert wurde und berücksichtigt, dass die tatsächlichen Bauteilkennwerte zum Zeitpunkt der Bemessung mit Unsicherheiten behaftet sind.
Bestehende Tragwerke können und müssen in vielen Fällen die darin enthaltenen Anforderungen nicht erfüllen, da im Vergleich zur Neubausituation eine Vielzahl von Tragwerksinformationen vorliegen, die eine Absenkung der im Zuverlässigkeitskonzept enthaltenen Unsicherheitsfaktoren begründen.
Aus diesem Grund wird innerhalb der vorliegenden Arbeit ein zur Bewertung bestehender Wasserbauwerke angepasstes, semiprobabilistisches Nachweiskonzept erarbeitet, das auf den wahrscheinlichkeitstheoretischen Festlegungen des Eurocode beruht. Im Vergleich zum aktuellen Nachweiskonzept zeichnet es sich durch die Berücksichtigung von im Rahmen einer qualifizierten Bestandsaufnahme am Tragwerk festgestellten Bauteilkennwerten und Einwirkungen sowie angepassten Zuverlässigkeitselementen aus.
Innerhalb einer probabilistischen Querschnittsanalyse werden weiterhin die zur Zuverlässigkeitsbewertung bestehender Wasserbauwerke aus Beton maßgebenden Basisvariablen identifiziert und es wird nachgewiesen, dass auch die Zuverlässigkeitselemente des modifizierten Nachweiskonzeptes dem Format nach den wahrscheinlichkeitstheoretischen Festlegungen des Eurocodes entsprechen.
Darüber hinaus wird gezeigt, dass die Konstruktionsweise zur Errichtung von unbewehrten Gewichtsstützwänden alter Schleusen zu einem Zuverlässigkeitsniveau führt, wie es aktuell auch innerhalb des Eurocodes gefordert wird.
In der aktuellen technologischen Entwicklung spielen verteilte eingebettete Echtzeitsysteme eine immer zentralere Rolle und werden zunehmend zum Träger von Innovationen. Durch den hiermit verbundenen steigenden Funktionsumfang der verteilten Echtzeitsysteme und deren zunehmenden Einsatz in sicherheitsrelevanten Anwendungsgebieten stellt die Entwicklung solcher Systeme eine immer größere Herausforderung dar. Hierbei handelt es sich einerseits um Herausforderungen bezogen auf die Kommunikation hinsichtlich Echtzeitfähigkeit und effizienter Bandbreitennutzung, andererseits werden geeignete Methoden benötigt, um den Entwicklungsprozess solcher komplexen Systeme durch Tests und Evaluationen zu unterstützen und zu begleiten. Die hier vorgestellte Arbeit adressiert diese beiden Aspekte und ist entsprechend in zwei Teile untergliedert.
Der erste Teil der Arbeit beschäftigt sich mit der Entwicklung neuer Kommunikationslösungen, um den gestiegenen Kommunikationsanforderungen begegnen zu können. So erfordert die Nutzung verteilter Echtzeitsysteme im Kontext sicherheitsrelevanter Aufgaben den Einsatz zeitgetriggerter Kommunikationssysteme, die in der Lage sind, deterministische Garantien bezüglich der Echtzeitfähigkeit zu gewähren. Diese klassischen auf exklusiven Reservierungen basierenden Ansätze sind jedoch gerade bei (seltenen) sporadischen Nachrichten sehr ineffizient in Bezug auf die Nutzung der Bandbreite.
Das in dieser Arbeit verwendete Mode-Based Scheduling with Fast Mode-Signaling (modusbasierte Kommunikation) ist ein Verfahren zur Verbesserung der Bandbreitennutzung zeitgetriggerter Kommunikation, bei gleichzeitiger Gewährleistung der Echtzeitfähigkeit. Um dies zu ermöglichen, erlaubt Mode-Based Scheduling einen kontrollierten, slotbasierten Wettbewerb, welcher durch eine schnelle Modussignalisierung (Fast Mode-Signaling) aufgelöst wird. Im Zuge dieser Arbeit werden verschiedene robuste, zuverlässige und vor allem deterministische Realisierungen von Mode-Based Scheduling with Fast Mode-Signaling auf Basis existierender drahtgebundener Kommunikationsprotokolle (TTCAN und FlexRay) vorgestellt sowie Konzepte präsentiert, welche eine einfache Integration in weitere Kommunikationstechnologien (wie drahtlose Ad-Hoc-Netze) ermöglichen.
Der zweite Teil der Arbeit konzentriert sich nicht nur auf Kommunikationsaspekte, sondern stellt einen Ansatz vor, den Entwicklungsprozess verteilter eingebetteter Echtzeitsysteme durch kontinuierliche Tests und Evaluationen in allen Entwicklungsphasen zu unterstützen und zu begleiten. Das im Kontext des Innovationszentrums für Applied Systems Modeling mitentwickelte und erweiterte FERAL (ein Framework für die Kopplung spezialisierter Simulatoren) bietet eine ideale Ausgangsbasis für das Virtual Prototyping komplexer verteilter eingebetteter Echtzeitsysteme und ermöglicht Tests und Evaluationen der Systeme in einer realistisch simulierten Umgebung. Die entwickelten Simulatoren für aktuelle Kommunikationstechnologien ermöglichen hierbei realistische Simulationen der Interaktionen innerhalb des verteilten Systems. Durch die Unterstützung von Simulationssystemen mit Komponenten auf unterschiedlichen Abstraktionsstufen kann FERAL in allen Entwicklungsphasen eingesetzt werden. Anhand einer Fallstudie wird gezeigt, wie FERAL verwendet werden kann, um ein Simulationssystem zusammen mit den zu realisierenden Komponenten schrittweise zu verfeinern. Auf diese Weise steht während jeder Entwicklungsphase ein ausführbares Simulationssystem für Tests zur Verfügung. Die entwickelten Konzepte und Simulatoren für FERAL ermöglichen es, Designalternativen zu evaluieren und die Wahl einer Kommunikationstechnologie durch die Ergebnisse von Simulationen zu stützen.
Im Stahlbetonbau werden die Eigenschaften von Beton und Bewehrungsstahl so vereint, dass ein Werkstoff entsteht, welcher wesentlich tragfähiger ist als die einzelnen Komponenten. In hoch bewehrten Konstruktionen kann es sinnvoll sein, große Bewehrungsstabdurchmesser (≥ 32mm) einzusetzen. Ein Bewehrungsstab Ø40mm (12,56cm²) kann im Vergleich der Querschnittsflächen die Kombinationen 2Ø28mm, 4Ø20mm, 8Ø14mm, 11Ø12mm, 16Ø10mm oder sogar 25Ø8mm ersetzen. Hierdurch können vielfältige Vorteile aber auch, insbesondere bei der Rissbreitenbeschränkung, Nachteile entstehen.
In der vorliegenden Arbeit wurde das grundsätzliche Rissverhalten von großen Stabdurchmessern untersucht. In experimentellen Untersuchungen an insgesamt 60 Versuchen mit über 30.000 Rissbreitenmessungen wurde das Verhalten an Zugstäben sowie an Zugplatten mit und ohne Oberflächenbewehrung betrachtet. Es wurden verschiedene Einflüsse auf die Rissbreiten, unter anderem der Bewehrungsstabdurchmesser, die Betondruckfestigkeit sowie die Belastungsart berücksichtigt. Der Hauptteil dieser Arbeit beschäftigt sich mit der nach DIN EN 1992-1-1 2011 und DIN EN 1992-1-1/NA 2013 geforderten Oberflächenbewehrung sowie deren Reduzierung. Auf Grundlage der hohen Anzahl an Messwerten sind belastbare Ergebnisse möglich. Es wurden Bemessungsvorschläge ausgearbeitet, welche abschließend in zwei Modellen zur Rissbreitenberechnung einfließen.
Bei Baumaßnahmen kommt es oft zu Auseinandersetzungen zwischen Bauherren und Planern, bei denen die zulässige Breite von Rissen in Stahlbetonbauteilen im Vordergrund steht. Die Rissgeometrie, der Rissbreitenverlauf von der Betonoberfläche zum Bewehrungsstab, wurde ebenfalls untersucht. Es wurden Risse unter Beanspruchung „eingefroren“ und die Rissbreite in der Betondeckung mit Hilfe eines optischen Messsystems erfasst. Mit Hilfe dieser Rissbreitenwerte wurde ein Ingenieurmodell aufgestellt, welches eine Umrechnung zwischen dem Rechenwert der Rissbreite und der Rissbreite an der Betonoberfläche erlaubt.
Zur Auslegung von innovativen Betonkollektorelementen für solarthermische Parabolrinnenkraftwerke
(2016)
Kurzfassung
Parabolrinnen stellen die wirtschaftlichste Form der solarthermischen Kraftwerke mit
Solarstrahlenkonzentration dar. Die Kollektorelemente sind der entscheidende Faktor
für die Wirtschaftlichkeit des gesamten Parabolrinnenkraftwerks. Stand der Technik
ist es, die Kollektoren als räumliche Stahlfachwerke mit punktförmig gestützten Spiegeln
auszuführen. Zu diesem Konstruktionsprinzip sind Alternativen möglich.
Im Rahmen der vorliegenden Arbeit wurde die Machbarkeit einer wirtschaftlichen
Konstruktionsvariante für die Ausführung der Parabolrinnen unter Verwendung des
Werkstoffs Beton untersucht.
Die dabei erörterten Fragestellungen umfassen ein breites Spektrum. Ein Schwerpunkt
liegt auf der Konzeptionierung einer geeigneten Betonrezeptur und den damit
verbundenen betontechnologischen Herausforderungen. Diese waren stets unter
dem Gesichtspunkt einer schnellen Festigkeitsentwicklung zu betrachten. Des Weiteren
konnte ein Großdemonstrator konzeptionell und baulich realisiert werden, durch
welchen die Bauweise eines Parabolrinnenkollektorelements aus hochfestem Beton
vor Augen geführt wird. Diesem sind zwei Innovationen immanent: Zum einen die
Verwendung des Werkstoffs Beton, zum anderen sein neuartiges Auflagerungskonzept.
Der fertiggestellte Großdemonstrator wurde in einer Genauigkeitsanalyse mittels
optischer Messverfahren hinsichtlich seines Interceptfaktors, eine Kenngröße,
von welcher der Systemwirkungsgrad abhängt, beurteilt. Ein weiterer betrachteter
Aspekt ist die Maßhaltigkeit und Formstabilität von Beton, da durch Abweichungen
von ihrer Sollgeometrie der Interceptfaktor einer Parabolrinne reduziert wird. Anhand
von numerischen Untersuchungen wurden die unter realitätsnahen Bedingungen an
einem geeigneten Standort auftretenden Verformungen für den Großdemonstrator
analysiert und in Form einer rechnerischen Wirksamkeitsbeurteilung interpretiert.
Abstract
Parabolic troughs are the most economic type of solarthermal power plants working
by concentrating solar power. The collector elements are the most influencing factor
concerning the cost effectiveness of the whole power plant. State of the art is to construct
the collectors as spatial steel truss systems with point-wise supported mirrors.
Alternatives to this construction principle exist.
In the thesis at hand the feasibility of an economic way of constructing of an economic
execution of the parabolic troughs while using concrete as construction material
was analyzed.
The spectrum of the discussed questions is large. One focus was put on the conception
of a suitable concrete and the connected challenges concerning the concrete
technology. These were always to be considered under the aspect of a fast development
of the strength. Furthermore, a full-size demonstrator was planned and built,
which shows the construction method of a parabolic trough collector element using
high-strength concrete. Two innovations are immanent: On the one hand, the use of
the construction material concrete, on the other hand its novel supporting concept.
The completed full-size demonstrator was evaluated regarding its intercept factor (a
parameter by which the efficiency factor of the system is influenced) by using a precision
analysis using optical measurement methods. Another examined aspect is the
dimensional accuracy and stability of concrete because by deviations from the target
geometry the intercept factor of a parabolic trough is reduced. By means of numerical
methods the deflections, which result under realistic conditions at a suitable location,
were analyzed and in due form of a mathematical effectiveness assessment interpreted.
In der 2. Hälfte des 20. Jahrhunderts fand in der Bundesrepublik Deutschland ein weiträumiger Suburbanisierungsprozess statt. Junge Familien wanderten u. a. in den 1970er und 1980er Jahren in der Familiengründungsphase in das Umland der Städte und präferierten die Wohnform des Einfamilienhauses in einem familienfreundlichen Wohnumfeld. Infolgedessen entstanden weitgehend altershomogene Siedlungen. Diese Bevölkerungsgruppe erreicht nun das Alter 60plus mit der Folge, dass Umlandgebiete von Städten aufgrund der genannten altersselektiven Stadt-Umland-Wanderungen von der demographischen Alterung in überdurchschnittlichem Maße betroffen sind.
Heute ergibt sich ein Problemkomplex aus einer fehlenden Kongruenz zwischen gealterter Bevölkerung einerseits und räumlicher Umwelt andererseits, der sowohl die Kommunen als Wohnstandort als auch die betroffenen Haushalte vor neuartige Herausforderungen stellt.
Demnach kommt es im Zuge der Erhöhung des Anteils älterer Menschen in der Bevölkerung in suburbanen Räumen zu einer Verstärkung und Modifikation der Nachfrage nach altenspezifischen, dezentralen Versorgungsstrukturen in bestimmten Bereichen der Daseinsvorsorge (wie der medizinischen Versorgung, der Versorgung mit Gütern des täglichen Bedarfs und des öffentlichen Personennahverkehrs (öPNV)) sowie im Bereich altengerechter Wohnraumangebote. Neben diesen quantitativen Aspekten weist die Bevölkerungsgruppe 60plus aufgrund von gesellschaftlichen Veränderungsprozessen, wie dem Wertewandel, im Vergleich zur Vorkriegsgeneration neuartige Bedürfnisse und Anforderungen an ihren Wohnstandort auf.
Gleichzeitig sind sowohl altenspezifische Versorgungsstrukturnetze in suburbanen Räumen aufgrund einer flächenintensiven und monofunktionalen Siedlungsentwicklung mit räumlich konzentrierten Einrichtungen der Daseinsvorsorge, einer starken Abhängigkeit vom motorisierten Individualverkehr (MIV) bei abnehmender altersbedingter individueller Mobilität und damit einhergehenden ungünstigen Erreichbarkeiten als auch altengerechte Wohnraumangebote oftmals nur eingeschränkt vorhanden.
Die geschilderten raumbezogenen Divergenzen zwischen sich wandelnden quantitativen und qualitativen Nutzungsmustern hinsichtlich Versorgungsstrukturen, Mobilität und Wohnraum einerseits und siedlungsstrukturellen Rahmenbedingungen andererseits führen dazu, dass Wohnstandortentscheidungen früherer Lebensphasen dahingehend überprüft werden, ob eine altersgerechte Lebensführung in den suburbanen Siedlungsgebieten möglich ist.
Vor dem Hintergrund der dargelegten raumstrukturellen Problemlagen in suburbanen Kommunen im Zuge des Prozesses der demographischen Alterung liegt das zentrale Anliegen der vorliegenden Arbeit darin, Wohnstandortentscheidungen suburbaner Haushalte der Bevölkerungsgruppe 60plus anhand einer beispielhaften Betrachtung in ausgewählten suburbanen Kommunen im Landkreis Mainz-Bingen zu untersuchen.
Folgende Forschungsziele werden im Rahmen der Arbeit verfolgt:
In einem ersten Schritt sollen die Standortgegebenheiten in Bezug auf die Ausstattung mit Versorgungsstrukturen, die die Untersuchungskommunen älteren Menschen der Generation 60plus bieten, zukünftig im höheren Alter ein selbstständiges Leben führen zu können, analysiert werden.
Des Weiteren werden das derzeitige aktionsräumliche Versorgungsverhalten der Untersuchungsgruppe sowie daraus entstehende potentielle Versorgungsdefizite im höheren Alter untersucht.
In einem weiteren Analyseschritt liegt der Fokus auf der subjektiven Wohnstandortbewertung aus Bürgerperspektive. Im Speziellen wird dargestellt, inwiefern die Bevölkerungsgruppe 60plus ihren Wohnstandort in einzelnen Bereichen der Versorgungsstrukturen beurteilt und klassifiziert.
Darüber hinaus ist die prospektive Wohnmobilität (Umzugsbereitschaft) der Generation 60plus, insbesondere in Abhängigkeit von den gegebenen Versorgungsstrukturen, Gegenstand der Untersuchung. Es wird erforscht, ob eine erhöhte Wohnmobilität innerhalb dieser Altengeneration, beispielweise mit Wanderungen in innerstädtische Quartiere mit seniorengerechten Versorgungsstrukturen und Wohnungsangeboten, nachzuweisen ist.
Für von dem demographischen Alterungsprozess betroffene suburbane Siedlungsräume sind zumeist noch keine, auf eine ganzheitliche Strategie ausgerichtete kommunale Entwicklungskonzepte entworfen worden, welche öffentlichen und privatwirtschaftlichen Akteuren Optionen aufzeigen, wie eine bedarfs- und seniorengerechte Planung in den Bereichen Nahversorgung, medizinische Versorgung, Mobilität und Wohnen in Zukunft gestaltet werden kann. Die Konzeption geeigneter Entwicklungsstrategien soll die Qualität suburbaner Wohnstandorte für ältere Menschen erhöhen, eine selbstständige und selbstbestimmte Lebensführung im Alter und einem möglichst langen Verbleib im angestammten Wohnquartier und der Kommune ermöglichen und potentiell auftretende Abwanderungstendenzen der Bevölkerungsgruppe 60plus entgegenwirken.
Die aus den Zielsetzungen abgeleiteten Forschungsfragen werden einerseits mittels einer sekundärstatistischen und andererseits durch eine empirische Untersuchung in 16 Kommunen im Landkreis Mainz-Bingen im Umland der rheinland-pfälzischen Landeshauptstadt Mainz beant-wortet. Die Untersuchungseinheit im Rahmen der empirischen Arbeiten bilden Haushalte der Jahrgänge 1945-1953, so dass im Erhebungsjahr 2014 dies die Gruppe der 60- bis 69-Jährigen einschließt. Die empirische Untersuchung in den 16 Kommunen wurde anhand einer teilstandardisierten postalischen Befragung vorgenommen. Insgesamt sind im Rahmen der Erhebung 3.942 Fragebögen an Haushalte versendet worden (Vollerhebung). Die Rücklaufquote beträgt mit insgesamt 2.002 ausgefüllten Fragebögen 51 %.
Aufbauend auf den empirischen Ergebnissen der sekundärstatistischen und empirischen Untersuchung der Auswirkungen von suburbanen Raumstrukturen auf Wohnstandortentscheidungen der Bevölkerungsgruppe 60plus und der Beantwortung der Forschungsfragen werden zunächst zentrale Forschungserkenntnisse zusammengefasst und Schlussfolgerungen für den ausgewählten Untersuchungsraum gezogen. Das Ziel liegt in einer induktiven Herausarbeitung von allgemeinen Handlungsbedarfen für die Planungspraxis, die generell in suburbanen Siedlungs-gebieten vor dem Hintergrund der Auswirkungen der demographischen Alterung virulent sind und in der Konsequenz zu einer Erhöhung der Wohnmobilität älterer Bevölkerungsgruppen führen können.
Anschließend werden, auf der Ableitung von allgemeinen Handlungsbedarfen für die Raumplanung aufbauend, übergeordnete Strategien zur Gestaltung und Anpassung eines seniorengerechten Versorgungs- und Wohnraumangebotes in suburbanen Siedlungsgebieten in Deutschland aufgezeigt. Das Ziel liegt in der Ermöglichung einer selbstständigen und selbstbestimmten Lebensführung im Alter und einem möglichst langen Verbleib im angestammten Wohnquartier und der Kommune, in der Erhöhung der Qualität suburbaner Wohnstandorte für ältere Menschen und in dem Entgegenwirken potentiell auftretenden Abwanderungstendenzen der Bevölkerungsgruppe 60plus.
Faser-Kunststoff-Verbunde (FKV) sind in der Luftfahrt etabliert, wohingegen andere
Branchen diese aufgrund der hohen Kosten nur zögerlich einsetzen. Die hohen Betriebskosten
von Flugzeugen, die sich vorrangig durch Leichtbau reduzieren lassen,
erlauben kostenintensivere Lösungen als die Kostenstrukturen in anderen Branchen.
Die Mehrkosten sind neben dem Leichtbau der entscheidende Faktor für den Einsatz
von FKV-Strukturen außerhalb der Luftfahrtbranche. Während in der Luftfahrtbranche
üblicherweise Niete zur Krafteinleitung eingesetzt werden und diese nur eine
Demontage eines Bauteils durch Aufbohren zulassen, genügen Niete den Ansprüchen
anderer Branchen nicht, da ein hoher Demontageaufwand durch das Aufbohren
hohe Kosten mit sich zieht. Aus diesem Grund erfordert es preisgünstige und qualitative
Lösungen, die eine lösbare Verbindung ermöglichen. In den meisten Branchen
werden daher, im Gegensatz zur Luftfahrt, traditionell reibschlüssige Schraubenverbindungen
für metallische Bauteile verwendet. Für reibschlüssige Schraubenverbindungen,
die zur Krafteinleitung in FKV-Strukturen genutzt werden, sind dem Stand
der Forschung nach kaum Erkenntnisse vorhanden.
Daher ist es Gegenstand dieser Arbeit aufzuzeigen, wie durch eine Erhöhung des
Reibwerts bei reibschlüssigen Krafteinleitungen in FKV-Bauteilen eine Verbesserung
der statischen und zyklischen Verbindungsfestigkeit erreicht werden kann. Um den
zuverlässigen Einsatz von reibschlüssigen Schraubenverbindungen zu ermöglichen,
werden außerdem die maximal zulässige Flächenpressung und der Vorspannkraftverlust
an FKV-Proben ermittelt. Dabei bilden experimentelle Ergebnisse eine Basis,
anhand derer aufgezeigt wird, inwieweit analytische Modelle genutzt werden können,um die reibschlüssige Krafteinleitung in FKV abzubilden.
Zunächst wird der Haftreibwert zwischen Stahl und FKV experimentell untersucht,
um Konzepte zur Steigerung des Reibwerts zu quantifizieren. Durch die experimentelle
Ermittlung einer maximal zulässigen Flächenpressung für die verwendeten FKVMaterialien
werden Schädigungen infolge zu hoher Vorspannkräfte vermieden. Dazu
werden FKV- Proben mit einem Stempel belastet und mit Hilfe der Schallemissionsmethode
Schädigungen detektiert, zu dem Zweck eine Belastungsgrenze zu definieren. Versuche zur Bestimmung des Vorspannkraftverlusts an FKV-Proben zeigen,
dass die Vorspannkraft durch Setzen und Kriechen zwar reduziert wird, dies aber in
vertretbarem Maße. Darüber hinaus lässt sich in den Versuchen beobachten, dass
das Setzen deutlich von der Oberflächenbeschaffenheit bestimmt wird. Um die Einflüsse
des Matrixwerkstoffs, des Reibwerts, der Passung und der Vorspannkraft auf
die Kraftübertragung in der Schraubverbindung zu prüfen, werden außerdem
doppellaschige Zugscherversuche durchgeführt.
An geklemmten FKV-Bauteilen im Fahrradbau lassen sich Defizite bei der Auslegung
dieser Bauteile und ihrer Anbindungstechnologie feststellen. Da der Verbindung zwischen
Vorbau und Gabelschaft besondere sicherheitsrelevante Bedeutung zukommt,
wird eine marktübliche Gabelschaft-Vorbau-Klemmung im Rahmen dieser Arbeit experimentell
und numerisch auf die Belastungen durch die Montage sowie im Betrieb
untersucht. Es kann dargelegt werden, dass ein komplexer Belastungszustand in der
genannten Klemmverbindung vorliegt, der numerisch abgebildet werden kann. Auf
Basis des validierten Finite-Element-Modells kann gezeigt werden, dass die Steigerung
des Reibwerts ein deutliches Potential aufweist um die Werkstoffanstrengung
zu reduzieren. Zur experimentellen Absicherung dieser Beobachtung, werden quasistatische
und zyklische Untersuchungen an Vorbau-Gabelschaft-Baugruppen durchgeführt,
bei denen der Reibwert durch die Applikation von Schmierfett und
Carbonmontagepaste variiert wird. Durch die Verwendung von Carbonmontagepaste
bzw. bei einem höheren Reibwert steigt sowohl die quasi-statische Festigkeit als
auch die Lebensdauer im Vergleich zum Einsatz von Schmierfett deutlich an.
Fiber reinforced plastics (FRP) are well established materials in the aviation industry,
whereas in other industries these materials are not yet this commonly used due to
the comparatively high costs. The high operating costs of aircrafts can be reduced
primarily through lightweight design, which allows the choice of more expensive solutions
than in other industries. The additional costs are beside the weight savings the
deciding factor for the use of FRP structures beyond the aviation sector. Since normally
rivets are used in the aviation industry to join components, the dismantling of
these riveted structures needs drilling. Hence rivets are insufficient for the demands
of other sectors due to the high disassembly costs caused by the high disassembly
effort. For this reason affordable solutions that permit an easy disassembly procedure
are essential for a wider application of FRP structures. Therefore – in most sectors
– preloaded bolted joints are used for the assembly of metallic components, in
contrast to aviation. For preloaded bolted joints in combination with FRP structures
almost no information is available by the current state of scientific knowledge
Therefore in this work it is investigated how an improvement of the static and cyclic
connection strength can be achieved by increasing the coefficient of friction at preloaded
bolted joints on FRP components. To enable a reliable application of preloaded
bolted joints the maximum allowable surface pressure and the loss of the preload
force of FRP specimens are determined. Therefore experimental results provide the
basis to study if analytical computation can be used to describe bolted joints on FRP
structures.
The coefficient of friction between steel and FRP is experimentally investigated in
order to quantify concepts that aim to increase the coefficient of friction. An experimental
determination of the maximum permissible surface pressure of the used FRP
materials avoids damage by excessive bolt preload. Therefore FRP specimens are
tested and a simultaneous detection of damage is performed by using the acoustic
emission method.
An experimentalinvestigation of the loss of bolt preload shows that the preload is
reduced by embedding and material relaxation but in an acceptable manner. In addition it can be observed that the embedding of the contact surfaces is significantly dependent
on the surface condition of the specimens. To analyze the influence of the
matrix material, the coefficient of friction, the clearance and the bolt preload to a bolted
joint, double lap tensile shear tests are performed.
Clamped FRP components used on bicycles show shortcomings in the design of these
components and their connection technology. Since the connection between stem
and steerer has a significant impact on safety, a standard stem/steerer connection is
investigated both experimentally and numerically considering the stresses during the
assembling as well as during operation. It can be demonstrated that this connection
has a complex load condition and a finite element analysis can describe this connection
sufficiently. Based on the validated finite element model it can be shown that an
increasing coefficient of friction has a significant potential for the reduction of the material
effort of the FRP steerer.
To validate these theoretical observations, quasi-static and cyclic tests on
stem/steerer assemblies are carried out. Thereby the coefficient of friction is varied
by the application of grease and carbon assembly paste. By the use of carbon assembly
paste (high coefficient of friction) both the quasi-static strength as well as the
operating life increases in comparison to the use of grease (low coefficient of friction).
Die vorliegende Arbeit fasst Erkenntnisse zum Einfluss polarer Alken-Substituenten auf Selektivitäten intramolekularer Alkoxylradikal-Additionen zusammen. Ergänzend zu den eigenen mechanistisch-synthetischen Studien flossen in die Bewertung der Reaktionsverläufe thermodynamische Daten und molekularorbital-theoretische Erkenntnisse ein, die in Kooperation mit Jens Hartung aus Dichtefunktional-Rechnungen abgeleitet wurden.
Die existierende Lehrmeinung beschreibt Sauerstoffradikale in Additionen und Substitutionen als Elektrophile, deren Selektivitäten durch sterische Effekte gesteuert werden. Auf Grundlage dieser Einteilung lassen sich atmosphärische und physiologische Sauerstoffradikal-Reaktionen und das komplementäre Reaktionsverhalten zu ionischen Cyclisierungen von Alkenolen deuten.
Vorläufermoleküle, die Sauerstoffradikale in unverzweigten Kettenreaktionen unter pH-neutralen nicht oxidativen Bedingungen freisetzen, erlaubten in der vorliegenden Arbeit strukturell komplexere Sauerstoffradikale mit hoher Spezifität zu erzeugen und aus den isolierten Produkten ein differenzierteres Bild zur Radikalselektivität abzuleiten. In diesem Bild besitzen Sauerstoffradikale Grenzreaktivität. Gegenüber Akzeptor-substituierten Alkenen treten Sauerstoffradikale als Nucleophile und gegenüber Donor-substituierten Alkenen als Elektrophile auf. Elektrophilie bildet darüber hinaus die Grundlage für einen neuen 2,3-cis-dirigierenden Effekt Allyl-ständiger Akzeptor-Gruppen, in denen der polare Einfluss über den sterischen dominiert.
In einem Projekt zur Synthese von Isomuscarinen, die sich durch Positionierung einer endocyclischen Hydroxy-Gruppe von den Glutamat-abgeleiteten Muscarin-Alkaloiden unterscheiden, fiel eine unerwartete 2,3-cis-Selektivität der 5-Hexen-2-oxylradikal-Cyclisierung auf. Aus sterischen Gründen wäre das 2,3-trans-konfigurierte Produkt favorisiert. 2,3-cis-Selektivität, die sich sowohl bei thermisch als auch photochemisch durchgeführten homolytischen Bromcyclisierungen zum Aufbau von Isomuscarin-Gerüsten zeigte, lässt sich in einem der diastereomeren Radikale durch den konformellen Effekt einer Methylgruppe zu 2,3-trans übersteuern. Die Befunde legen nahe, dass die 2,3-cis-Selektivität aus der kinetischen Reaktionskontrolle der Cyclisierungsreaktion resultiert. Kristallographische Untersuchungen der vier racemischen Isomuscarine und umfangreiche NMR-Studien aus denen sogar 1J(14N,13C) offenkund wurden, stützten die stereochemische Analyse zur Radikalselektivität.
Um die Ursache 2,3-cis-selektiver Radikalcyclisierungen einzugrenzen, wurde in einem zweiten Projekt das Untersuchungssystem auf das Allyl-ständig Hydroxy-substituierte 4-Pentenoxylradikal reduziert. Letzteres liefert in Gegenwart von Bromtrichlormethan das 2,3-cis-Cyclisierungsprodukt in einer Selektivität von 74:26. Da das 2,3-cis- und das 2,3-trans-Stereoisomer des (3-Hydroxytetrahydrofuran-2-yl)methyl-Radikals unter den Reaktions-bedingungen nicht ringöffnen, liegt der 2,3-cis-Selektiviät ein kinetischer Einfluss der Allyl-ständigen Hydroxy-Gruppe zugrunde. Auch Acyloxy-Gruppen in allylischer Position ermöglichen 2,3-cis-selektive 4-Pentenoxylradikal-Cyclisierungen, jedoch mit abweichender Selektivität. Den polaren Effekt überlagert demzufolge der sterische des eingesetzten Substituenten.
Das Zusammenspiel zwischen polarem und sterischem Effekt eines Allyl-ständigen Substituenten gelang es in einem dritten Projekt zu separieren. In diesem Projekt variierte der Allyl-ständige Substituent von Hydroxy, Methoxy, Trifluoracetoxy, Chlor, Benzamido, Benzolsulfonamido, N-Phthalimido zu Benzoylsulfanyl. Entlang dieser Reihe fiel der Anteil 2,3-cis-bromcyclisierter Produkte bei thermisch induzierter Umsetzung der synthetisierten Allyl-substituierten 4-Pentenylthiohydroxamate mit Bromtrichlormethan. In einer Korrelationsanalyse folgt der cis-Anteil an 5-exo-trig-Cyclisierungsprodukt der Stabilisierung der HOMO-Energie, wobei 2-substituierte But-3-ene als Modell-Verbindungen zur Korrelation eingesetzt wurden. Mit zunehmendem sterischen Substituenteneinfluss, ausgedrückt anhand des entsprechenden Winstein-Holness-Parameters, steigt der Anteil 2,3-trans-konfigurierter Cyclisierungsprodukte. 2,3-cis-Selektivität resultiert in dem Modell aus einer Verlangsamung der 2,3-trans-Reaktion durch den stabilisierenden Einfluss eines sterisch möglichst kleinen stark elektronenziehenden Substituenten. Mit zunehmender Stabilisierung des Alkenteils sinkt die Geschwindigkeit der Radikaladdition. Mit zunehmender Raumerfüllung des Allyl-Substituenten wird jedoch das Konformer aus dem die 2,3-cis-Reaktion erreicht werden kann zu energiereich, um nennenswert eine Rolle zu spielen.
Direkt an der Doppelbindung gebundene Substituenten haben einen noch deutlicheren Einfluss auf die Radikalselektivitäten, da sie die Energien von π-Typ-Orbitalen direkt beeinflussen. Alkoxylradikale addieren dabei rascher an eine terminal Cyano-substituierte Doppelbindung als an eine unsubstituierte. Kontrollreaktionen mit einer Radikaluhr zeigten, dass alle Intermediate auf Radikale zurückzuführen sind. Anwenden ließ sich die unerwartete nucleophile Reaktivität in der Synthese einer neuen Tetrahydrofuran-abgeleiteten Aminosäure.
Im Rahmen dieser Arbeit wird die Tiefenfiltration wässriger Suspensionen untersucht. Der Fokus der Untersuchungen liegt auf der Betrachtung der Druckdifferenz über dem Filtermedium und dem Abscheidegrad. Als Filtermittel werden dabei Vliese betrachtet. Die Zielsetzung der Arbeit besteht darin, einen Beitrag zum besseren Verständnis der Tiefenfiltration zu liefern. Die Erkenntnisse sollen helfen, Tiefenfilter besser auszulegen und Filtermedien gezielter zu entwickeln.
Zunächst werden die grundlegenden Vorgänge der Tiefenfiltration untersucht. Dabei werden die Durchströmung poröser Schichten sowie die der Partikelabscheidung zugrunde liegenden Transport- und Haftmechanismen analysiert. Anschließend werden bestehende Ansätze zur Berechnung des Druckverlustes und der Partikelabscheidung von Tiefenfiltern aufgezeigt.
Um das Filtrationsverhalten von Vliesen experimentell zu untersuchen, wurde ein Prüfstand aufgebaut. An diesem können der Differenzdruck über den Vliesen und die Partikelabscheidung gemessen werden. Die Filtrationsversuche wurden bei konstantem Volumenstrom und konstanter Zusammensetzung der Suspension durchgeführt. Die eingesetzten Partikeln waren mineralischen Ursprungs. Das untersuchte Partikelspektrum lag im Bereich von 1-100 µm. Neben der Filtration wurde auch untersucht, in welchem Umfang mit Partikeln beladene Vliese diese wieder abgeben. Die Ergebnisse der Filtrations- und Ablöseversuche werden vorgestellt und diskutiert.
Auf Grundlage bestehender Berechnungsansätze und der durch die experimentellen Untersuchungen gewonnenen Erkenntnisse wurde ein Modell erstellt. Dieses ermöglicht die Berechnung der Partikelabscheidung und der Druckdifferenz auf Basis der Strukturdaten des Vlieses. Die Berechnung kann sowohl für den Beginn der Filtration als auch für den Verlauf der Filtration durchgeführt werden. Bei der Simulation des Verlaufs der Filtration erfolgt dabei eine gekoppelte Berechnung von Partikelabscheidung und Druckverlust. Für die Bestimmung der Partikelabscheidung wurde der Berechnungsansatz der Einzelfaserabscheidung zugrunde gelegt und erweitert. Die erzielten Simulationsergebnisse werden vorgestellt und diskutiert.
Im letzten Teil der Arbeit werden Ergebnisse vorgestellt und diskutiert, die mittels numerischer 3-D-Strömungssimulation erzielt wurden. Dabei wurde die Software DNSlab verwendet. Um die Partikelabscheidung simulieren zu können, wurde ein Abscheidemechanismus entwickelt. Dieser ermittelt die Partikelhaftung auf der Basis einer Kräftebilanz. Als relevante Kräfte wurden Strömungskräfte, Reibungskräfte und van-der-Waals-Kräfte identifiziert.
Bei der Herstellung von Faser-Kunststoff-Verbunden durch Harzinjektionsverfahren
wird ein textiler Vorformling, die Preform, mit einem Harzsystem imprägniert und
anschließend ausgehärtet. Die Erzeugung der Preform, auch Preforming genannt,
beinhaltet dabei eine Vielzahl an Arbeitsschritten, welche maßgeblich die Kosten des
herzustellenden Bauteils bestimmen. Die Automatisierung des Preformings birgt
daher ein enorm hohes Potential zur Kostenreduzierung. Im Rahmen dieser Arbeit
wurde deshalb ein neues Preforming System entwickelt, welches die kontinuierliche
Herstellung von Profil-Preforms aus textilen Halbzeugen ermöglicht. Erstmalig wurde
dabei zur kontinuierlichen Fixierung die Nähtechnik verwendet, welche ein energieund
zeiteffizientes Preforming zulässt. Allerdings hat sich bei der Herstellung von
Profil-Preforms mit unterschiedlichen textilen Halbzeugen gezeigt, dass die maximal
erreichbare Prozessgeschwindigkeit ohne relative Textilschädigung variiert. Ursache
hierfür ist das Textilverhalten während der Formgebung. Durch die Wahl geeigneter
Material- und Prozessparameter besteht allerdings ein hohes Potential, einen
Preforming Prozess zu optimieren. Daher war es das Ziel dieser Arbeit, Richtlinien
für Material- und Prozessparameter zu entwickeln, die sowohl eine robuste als auch
effiziente Preformherstellung ermöglichen.
Als kritische Textileigenschaften wurden das Kompaktierungs-, das Reibungs- und
das Biegeverhalten identifiziert. Diese wurden in separaten Parameterstudien
hinsichtlich der Auswirkungen von Materialparametern (z. B. Bindungsart) und
Prozessparametern (z. B. Prozessgeschwindigkeit) untersucht. Die Ergebnisse
konnten anschließend in Richtlinien zusammengefasst werden, welche für eine
prozessorientierte Materialauswahl oder für Prozessmodifikationen beim Preforming
genutzt werden können. Bei der Übertragung auf einen Preforming Prozess muss
jedoch berücksichtigt werden, dass sich Effekte verursacht durch Kompaktierung,
Reibung und Biegung in Abhängigkeit des Faservolumengehaltes der Preforms
überlagern können. Daher wurden anhand einer weiteren Studie dominierende
Textileigenschaften in Abhängigkeit des Ziel-FVG der Profil-Preforms beim
entwickelten Preforming Prozess identifiziert. Abschließend wurden die entwickelten
Richtlinien verifiziert, indem sowohl eine prozessorientierte Materialauswahl als auch
prozessseitig eine Vorkompaktierungseinheit validiert wurden.
Brasilien ist flächenmäßig das fünftgrößte Land der Welt, mit einer in den letzten Jahrzenten dynamisch wachsenden Bevölkerung von heute mehr als 200 Millionen Einwohnern. Infolge steigender Komfortansprüche ist ein gleichzeitig wachsender Energieverbrauch festzustellen. Bei den aus dem westlichen Ausland übernommenen Architekturen, Konstruktionen und Materialien sind integrierte Klimaanlagen baulicher Standard. Innerhalb staatlicher Wirtschaftsprogramme werden die Bauausführungen für den sozialen Wohnungsbau offiziell standardisiert. Je nach Flächenbedarf und Einkommensverhältnissen bieten die Wohnungsbaugesellschaften den Bewohnern preiswerte und finanzierungsgünstige Standard-Wohneinheiten und -Häuser an, die sogenannte Casa Popular. Dünne Wände führen zur Kostenreduktion, aber auch zur thermisch-ineffizienten Gebäudehülle. Dieses aus pragmatischem Regierungsprogramm abgeleitete Musterhausdenken und die klimazonenunabhängige Struktur und Konstruktion führen aus den verschiedensten Gründen zu ungenügenden Behaglichkeitswerten.
Ein ebenso weit verbreiteter Wohnhaustyp aus der Kolonialzeit, die Casa Térrea (Lehmbau aus dem 17. Jhd.), bot über Jahrhunderte hindurch und bietet bis heute den Familien aus vergleichbaren Verhältnissen adäquaten Wohnraum an. Obwohl der Haustyp in allen acht Klimazonen strukturell und konstruktiv nahezu identisch in ganz Brasilien vorzufinden ist, gelten für diese Häuser im Vergleich zur heutigen Casa Popular bessere Behaglichkeitswerte.
Mit Hilfe der energetisch-dynamischen Simulation wird der Haustyp Casa Popular (zeitgenössischer, standardisierter Haustyp) hinsichtlich der energetischen Effizienz und Behaglichkeit für Standorte für vier von insgesamt acht ausgewählten Klimazonen Brasiliens simuliert und ausgewertet. Untersucht wird, inwieweit der zeitgemäße Wohnungsbau Brasiliens durch architektonisch-konstruktive Maßnahmen thermisch und energetisch effizienter umgesetzt werden kann. Zielsetzung ist es, ein Maximum der Behaglichkeit allein durch passive, energieverbrauchssenkende und wirtschaftliche Maßnahmen zu erreichen.
Im Rahmen dieser Arbeit wurde eine repräsentative Reihe von Ruthenium- katalysatoren des Typs [(p-Cym)Ru(Cl)(pypm)]Y (pypm = 4-(Pyridin-2-yl)pyrimidin, \( Y^- = BF_4{^-}, BPh_4{^-} \ und \ PF_6{^-} \) dargestellt. Zur Synthese der in 2-Position substituierten Pyrimidinyl- Einheiten wurde eine neue Syntheseroute über SNAr-Reaktionen erschlossen. Die so dargestellten Katalysatoren wurden auf ihr Potential in der rollover-Cyclometallierung untersucht. Durch systematische Variation der Liganden konnten Einflussfaktoren auf die Aktivierungsbarriere der Cyclometallierung über CID ESI-MS-Messungen und DFT- Rechnungen identifiziert und quantifiziert werden und im Folgenden die Aktivierungs- barrieren durch rationales Katalysatordesign erniedrigt werden. Aufbauend auf diesen Erkenntnissen konnte das Prinzip der reversiblen rollover-Cyclometallierung als Schlüsselschritt für basenfreie Transferhydrierungen von Ketonen etabliert werden. Die Komplexe wurden darüber hinaus erfolgreich in der mechanistisch sehr ähnlich verlaufenden reduktiven Aminierung von Benzaldehyden etabliert. Durch DFT-Rechnungen und ESI-MS- Untersuchungen konnten die einzelnen Schritte der Katalysezyklen identifiziert und gezielt beeinflusst werden. Es konnten Protokolle erarbeitet werden, die den Einsatz von Basen und Additiven zur Substrat- und Katalysatoraktivierung überflüssig machen und den Einsatz des gleichen Katalysators in beiden Reaktionen ermöglichen. Die Anwendungsbreite beider Reaktionen wurde intensiv untersucht und führte zur Darstellung einer Vielzahl von Produkten, die sich sowohl von ihren elektronischen als auch sterischen Eigenschaften stark unterscheiden.
Die Übertragung der Syntheseroute der Rutheniumkatalysatoren auf die Metalle der Gruppe 9 führte zur erfolgreichen Darstellung weiterer Komplexe. Das Konzept zur Identifizierung katalytisch aktiver Komplexe konnte erfolgreich von den Ruthenium- katalysatoren auf die Metallkomplexe der Cobalttriade übertragen werden. Der Einfluss des Metalls wurde durch ESI-MS CID untersucht und die Aktivierungsbarrieren darauf aufbauend gezielt erniedrigt.
Durch die Darstellung eines zweikernigen Rutheniumkomplexes konnten in der rollover-Cyclometallierung kooperative Effekte beobachtet werden.
Im Rahmen dieser Arbeit sollten weiterführende Erkenntnisse über die Regulation des Na+/H+-Antiporters AtSOS1 erbracht werden. Die Analyse von Mutanten, die den zytosolischen AtSOS1 C terminus überexprimieren, bestätigte eine im Vergleich zum Wildtyp erhöhte Salztoleranz. Diese Feststellung lässt sich an verschiedenen Beobachtungen festmachen: Unter Salzstressbedingungen i.) akkumulieren die Überexpressionsmutanten deutlich weniger Natrium im Spross, ii.) sie blühen früher, iii.) sie weisen eine geringere Expression des Salz-induzierten Gens wrky25 auf, iv.) sie häufen geringere Mengen „kompatibler Solute“ an und v.) sie speichern weniger Stärke im Vergleich zum Wildtyp.
Zusammenfassend lässt sich festhalten, dass die Überexpression der C-terminalen Domäne des SOS1 zu einer erhöhten Salztoleranz der entsprechenden Mutanten durch erhöhte Aktivierung des endogenen SOS1-Transporters führt. Es lässt sich spekulieren, dass negative Regulatoren des SOS-Signalwegs vom löslichen C-terminus abgefangen werden, wodurch ihre inhibierende Funktion auf das endogene SOS-Netzwerk verloren geht.
Im Gegensatz dazu führt der Verlust des SOS1-Transporters in den sos1 Knockout-Pflanzen zu einer erhöhten Salzsensitivität. Diese Feststellung lässt sich wiederum an verschiedenen Beobachtungen festmachen: Unter Salzstressbedingungen i.) akkumulieren die Knockout-Mutanten deutlich mehr Natrium im Spross sowie vor allem in der Wurzel, ii.) sie blühen verzögert bis gar nicht, iii.) sie weisen eine höhere Expression des Salzstress-Indikatorgens wrky25 auf, iv.) sie häufen große Mengen kompatibler Solute in Form löslicher Zucker an und v.) sie speichern mehr Stärke im Vergleich zum Wildtyp.
In der vorliegenden Arbeit wurden die Interaktionen zwischen dem SOS1 C terminus und den regulatorischen At14-3-3 Proteinen υ, ω, κ und λ, sowie zwischen AtTST1/AtVIK1 und 14-3-3 κ und λ mittels Bimolekularer Fluoreszenz-Komplementation verifiziert. Sie binden den SOS1 C terminus an der Stelle 1112TRQNTMVESSDEEDEDEG1129, den AtTST1 an der Stelle 361DDGAGDDDDSDNDLR375. Beide Bindemotive weisen einen hohen Anteil negativ geladener Aspartat- und Glutamat-Reste auf. Durch die Analyse von At14 3 3 λκ Knockout-Pflanzen wurden diese Proteine als Signalstoffe im Zuckerhaushalt von A. thaliana identifiziert. Ihr Fehlen führt zu einer Veränderung im „sugar sensing“ bzw. „sugar signaling“. Diese Behauptung lässt sich an verschiedenen Beobachtungen festmachen: Unter Hochzucker-Bedingungen i.) akkumulieren die Knockout-Mutanten mehr Biomasse, ii.) sie akkumulieren weniger Zucker und iii.) sie weisen eine gesteigerte Expression der Glukose-reprimierten Gene cab1 und suc2 auf.
In dieser Arbeit wurde das Experiment von F. Zimmer zur Reduktion von [(Cp´´´Ni(μ-Br)]\( _2 \) 2 nochmals aufgegriffen. Um eine möglichst glatte Reduktion von 2 zu erreichen, wurden verschiedene Reduktionsmittel getestet. Das erste 1,1´,2,2´,4,4´-hexa(tert.-butyl)dinickelocen 3 wurde nach der Reduktion mit Na\( _3 \)Sb\( _7 \) in Pentan isoliert und charakterisiert.
Die CASSCF-Rechnungen in der Gasphase ergaben vier ungepaarten Elektronen im Dinickelocen 3 und einen Triplett-Grundzustand mit einem berechneten Ni-Ni-Abstand von 2,3006 Å. Da die verschiedenen Spinzustände energetisch nahe beieinander liegen, kann zum Grundzustand noch keine sichere Angabe gemacht werden. Der einzige Nettobeitrag zur Ni-Ni-Bindung ergibt sich aus der σ-Bindung aus den beiden 4s-AOs. Nach den Berechnungen sollte die erhaltene XRD-Struktur des freien Dinickelocen-Moleküls 3 nicht linear sein, sondern geknickt vorliegen. Das kann damit erklärt werden, dass das Molekül 3 eine starke agostische Wechselwirkung zwischen einem tert.-Butyl-H des Cp´´´-Liganden eines Nickelatoms und dem anderen Nickelatom ausbildet. Im Kristall kann diese Verzerrung durch Packungseffekte überwunden werden.
Das Dinickelocen 3 reagiert genau wie das Dihydrid 1 mit Kohlenmonoxid unter Bildung des bekannten Carbonylkomplexes [Cp´´´Ni(μ-CO)]\( _2 \) 7. Auch während der Aufnahme der ESI-Massenspektren erwies sich der Komplex [Cp´´´Ni]\( _2 \) 3 als sehr reaktiv.
Der komplexe Ablauf der Reduktionsreaktionen von Na\( _3 \)Sb\( _7 \) und NaH auf [(Cp´´´Ni(μ-Br)]\( _2 \) 2 in Pentan und THF sowie auf [(\( ^4 \)CpNi(μ-Br)]\( _2 \) 11 in Pentan und THF wurden genau untersucht.
Die Beobachtung, dass Pentan während der Reaktion angegriffen wird, wurde als Anlass für weitere Experimente in Tetradecan, Cyclohexan und Hexamethyldisiloxan genommen. Ausführliche Arbeitshypothese von dem Reaktionsablauf der Reduktion von [\( ^4 \)CpNi(μ-Br)]\( _2 \) 11 mit Na\( _3 \)Sb\( _7 \) in Tetradecan, Cyclohexan und Hexamethyldisiloxan wurde erstellt. Die oben genannten Lösungsmittel erwiesen sich als ungeeignet für die selektive Gewinnung des Dinickelocens 18 durch Reduktion von [(\( ^4 \)CpNi(μ-Br)]\( _2 \) 11 mit Na\( _3 \)Sb\( _7 \).
Nach umfangsreichen Untersuchungen gelang es, einen alternativen Weg über [(\( ^4 \)CpNi)\( _2 \)(μ-H)(μ-Br)]-Zwischenstufe 20 zu finden, um Dinickelocen 18 mit größerer Selektivität und in besserer Ausbeute zu gewinnen. Der Anteil des gewünschten Dinickelocens [\( ^4 \)CpNi]\( _2 \) 18 im Reaktionsgemisch konnte dadurch von ca. 6 % auf ca. 58 % erhöht werden. Die maximale Konzentration des [Cp´´´Ni]\( _2 \) 3 erreichte ca. 61 %. Das ist der bislang höchste Anteil der Dinickelocene im Reaktionsgemisch.
Periodisch mesoporöse Organokieselgele (PMOs) sind anorganisch-organische Hybridmaterialien, die aus organischen Brückenmolekülen R, z. B. Phenyleneinheiten, und diese verbindende, glasartigen Si-O-Si-Einheiten aufgebaut sind. Formal bestehen sie aus [O\(_1\)\(_,\)\(_5\)Si-R-SiO\(_1\)\(_,\)\(_5\)]-Einheiten. Sie verbinden die Möglichkeiten über organische Synthesechemie Veränderungen an den Brückenmolekülen durchzuführen mit der Beständigkeit von Silikaten gegenüber thermischen und chemischen Einflüssen. Durch strukturgebende Template werden sie mit Mesoporen dargestellt und erhalten so neben einer sehr engen Porenradienverteilung auch eine sehr hohe spezifische Oberfläche im Bereich von 500-1000 m\(^2\)/g.
Die vorliegende Arbeit berichtet über die Modifikation von Phenylen-PMOs auf zwei grundverschiedene Arten. Die erste ist die Pfropfungsmethode, bei der reaktive Si-OH-Gruppen auf der Oberfläche des PMOs dazu genutzt werden, an Alkoxysilylgruppen gebundene funktionelle Gruppen auf die Oberfläche aufzubringen. Die zweite Art ist die Aromatenchemie, mit der die verbrückende Phenylengruppe modifiziert werden kann. Erfolgreich auf die Oberfläche eines PMOs aufgebracht wurden Diaminomethyl-, Mercapto-, Isocyanat- und eine neu synthetisierte \(\it N\),\(\it N\)-Bis(diphenylphosphinomethyl)amingruppe. Die Mercapto- und die \(\it N\),\(\it N\)-Bis(diphenylphosphinomethyl)amingruppe wurden im Folgenden genutzt um die katalytisch aktiven Metalle Quecksilber und Rhodium zu binden. Die so dargestellten, heterogenisierten Katalysatoren wurden in Testreaktionen eingesetzt und mit ihren Homogenvarianten verglichen. Die immobilisierten Varianten verzeichneten insgesamt eine Abnahme der katalytischen Aktivität, boten allerdings auch niedrige Abgabewerte der Metalle an die Reaktionslösung. Außerdem heterogenisiert wurde Acridon, ein extrem stark fluoreszierenden Molekül mit hoher Quantenausbeute über die Anbindung an eine Isocyanatgruppe. Fluoreszenzmessungen ergaben die Veränderung des Absorptionsspektrums. Im Rahmen des MAGNENZ Forschungskollegs wurde nach einer Möglichkeit gesucht, ein Trägermaterial so zu verändern, dass es magnetisch abtrennbar ist. Durch Einbau von superparamagnetischen Maghemitnanopartikeln in den Phenylen-PMO konnte dieses Ziel verwirklicht werden. Das resultierende Material reagiert empfindlicher auf die Anwesenheit von Säuren, behält aber seine Resistenz gegenüber thermischen Einwirkungen und kann weiterhin in allen üblichen Lösungsmitteln eingesetzt werden. Das letzte Kapitel behandelt die gefundenen Kristallstrukturen von Methantrisulfonsäure, einer Säure die ebenfalls für das Forschungskolleg MAGNENZ von Interesse war.
Neuartige supramolekulare Koordinationsverbindungen mit Cyclen- oder Cyclopeptiduntereinheiten
(2016)
Die vorliegende Arbeit greift in den beiden Hauptkapiteln die Rolle von Übergangsmetallionen bei der Entwicklung eines neuartigen Rezeptors, der Anionen unter Bildung von Kaskadenkomplexen binden soll und bei der Synthese von chiralen Koordinationspolymeren, die Cyclopeptidliganden enthalten, auf. In einem Nebenkapitel wird die Synthese und Struktur eines cyclischen Hexapeptids beschrieben, das dazu dient, Informationen über den Einfluss hydrophober Wechselwirkungen auf die Bindung von Sulfat- und Halogenidionen in wässriger Lösung zu erhalten. Ein molekularer Käfig aus zwei über vier Linker verknüpften, zink(II)haltigen Cyclenkomplexen wurde synthetisiert. Nach der Charakterisierung dieser Verbindung mit potentiometrischen und kristallographischen Methoden wurden Untersuchungen zur Evaluierung der Bindung dieses neuartigen Rezeptors an Anionen durchgeführt. Für den Aufbau von chiralen porösen Koordinationsnetzwerken wurde eine Reihe von cyclischen Tetrapeptiden als Liganden dargestellt. Diese Verbindungen wurden anschließend in Kristallisationsversuchen mit unterschiedlichen Übergangsmetallionen umgesetzt und die Struktur der drei erhaltenen cyclopeptidhaltigen Koordinationspolymere mit literaturbekannten Koordinationsverbindungen, welche die gleichen Metallionen enthalten, aber ohne Cyclopeptidliganden aufgebaut sind hinsichtlich ihrer Struktur verglichen. Um den Einfluss hydrophober Wechselwirkungen auf die Anionenbindung in wässriger Lösung zu untersuchen, wurde ein cyclisches Hexapeptid dargestellt, das im Vergleich zu einer bereits bekannten Cyclopeptidstruktur zusätzliche Cyclopropansubstituenten trägt, welche die hydrophoben Flächen im Molekül vergrößern. Rückschlüsse auf den Bindungsmechanismus an Halogenidionen und die Stöchiometrie der entstandenen Wirt-Gast Komplexe lieferten NMR- und ESI-Spektren.
Im Rahmen dieser Doktorarbeit wurden neue Konzepte zu nachhaltigen Transformationen entwickelt. Ein Schwerpunkt der bearbeiteten Themen lag dabei auf der Nutzung von Fettsäuren und ihrer Derivate als nachwachsende Rohstoffe. Ein weiterer Fokus lag auf Alkoxylierungen von terminalen Alkinen.
Im ersten Projekt wurde eine nachhaltige Methode zur Alkylverzeigung einer Fettsäurekette an ihrer Doppelbindung entwickelt. Alkylverzweigte Fettsäurederivate sind z.B. in Schmiermitteln, Kosmetika, Kunststoffen und Beschichtungen von hohem Interesse.
Die Reaktion verläuft in hohen Ausbeuten und unter milden Bedingungen. Der entscheidende Vorteil dieses neuen Prozesses ist, dass er auf leicht erhältlichem Linoleat anstatt auf präformiertem Konjuensäureester basiert. Diese Methode ermöglicht eine umweltfreundliche Einführung einer Alkylverzweigung in Fettsäurederivate.
Im zweiten Projekt dieser Doktorarbeit wurde eine selektive Hydrierung von Fettsäuren, Fettsäureestern und Triglyceriden entwickelt. Diese liefert einen Zugang zu langkettigen unsymmetrischen Alkylethern aus nachwachsenden Rohstoffen. Langkettige Alkylether haben aufgrund ihres niedrigeren Schmelzpunktes und der geringen Viskosität eine hohe Anwendungsbreite in Schmiermitteln, Tensiden und Kosmetika.
Dieses Protokoll ermöglicht, ausgehend von nachwachsenden Rohstoffen, eine nachhaltige Synthese von wertvollen langkettigen Ethern. Es konnten sowohl Fettsäuren als auch Ester in reiner Form oder auch in Mischungen umgesetzt werden. Auch Triglyceride aus Rapsöl wurden erfolgreich ohne weitere Aufreinigung umgesetzt.
Im letzten Teilprojekt dieser Arbeit wurde ein kostengünstiger Zugang zu biologisch aktiven (E)-β- Alkoxyacrylaten ermöglicht. Es wurde eine basenkatalysierte, metallfreie Alkoxylierung von terminalen Alkinen mittels einfacher Carbonate entwickelt.
Aromatische Alkine konnten schon bei Raumtemperatur umgesetzt werden. Die Bildung von Ketalen als Nebenprodukt konnte dabei nahezu vollständig unterdrückt werden. Aliphatische Alkine wurden bei 90 °C erfolgreich umgesetzt. Die Skalierbarkeit dieses Prozesses wurde durch eine 15 mmol Synthese und einer Ausbeute von 99 % demonstriert. Eine einfache Destillation des Reaktionsgemisches reichte als Aufreinigung aus. Die Anwendungsbreite der Reaktion konnte anhand zahlreicher repräsentativer Verbindungen demonstriert werden.
Im Rahmen dieser Arbeit konnten neue Konzepte zur regioselektiven Einführung von CF3, SCF3, und SCF2H-Gruppen entwickelt und neue konzeptionelle Perspektiven für die Entwicklung nachhaltiger Fluoralkylierungsreaktionen und Reagenzien eröffnet werden.
Im ersten Teilprojekt gelang es, praktische Eintopfverfahren zu entwickeln, mit denen Trifluormethyl- und Trifluormethylthiolgruppen selektiv in organische Moleküle eingeführt werden. Der maßgebliche Vorteil dieser Methoden ist, dass breit verfügbare aromatische Amine in situ diazotiert und ohne weitere Aufarbeitung weiter umgesetzt werden. Die vorteilhaften Reaktionsbedingungen wie z.B. Katalysatorbeladung, Raumtemperatur, und die hohe Toleranz gegenüber funktionellen Gruppen konnten beibehalten werden.
Im nächsten Teilprojekt wurde aufbauend auf dem Konzept der nukleophilen Difluormethylierung der Organothiocyanate Zugang zu wertvollen Difluormethylthioethern ermöglicht. Dabei werden die Organothiocyanate in situ in Reaktionslösung aus diversen Aryl- und Alkylhalogeniden und –pseudohalogeniden erzeugt, welche anschließend unter Einsatz von TMSCF2H difluormethyliert werden konnten. Der entscheidende Vorteil dieser Methode ist der Einsatz der nachhaltigen CF2H-Quelle, welche aus Fluoroform herstellbar ist.
In einem weiteren Teilpojekt erfolgte die Entwicklung eines Verfahrens zur Synthese von Trifluormethylthioethern. Dabei können Organothiocyanate unter Decarboxylierung von Trifluoracetaten in Anwesenheit von Eisenkatalysatoren leicht zu den korrespondierenden, wertvollen Trifluormethylthioethern umgesetzt werden. Die Anwendungsbreite konnte an zahlreichen aromatischen, heteroaromatischen und aliphatischen Organothiocyanaten demonstriert werden. In weiterführenden Arbeiten konnte dieses Reaktionskonzepts auf längerkettige perfluorierte Carboxylate erweitert werden.
In einem weiteren Teilprojekt wurde die Sandmeyer Pentafluorethylthiolierung mit Aryldiazoniumsalzen ermöglicht. Sie stellt einen weiteren alternativen Zugang zu den pentafluorethylierten Aromaten dar.
Im darauffolgenden Teilprojekt wurden alternative, nachhaltigere Synthesewege zu den gängigen elektrophilen SCF3-Reagenzien ausgehend von Me4NSCF3 mittels einfacher Salzmetatese realisiert. Besonders erwähnenswert hierbei ist, dass eine in situ Generierung dieser sensiblen Reagenzien die komplizierte Handhabung vereinfacht.
Im letzten Teilprojekt wurden sowohl elektrophile als auch nukleophile Reagenzien zur regioselektiven Einführung von Phosphorothioat-Gruppen entwickelt. Die Anwendungsmöglichkeiten wurden anhand kupferkatalysierten Sandmeyer Reaktion von Aryldiazoniumsalzen, einer palladiumkatalysierten Umsetzung von Aryliodiden und einer kupferkatalysierten Umsetzung von Arylboronsäuren gezeigt.
Zusammengefassend wurden in dieser Arbeit nachhaltige Methoden zur regioselektiven Einführung von CF3, SCF3, SCF2H und SP(O)(OMe)2-Gruppen entwickelt. Dabei wurde das Reaktionskonzept der Sandmeyer Reaktion angewandt. Die wesentlichen Vorteile dabei sind der Einsatz geringer Mengen der Kupferkatalysatoren, die milden Reaktionsbedingungen, sowie die hohe Toleranz gegenüber funktioneller Gruppen, wodurch sich diese Verfahren auch besonders in späten Synthesestufen anbietet.
Im Rahmen dieser Arbeit wurden Möglichkeiten zur Steigerung der Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Leitungen untersucht. Hierbei wurde der Einfluss auf die Tragfähigkeit von Wendeln um die Leitungen herum, der Einfluss von Gitterträgern in Elementdecken mit Leitungen, Gitterträger neben Leitungen als örtliche Zulagebewehrung und Unterstützungskörbe über Leitungen untersucht. Zudem wurden Versuche mit lokaler Verbundstörung der Biegebewehrung zur Vermeidung eines Biegeschubrisses im Bereich der Leitungen durchgeführt.
Die Wendel wird aus Betonstahl gebogen und mit handelsüblichen Betonabstandhaltern an der Leitung fixiert. Die Betondeckung zur Leitung soll sowohl die Kraftübertragung, als auch den Korrosionsschutz sicherstellen. In insgesamt 70 Bauteilversuchen wurden verschiedene Parameter variiert. Hierzu zählen der Leitungsdurchmesser, die Anzahl der Windungen der Wendel, der Stabdurchmesser der Wendel sowie die Lage der Öffnung im Bauteil. Mit relativ geringen Bewehrungsmengen konnte die Tragfähigkeit des ungeschwächten, unbewehrten Vollquerschnitts erreicht werden. Die Ergebnisse der Versuche führten abschließend zu einem an den Querkraftnachweis des Eurocode 2 angelehnten Bemessungsvorschlag, der die verschiedenen Einflussparameter der Wendel berücksichtigt.
Zur Untersuchung des Tragverhaltens von Elementdecken mit Gitterträgern und integrierten Leitungen in der Ortbetonergänzung wurde in 31 Versuchen der Querkraftbewehrungsgrad variiert. Der Öffnungsdurchmesser betrug dabei maximal 80 mm. Größere Leitungen können ohne Beschädigung der Diagonalen der Gitterträger nicht verbaut werden. Hierbei konnte eine Reduktion der Querkrafttragfähigkeit bezogen auf den ungeschwächten Querschnitt mit Gitterträgern festgestellt werden. Diese Reduktion wird in einem Bemessungskonzept durch Abminderung des Betontraganteils berücksichtigt. Ab einer Querkraft-bewehrungsmenge von ca. 11 cm²/m² konnte die Querkrafttragfähigkeit des unbewehrten Vollquerschnitts erreicht werden. Diese Bewehrungsmenge entspricht in etwa dem Mindestquerkraftbewehrungsgrad nach Eurocode 2.
Des Weiteren wurden Versuche an Elementdecken mit Gitterträgern neben bzw. Unterstützungskörben über Leitungen durchgeführt. Bei diesen Versuchen wurde sowohl der Fall des in das Fertigteil einbetonierten Bewehrungselements als auch der Fall des nachträglich auf die Fertigteilplatte aufgestellten Bewehrungselements untersucht. Die Versuchsergebnisse führten zu einem Bemessungsansatz, welcher an das Bemessungskonzept des Eurocode 2 anschließt. Durch zusätzliche Faktoren in Abhängigkeit des Bewehrungselements, Bewehrungsgrades und des Leitungs-durchmessers kann die Querkrafttragfähigkeit solcher Decken bemessen werden.
Eine lokale Verbundstörung der Biegebewehrung unterhalb der Öffnungen führt zu einer deutlich erhöhten Traglast. Ein Biegeschubversagen konnte in diesem Fall nicht herbeigeführt werden. Diese Versuche führen zwar zu keiner praxistauglichen Verstärkungsmethode, veranschaulichen aber sehr gut das Querkrafttragverhalten von Stahlbetondecken.
Messgeräte zur geometrischen Produktspezifikation werden mit Normalen nach DIN EN ISO 5436-1 und DIN EN ISO 25178-70 kalibriert. Dabei kommen meist künstliche Oberflächenstrukturen zum Einsatz. Aufgrund immer höherer Anforderungen ist für hochgenaue Messaufgaben allerdings eine praxisorientierte Kalibrierung erforderlich. Ein modellbasierter Ansatz zur Auslegung von Normalen, die eine solche praxisnahe Kalibrierung erlauben, wird im Rahmen dieser Arbeit ohne Einschränkung auf ein spezielles Messverfahren vorgestellt und untersucht. Dabei ermöglichen drei Säulen eine Verbesserung gegenüber konventionellen Normalen: die Berücksichtigung physikalischer Effekte bei der Messung, die Definition neuer Oberflächenstrukturen, als deren Ausgangspunkt reale Bauteiloberflächen dienen, sowie die Berücksichtigung fertigungstechnischer Effekte. Die neu generierten Normale werden mit virtuellen und realen Messungen auf ihren praktischen Einsatz hin untersucht. In diesem Rahmen werden auch neue Kalibrierstrategien, eine Unsicherheitsbilanz sowie ein allgemeiner Leitfaden zur Generierung von Normalen abgeleitet.
Der Anteil von Komponenten aus Faserkunststoffverbunden (FKV) ist in den vergangenen
Jahren speziell in den leichtbaugetriebenen Branchen stetig gestiegen, da der
Einsatz von FKV die Möglichkeit bietet, eine Gewichtsreduktion gegenüber Ausführungen
mit klassischen Metallwerkstoffen zu erzielen. Eine optimale Ausnutzung der
Vorteile von FKV kann jedoch nur durch faserkunststoffgerechte konstruktive Lösungen,
für die bisherige Ausführungen in Frage gestellt werden müssen, erreicht werden.
Nicht nur Materialien und Bauweisen für lasttragende Strukturen sind zu überdenken,
auch bisherige Lösungsansätze zur Realisierung aktorischer Funktionen, die
einen wesentlichen Teil vieler Produkte ausmachen, müssen hinterfragt werden.
Klassische diskret angeschlossene Aktoren können in diesem Zuge durch neuartige
Festkörperaktoren wie z.B. Formgedächtnislegierungen oder Piezokeramiken substituiert
werden. Durch den differenziellen Aufbau der FKV ist die direkte Integration
aktiver Formgedächtnislegierungen (engl. Shape Memory Alloys (SMA)) möglich und
es ergibt sich ein neues FKV-gerechtes Aktorikprinzip, welches eine material- und
flächenintegrierte Aktorik bietet. Wesentliche, bisher ungelöste Fragestellungen aktiver
SMA-FKV-Hybridverbunde werden in der vorliegenden Arbeit detailliert beleuchtet
und neue Lösungsansätze ausgearbeitet, um für einen zukünftigen industriellen
Einsatz die grundlegenden Voraussetzungen zu schaffen.
Um ein ganzheitliches Vorgehen zu gewährleisten, müssen offene Fragestellungen
im Bereich der Herstellung und simulativen Auslegung beantwortet werden. Die zentralen Fragen sind:
- Herstellung: Wie können zuverlässige aktive SMA-FKV-Hybridverbunde reproduzierbar
hergestellt werden?
- Simulation: Wie können aktive Komponenten aus SMA-FKV-Hybridverbund
auf Bauteilebene effizient ausgelegt werden?
Die Integrationsmethode des Herstellungsprozesses muss möglichst effizient die
Aufgaben Kraftübertragung zwischen SMA und FKV, elektronische Kontaktierung und Handling erfüllen. Dies wird mit einem innovativen Konzept, welches bei der
Kraftübertragung auf mechanische Verankerungen zwischen SMA-Elementen und
umgebendem FKV setzt, erreicht. Durch den Einsatz eines geschweißten SMAGitters
und lokal faserverstärkter Bereiche können die erforderlichen Aktorspannungen
übertragen werden. Weiterhin gewährleistet ein vorgefertigte SMA-Gitter einen
flexiblen Herstellungsprozess und ein reproduzierbares Herstellungsergebnis.
Zur Konzipierung einer optimalen Prozesstemperaturführung sind komplexe Randbedingungen
und auf den ersten Blick widersprüchliche Anforderungen aus den
etablierten Herstellungsprozessen von FKV-Materialien und dem thermisch sensiblen
SMA-Materialverhalten zu berücksichtigen. Eine Kalthärtung im ersten Schritt der
Hybridverbundherstellung aus duromerem FKV und SMA-Gitter erlaubt einen Verzicht
auf aufwendige Vorrichtungen zur Unterdrückung einer vorzeitigen Verformung
der SMA-Elemente. Eine weitere angepasste Temperung zur Erhöhung der Vernetzungsdichte
des duromeren Polymers verbessert die Leistungsfähigkeit zusätzlich,
wodurch die maximale Spitzenauslenkung (ohne äußere Last) bezogen auf die aktive
Länge einer Hybridstruktur von anfänglich 17 % auf mehr als 60 % gesteigert werden
kann.
Um eine simulative Abbildung dieser SMA-FKV-Hybridverbunde zur Auslegung aktiver
Komponenten einsetzen zu können, muss die Modellierung die notwendige Genauigkeit
liefern und effizient auf Bauteilskala einsetzbar sein. Das entwickelte Zustandslinien-
Modell des SMA-Materials wird diesen Anforderungen durch die Fokussierung
auf den Aktorikeffekt gerecht. Vorhergesagt werden kann damit der „aufgeheizte“
und „abgekühlte“ Zustand von Ein- und Zwei-Weg-Effekt-Materialien. Der Einfluss
der Steifigkeit der zu verformenden FKV-Komponente wird durch eine anwendungsnahe
Charakterisierung erfasst und fließt durch die analytische Beschreibung
der Zusammenhänge in das Modell ein. Konkrete Kennwerte stehen für ein Zwei-
Weg-Effekt-Material und zwei Ein-Weg-Effekt-Materialien mit unterschiedlicher Umwandlungstemperatur
und individueller Vordehnung (1,8 bis 6,3 %) zur Verfügung.
Durch die Beschreibung der gesamten Hybridverbunde mittels homogenisierter
Schalen in der Finiten-Elemente-Methode (FEM) kann auf die Abbildung der realen mikroskopischen Geometrie verzichtet werden und die Auslegung ganzer Komponenten
aus aktivem SMA-FKV-Hybridverbund wird ermöglicht.
Im Zuge der Validierung wird das experimentell bestimmte Aktorikverhalten mit der
simulativen Vorhersage abgeglichen. Da dieser Validierung die entwickelten Lösungen
in den Bereichen Herstellung und Simulation zugrunde liegen, verifiziert die erfolgreiche
Validierung die Anwendbarkeit der entwickelten Gesamtmethodik. Eine
gute Übereinstimmung kann bei Coupontests für Vordehnungen von bis zu 3 % sowie
für teilaktivierte Zustände der SMA-Elemente festgestellt werden.
Um zu verdeutlichen, wieso und unter welchen Randbindungen der Einsatz aktiver
SMA-FKV-Hybridverbunde technisch sinnvoll sein kann, werden verschiedene neuartige
Anwendungskonzepte beschrieben. Die wesentlichen Vorteile eines aktiven Hybridverbundes
gegenüber klassischer Aktorik-Struktur-Kombinationen werden durch
die abschließende Entwicklung eines aerodynamischen Profils als Demonstrator hervorgehoben.
Die wichtigsten Vorteile sind:
- Stark reduzierte Bauraumanforderungen
- Geringes Systemgewicht
- Große Designfreiheit
- Geschlossene kontinuierliche Oberfläche
- Geringer Montageaufwand
Der Demonstrator verdeutlicht außerdem, wie es mit den Ergebnissen dieser Arbeit
möglich ist, aktive Bauteile aus SMA-FKV-Hybridverbund im Hinblick auf eine konkrete
Anwendung systematisch und rechnergestützt auszulegen. Durch die entwickelte
Herstellungsmethodik können diese Hybridverbunde mit hoher Leistungsfähigkeit
bei minimalem Bauraum und geringer zusätzlicher Masse in reproduzierbarer
Qualität gefertigt werden. Neue innovative Funktionen, die sich nicht im Rahmen
klassischer Aktorikprinzipien realisieren lassen, werden umsetzbar und ermöglichen
signifikante Wertsteigerungen diverser Produkte.
Das Ziel dieser Arbeit besteht darin, aufzuzeigen, wie eine mathematische Modellierung, verbunden mit Simulations- und Ansteuerungsaspekten eines Segways im Mathematikunterricht der gymnasialen Oberstufe als interdisziplinäres Projekt umgesetzt werden kann. Dabei werden sowohl Chancen, im Sinne von erreichbaren mathematischen Kompetenzen, als auch Schwierigkeiten eines solchen Projektes mit einer interdisziplinären Umsetzung geschildert.
In dem vorliegenden Dissertationsdokument werden die Ergebnisse aus der Forschung zu konzeptionellen Verfahrensentwürfen für die industrielle Anwendung von Enzym-Magnetpartikeln vorgestellt. Die Magnetpartikel im Mikrometermaßstab sind aufgrund ihrer geringen Größe, sphärischen Geometrie und der daraus resultierenden hohen spezifischen Oberfläche, ein attraktives Trägermedium für
Biomoleküle. Aufgrund der Magnetisierbarkeit der Partikel können die Partikeltrajektorien in einem Flüssigkeitsstrom zudem durch ein Magnetfeld gesteuert werden. In einem Magnetfilter werden anhand dieser Wechselwirkungen die Magnetpartikel selektiv abgetrennt. Zur Konstruktion von Magnetfiltern wurde in dieser Arbeit die Computer-Aided-Design-Software Siemens NX 8 eingesetzt. Die Konstruktionsentwürfe wurden in die Software Comsol Multiphysics® 4.3a importiert. Die Software beinhaltet
Differentialgleichungssysteme und -löser, mit denen das Magnet- und Fluidströmungsfeld in den untersuchten Magnetfiltern berechnet werden können. Es wurden geometrische Variationen an den Modellen vorgenommen, um Änderungen in der resultierenden Trennleistung zu erzielen. Die optimierten Filter wurden
anschließend gefertigt und in experimentellen Untersuchungen erprobt. Dabei wurden Magnetpartikel mit und ohne Biomasse separiert und die Trennleistung bestimmt. Die Partikelsuspensionen wurden zudem hinsichtlich der
Prozessintegration untersucht. Dabei stand der Medianpartikeldurchmesser im Vordergrund der Untersuchung. Es wurde überprüft, wie sich die Partikelgrößenverteilung bei variierten pH-Werten und Salzkonzentrationen verändert. In diesem Kontext wurde die Homogenisierung der Magnetpartikel in
einem Ultraschall-Homogenisator untersucht. Am Institut für biotechnisches Prozessdesign standen zwei verschiedene
Separatoren zur Verfügung, für welche die Filterkammern optimiert wurden. Für den mit Permanentmagneten betriebenen Magnetseparator von der Firma Steinert Typ HGF10 wurde eine mit Quarzgläsern ausgestattete Filterkammer entworfen und gefertigt (Patentanmeldung AZ 102012023382.5). Dadurch konnten die
Partikelablagerungen während der Filtration und nach der Reinigung untersucht werden. Im untersuchten Arbeitsbereich bis zu einer Kapazität von ca. 83 g/L wurde kein Partikeldurchbruch detektiert. In vorigen Arbeiten mit Magnetfiltern mit
vergleichbarer Geometrie wurde festgestellt, dass die Strömung im Anfangsbereich des Filters maßgeblich die Partikelretention beeinflusst. Darauf aufbauend wurde in dieser Arbeit der Einfluss von statischen Mischern charakterisiert, um Unterschiede
in der Lineargeschwindigkeit der Flüssigkeit zu minimieren und ein möglichst propfenförmiges Strömungsprofil herzustellen.
Die Optimierung der Filterkammer wurde im nächsten Schritt mit Analysen zur Auswirkung von geometrischen Variationen in der Filtermatrix weitergeführt. Es wurden in dieser Arbeit die Geometrien von Filtermatrices aus gestapelten Filterblechen mit Aussparungen näher untersucht. Anhand Simulationsdaten und
Ergebnissen aus experimentellen Versuchen wurde eine Korrelation zwischen der Partikelretention und der Anzahl an Kanten in der Filtermatrix gefunden. Je mehr Kanten in der Matrix vorkommen, desto weniger Partikel gehen im Filtrat verloren. Abschließend wurde die Reinigung der Filterkammer mit der Zweiphasenströmung
näher untersucht und der Einsatz von Druckluft erprobt.
Die Druckluft wurde zum Erzeugen von dispergierten Luftblasen im Flüssigkeitsstrom simultan zur laufenden Peristaltikpumpe in die Zufuhrleitung der Filterkammer injiziert. Während der Reinigungsprozedur werden mittels der Luftblasen die
Partikelablagerungen mechanisch gelöst und mit der Strömung aus der Filterkammer gespült. In biotechnologischen Produktionen gelten besondere Richtlinien und Regeln zum Einhalten von Reinigungsverfahren. Im Rahmen magnetpartikelbasierter Prozesse ist hierbei ein besonderes Augenmerk auf feinste partikuläre Rückstände nach der Reinigung zu legen. Aufgrund der in Magnetfiltern vorhanden Filtermatrix mit einer
komplexen Geometrie kann den Untersuchungen zur Folge nicht von einer vollständigen Entfernung ausgegangen werden. Um bei derartig streng regulierten Produktionen trotzdem ein Filtersystem zur Verfügung zu haben, wurde in dieser
Arbeit der Einsatz von Einweg-Hochgradienten-Magnetfiltern erprobt. Die Einweg-Magnetfilter-Prototypen wurden auf Basis von Kunststofffolien hergestellt, die zusammengeschweißt wurden, um eine Art Beutel mit Ein- und Auslass herzustellen. Mit den gefertigten Prototypen wurden exemplarische Filtrationen durchgeführt, um die Eignung für industrielle Prozesse zu testen. Um einen Einweg-Magnetfilter für die Anwendung attraktiv zu gestalten, musste sichergestellt sein, dass die Rückstände
an Partikeln nach der Reinigung gering sind, weil jegliche Partikelreste mit dem Einweg-Magnetfilter verworfen werden würden. Die untersuchten Prototypen zeichneten sich durch eine hohe Partikelretention mit einer Kapazität von ca. 35 g/L
und minimale Rückstände nach der Reinigung aus.
Der zweite am Forschungsinstitut vorhandene Magnetseparator wurde mit einem Elektromagnet betrieben. Der in dem Separator eingebaute Magnetfilter wurde mit einer Filtermatrix nach dem Rotor-Stator-Prinzip gefertigt. Es sind im Gegensatz zu
den zuvor beschriebenen Magnetfiltern zwei Arten von Filterblechen in dem Filter eingebaut. Zum einen nicht bewegliche Statorbleche und zum anderen rotierbare Rotorbleche. Die Rotorbleche sind über eine drehbare Welle miteinander verbunden.
Dabei entstehen zwischen den Filterblechen hohe Scherraten, wodurch nach der Filtration die Partikelablagerungen effizient gelöst und aus dem Filter gespült werden können. Die Filterbleche besitzen Aussparungen mit welchen die Partikelretardierung und -resuspendierung beeinflusst wird. Die Einflussfaktoren
wurden in Simulationen näher untersucht, um eine Geometrie der Aussparungen zu finden, mit welcher sich die Reproduzierbarkeit der Filtrationen erhöhen ließ. Bei dem Magnetfilter mit einer Rotor-Stator-Filtermatrix wurde eine Kapazität von ca. 170 g/L
ohne Durchbruch erreicht. Die zuvor beschriebenen Magnetfilter waren dafür konzipiert worden, separat von einem Reaktor betrieben zu werden. Die Reaktionssuspension wird aus dem Reaktor
und anschließend durch den Filter gepumpt. Im Gegensatz dazu wurde ein In-situ-Magnetseparator entwickelt, mit dem magnetische Partikel direkt im Reaktor durch eine magnetische Lanze aus der Reaktionssuspension eingefangen werden können. Durch eine Linearbewegung der Lanze werden die angehefteten Partikel aus dem
Reaktor transferiert. Danach können die Magnetpartikel von der Lanze gelöst werden und in einen Aufbewahrungsbehälter gepumpt oder wieder in den Reaktor geführt werden. Der Separator bietet die Möglichkeit, in einem Reaktor eine Fermentation
oder Biokatalyse in Gegenwart der funktionalisierten Magnetpartikel durchzuführen und in drei Schritten die Partikel aus dem Reaktor zu entfernen oder für eine anschließende Produktion wiederzuverwenden.
Der Anteil an regenerativen Energien am Strommarkt in Deutschland steigt kontinuierlich. Dies führt bereits heute zu Problemen bei der Energiespeicherung, da die Stromproduktion aus regenerativen Energien stark von Wind und Wetter abhängt. Hierbei sind die derzeitigen Energiespeicher wie Schwungräder, Batterien oder Pumpspeicherkraftwerke in ihrer Kapazität stark begrenzt. Eine mögliche Lösung für die Problematik der Energiespeicherung bietet das Power-to-Gas-Verfahren, indem die elektrische Energie in chemische Energie (z. B. synthetisches Erdgas) umgewandelt und im Erdgasnetz gespeichert wird. Darüber hinaus kann durch die Umwandlung von Kohlendioxid als C₁-Baustein in funktionalisierte Grundchemikalien die Abhängigkeit von Rohöl vermindert werden. Hierfür sind Katalysatoren notwendig, die eine wirtschaftliche Hydrierung von Kohlendioxid zu Wertprodukten ermöglichen. Die Schwierigkeit liegt in der Überwindung der hohen Aktivierungsenergie von Kohlendioxid, wodurch es sehr reaktionsträge ist. In der Literatur wurden bereits einige Katalysatorsysteme untersucht; nur wenige beschäftigen sich mit kinetischen Untersuchungen. Ein Problem der zahlreichen Publikationen ist die häufig fehlende Vergleichbarkeit. Dies liegt im Wesentlichen an der Vielzahl der variablen Reaktionsbedingungen, wie Reaktionstemperatur, Reaktionsdruck, Verweilzeit sowie dem Verhältnis von Wasserstoff zu Kohlendioxid. Außerdem wird in kinetischen Studien oft für ein vorliegendes Katalysatorsystem eine individuelle Berechnungsmethode zur Ermittlung der kinetischen Daten verwendet, die sich nicht auf andere Katalysatorsysteme oder Aktivkomponenten anwenden lässt.
Die zuvor genannten Probleme waren eine wesentliche Motivation, verschiedene Aktivkomponenten unter gleichen Reaktionsbedingungen zu untersuchen. Die hierbei gewonnenen Informationen sind in die nachfolgenden Studien zur Modifikation des Trägermaterials und der Aktivkomponenten eingeflossen. Zum Schluss wurde versucht, ein synthetisches Erdgas mittels Brennwertanpassung herzustellen. Hierfür wurde ein Fischer-Tropsch-Katalysator mit Methanisierungskatalysatoren kombiniert. Die hergestellten Katalysatoren wurden jeweils mithilfe von N₂-Physisorption, Pulver-Röntgendiffraktometrie, thermogravimetrischer Analyse, Rasterelektronenmikroskopie, temperaturprogrammierter Reduktion sowie durch H₂-Chemisorption charakterisiert. Die katalytischen Eigenschaften der hergestellten Katalysatoren wurden in einer Hochdruck-Strömungsapparatur erprobt. Im Fokus der Untersuchungen standen die Stabilität der Katalysatoren sowie der Einfluss der Reaktionstemperatur und der modifizierten Verweilzeit auf Umsatz und Produktausbeuten.
Zu Beginn wurden zehn verschiedene Aktivkomponenten jeweils auf γ-Aluminiumoxid als Träger (Puralox SCFa 230) untersucht. Dabei waren der Einfluss der Reaktionstemperatur auf den Umsatz von Kohlendioxid und die Zusammensetzung des Produktgases als auch die kinetischen Parameter von besonderem Interesse. Die Ergebnisse zeigten einen deutlichen Einfluss der Aktivkomponente auf das Produktspektrum der katalytischen Hydrierung von Kohlendioxid. Hierbei traten insbesondere die Metalle Kupfer, Nickel, Rhodium und Eisen hervor. Ersteres zeigte eine hohe Selektivität zu Kohlenmonoxid. Nickel und Rhodium produzierten Methan mit sehr hohen Selektivitäten und hohen Umsätzen, die nahe am thermodynamischen Gleichgewicht liegen. Die Vorteile von Eisen als Aktivkomponente liegen in der Produktion von signifikanten Mengen an C₂₊-Kohlenwasserstoffen. Alle anderen Aktivkomponenten zeigten eine gemischte Produktzusammensetzung (d. h. bestehend aus Kohlenmonoxid, Methan, C₂₊-Kohlenwasserstoffen). Anhand von kinetischen Untersuchungen konnten die Temperaturabhängigkeit der Reaktionsgeschwindigkeit in Form einer scheinbaren Aktivierungsenergie sowie die Abhängigkeit vom Partialdruck an Kohlendioxid ermittelt werden. Für beide Parameter werden möglichst kleine Werte angestrebt. Dies bedeutet, dass bereits bei kleineren Partialdrücken und niedrigeren Reaktionstemperaturen signifikante Umsätze von Kohlendioxid zu beobachten sein sollten. Die Partialdruckabhängigkeit der Reaktionskinetik nimmt in folgender Reihenfolge der Aktivkomponenten zu: Ni, Rh < Ru < Co < Pt < Cu, Pd, <Re << Fe300-375°C. Die kinetischen Untersuchungen zeigten hierbei für die Methanisierungskatalysatoren die niedrigste Partial-druckabhängigkeit der Reaktionskinetik, gefolgt von den Katalysatoren für die umgekehrte Wassergas-Shift-Reaktion. Die größte Kohlendioxid-Partialdruckabhängigkeit der Reaktionskinetik konnte an den Katalysatoren mit gemischter Produktzusammensetzung und am eisenhaltigen Fischer-Tropsch-Katalysator beobachtet werden. Die Reihenfolge der Temperaturabhängigkeit der Reaktionskinetik an den Aktivkomponenten lautet wie folgt: Pd < Cu < Ru < Pt, Co < Ni < Fe300-375°C < Rh, Re. Um auch die wirtschaftlichen Aspekte bei der Auswahl der Aktivkomponenten zu berücksichtigen, wurden die Marktpreise für die untersuchten Metalle verglichen. Die Preise für die Metalle wurden für eine Tonne Katalysator mit entsprechender Beladung berechnet. Anhand der Preise für die Aktivkomponenten und unter Einbeziehung der Ergebnisse der katalytischen Untersuchungen ist Nickel der Favorit für einen Methanisierungskatalysator und Eisen bevorzugt als Fischer-Tropsch-Katalysator.
Aufgrund der hohen Aktivität von Nickel wurde diese Aktivkomponente ausgewählt, um mit unterschiedlichen Trägermaterialien auf der Basis von Titandioxid das katalytische Potenzial zu evaluieren. Als Trägermaterialien wurden Lithiumtitanat, makro-/mesoporöse Titan-Aluminium-Mischoxide und mit Titandioxid beschichtetes Puralox SCFa-230 eingesetzt. Hierbei konnten an den makro-/mesoporösen Titan-Aluminium-Mischoxiden der unterschiedliche Einfluss von Titan und Aluminium auf die Eigenschaften des resultierenden Mischoxids beobachtet werden. Es zeigte sich, dass die strukturelle Stabilität und höhere spezifische Oberfläche von Aluminiumoxid sowie die höhere katalytische Aktivität durch Titandioxid im Mischoxid von Bedeutung sind. Zugleich bieten die Makro- und Mesoporen in den Mischoxiden einen verbesserten Stofftransport. Es konnte gezeigt werden, dass der titanhaltige Träger eine sehr geringe spezifische Oberfläche im Vergleich zum aluminiumhaltigen Träger aufweist. Bei den Mischoxiden beginnt ab einem Titangehalt von 50 mol-% die spezifische Oberfläche mit steigendem Titananteil stetig zu sinken. Anhand der temperaturprogrammierten Reduktion konnte eine zunehmende Reduzierbarkeit des Nickels mit steigendem Titangehalt im Trägermaterial beobachtet werden. Generell wurde an nickelhaltigen Katalysatoren Kohlendioxid mit sehr hohen Selektivitäten zu Methan umgewandelt. Im direkten Vergleich sind die Umsätze am Katalysator mit reinem Titandioxid deutlich höher als an dem Katalysator mit reinem γ-Aluminiumoxid als Träger. Dies zeigt die höhere katalytische Aktivität mit Titanoxid als Trägermaterial. Die niedrigsten Umsätze wurden am nickelbeladenen Mischoxid mit einem Titangehalt von 50 mol-% beobachtet, was wahrscheinlich mit der amorphen Struktur dieses Trägermaterials zusammenhängt. Die größte Aktivität für die Methanisierung von Kohlendioxid konnte an dem Mischoxid mit einem Titangehalt von 80 mol-% im Trägermaterial beobachtet werden. Anscheinend liegt hier ein Optimum zwischen der strukturellen Stabilität von Aluminium und der katalytischen Aktivität durch Titan im Mischoxid vor. Die spezifische Oberfläche des Titan-Aluminium-Mischoxids mit 80 mol-% Titan liegt mit 115 m²·g⁻¹ verglichen mit dem reinen Titanoxid mit 20 m²·g⁻¹ deutlich höher. Diese ist jedoch geringer als die spezifische Oberfläche des γ-Aluminiumoxids mit 225 m²·g⁻¹.
Die Modifizierung der Aktivkomponente wurde mit drei verschiedenen Klassen von Katalysatoren untersucht. Es wurden Mischungen zwischen Nickel und Rhodium, den beiden aktivsten Metallen aus Kapitel 4, sowie Mischungen aus Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid untersucht. Für die Fischer-Tropsch-Synthese wurden eisenhaltige Katalysatoren modifiziert. Bei den Untersuchungen von Nickel und Rhodium sowie Palladium, Nickel und Magnesium als Aktivkomponente auf Puralox SCFa-230 wurde gefunden, dass bei Verwendung von Nickel als reiner Aktivkomponente die besten katalytischen Ergebnisse erzielt wurden. An allen untersuchten Katalysatoren wurde bei der katalytischen Umwandlung von Kohlendioxid eine hohe Selektivität zu Methan beobachtet. Hinweise auf eine positive Wirkung der Mischung der Aktivkomponenten konnten nicht gefunden werden. Mittels temperaturprogrammierter Reduktion wurde gefunden, dass – anders als zunächst vermutet – Nickel und Rhodium als voneinander isolierte Spezies vorliegen und nicht etwa als Legierung.
Aufbauend auf der Arbeit von Park und McFarland [38] wurden die Metalle Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid kombiniert. Die Katalysatoren wurden schrittweise synthetisiert und ihre katalytische Aktivität untersucht. Bei allen Katalysatoren ist die katalytische Aktivität deutlich geringer als bei dem Katalysator mit reinem Nickel auf Puralox SCFa-230. Die katalytische Aktivität der Hochtemperatur-reduzierten Katalysatoren liegt noch einmal deutlich unter der katalytischen Aktivität der kalzinierten und danach reduzierten Katalysatoren. Dies liegt wahrscheinlich in einer geringeren Dispersion der Aktivkomponente begründet. Ursachen für eine geringe Dispersion können sein: (i) die direkte Reduktion der imprägnierten Metallkomponente ohne Kalzination als Zwischenschritt oder (ii) eine Be-günstigung der Metallsinterung durch die Hochtemperatur-Reduktion. Basierend auf den erzielten Ergebnissen stellt die Verwendung von Nickel auf γ-Aluminiumoxid als Träger ein Optimum hinsichtlich Aktivität, Selektivität, Stabilität und Preis dar.
Bei der Modifizierung der Fischer-Tropsch-Katalysatoren wurden verschiedene Promotoren zusammen mit Eisen auf Puralox SCFa-230 aufgebracht. Als Promotoren für Eisen wurden Zink oder Mangan eingesetzt und mit einem promotorfreien Eisenkatalysator verglichen. Hierzu wurden zum einen die Metalle in Form der entsprechenden Nitratsalze auf das γ-Aluminiumoxid imprägniert. Zum anderen wurden eisen- und eisen-/promotorhaltige Nanopartikel zur Im-prägnierung verwendet. Alle Katalysatoren lieferten bei der Hydrierung von Kohlendioxid ein Produktgemisch bestehend aus Kohlenmonoxid, Methan und C₂₊-Kohlenwasserstoffen. Die Ausbeuten an C₂₊-Kohlenwasserstoffen sind bei 400 °C am größten, wobei mit steigender Temperatur eine Abnahme der Kettenlänge beobachtet werden kann. Die Unterschiede der Metallsalz-imprägnierten Katalysatoren im Vergleich zu den Nanopartikel-imprägnierten Katalysatoren sind relativ gering. Die Nanopartikel-imprägnierten Katalysatoren bilden geringfügig kleinere Mengen an Kohlenmonoxid zugunsten von Methan. Beim Vergleich der Promotoren hat sich eine Dotierung mit Mangan gegenüber den zinkhaltigen- sowie den promotorfreien eisenhaltigen Katalysatoren als vorteilhaft herausgestellt. Die manganhaltigen Katalysatoren produzieren den größten Anteil an Olefinen in den einzelnen Fraktionen. Außer-dem liegt die Kettenwachstumswahrscheinlichkeit α bei niedrigeren Temperaturen höher als bei den anderen Katalysatoren.
In weiteren Untersuchungen wurden ungeträgerte Fischer-Tropsch-Katalysatoren betrachtet. Hierfür wurden zwei Fällungskatalysatoren hergestellt. Es wurde ein Katalysator, der ausschließlich aus Eisenoxid besteht, als Referenz untersucht sowie ein eisenhaltiger Katalysator mit den Promotoren Aluminium, Mangan und Kalium. Am reinen Eisenoxid konnte eine etwas höhere Kettenwachstumswahrscheinlichkeit α sowie ein höheres Verhältnis von Olefinen zu Paraffinen im Vergleich zu den geträgerten Katalysatoren beobachtet werden. Mit dem Fällungskatalysator, der promotiert war, wurden die besten Ergebnisse erzielt: Die Umsätze von Kohlendioxid, die Ausbeuten an C₂₊-Kohlenwasserstoffen sowie die Kettenwachstumswahr-scheinlichkeiten α und die Verhältnisse der Summe von Olefinen / sauerstoffhaltigen Verbin-dungen zu den Paraffinen sind bei allen Reaktionstemperaturen am größten. Die Ergebnisse zeigen, dass Vollkatalysatoren für die Fischer-Tropsch-Synthese besser geeignet sind als Trägerkatalysatoren.
Um den eingangs erläuterten Kapazitätsengpass bei der Speicherung von regenerativen Energien entgegen zu treten, stellt das Power-to-Gas-Verfahren einen interessanten Lösungsansatz dar. In diesem Zusammenhang wurde eine Modifizierung des Power-to-Gas-Verfahrens näher untersucht. Es wurde anhand von Modellrechnungen gezeigt, weshalb eine Brennwertanpassung mit kombinierter Fischer-Tropsch-Synthese notwendig erscheint. Die Katalysatoren wurden anhand der zuvor erlangten Erkenntnisse ausgewählt. Als Methanisierungskatalysatoren wurde jeweils ein cobalt , nickel- oder rhodiumhaltiger Katalysator mit dem promotorhaltigen Fällungskatalysator für die Fischer-Tropsch-Synthese kombiniert. Die Kom-bination eines Methanisierungskatalysators mit dem Fischer-Tropsch-Katalysator führte jedoch nicht wie erwartet zu einem Produktgas mit einem hohen Anteil von Methan sowie zusätzlich C₂₊-Kohlenwasserstoffen. Stattdessen wurde fast ausschließlich Methan gebildet. Die Variation der Verweilzeit am cobalthaltigen Katalysatorsystem und eine längere Laufzeituntersuchung am nickelhaltigen Katalysatorsystem zeigten zudem das Auftreten einer Desaktivierung des Methanisierungskatalysators. Nach dessen vollständiger Desaktivierung wurde die Produktzusammensetzung ausschließlich durch den Fischer-Tropsch-Katalysator bestimmt. Diese Beobachtungen können folgendermaßen erklärt werden: Zu Beginn der Katalysatorlaufzeit werden die entstandenen C₂₊-Kohlenwasserstoffe mittels Hydrogenolyse am Methanisierungskatalysator zu Methan umgewandelt. Das bei der Fischer-Tropsch-Synthese gebildete Kohlenmonoxid und ein Teil des restlichen Kohlendioxids werden ebenfalls zu Methan umgesetzt. Mit fortschreitender Verweilzeit desaktiviert der Methanisierungskatalysator durch Verkoken. Die Hydrogenolyse, welche vermutlich ebenfalls an den für die Methanisierung aktiven Zentren stattfindet, kommt vollständig zum Erliegen. Die Produktzusammensetzung wird nun vollständig durch die Katalyse am Fischer-Tropsch-Katalysator dominiert. Vor diesem Hintergrund erscheint die Suche nach Methanisierungskatalysatoren, die keine Hydrogenolyse von C₂₊-Kohlenwasserstoffen bewirken, als lohnenswert.
Um Spielkarten zu mischen gibt es unterschiedliche Techniken, die sich sowohl in ihrem Zeitaufwand, als auch in der Güte der Durchmischung unterscheiden. Der folgende Artikel vermittelt, wie man die Frage nach einer besonders guten Mischtechnik nutzen kann, um mathematische Modellierung anhand einer alltagsnahen Fragestellung in den Unterricht einzubinden. Dabei können verschiedene Aspekte der Stochastik angesprochen werden, und es bietet sich ein breites Potential, auf unterschiedlichen Niveaus Computer zum Generieren von Zufallsexperimenten zu verwenden.
Jugendliche sind häufige Nutzer öffentlicher Stadträume, die ihnen wichtige Möglichkeiten der Interaktion, aber auch Orte des Rückzugs aus dem privaten Raum des Elternhauses oder dem institutionalisierten Raum der Schule bieten. In der aktuellen wissenschaftlichen Diskussion um öffentlichen Raum tritt vielfach dessen Wandel in den Fokus, vor allem im Hinblick auf Tendenzen der Kommerzialisierung, Privatisierung, aber auch einer zunehmenden Unsicherheit und Kriminalität. Über diese Aspekte des Wandels werden, so die grundlegende These der vorliegenden Arbeit, Jugendlichen engere Grenzen gesetzt und Aneignungs- und Zu-gangsmöglichkeiten eingeschränkt. Ein Beispiel für neue privatisierte und kommerzialisierte Räume stellen Shopping Malls dar. In diesen, de jure nicht öffentlichen, sondern als quasi-öffentlich bezeichneten Räumen, in denen Sicherheit, Sauberkeit und Service Priorität haben, wird ein mit Jugendlichen oftmals assoziiertes, vermeintlich unkontrollierbares, abweichendes, ausprobierendes Verhalten als Störfaktor wahrgenommen.
Auf Basis qualitativer Interviews mit Jugendlichen, nicht-teilnehmender Beobachtung und Experteninterviews mit Verantwortlichen von Polizei, Streetwork und dem Management lokaler Shopping Malls, werden in zwei Fallstudien (Saarbrücken und Ludwigshafen) die Aneignung und Wahrnehmung unterschiedlicher innerstädtischer öffentlicher Räume (Fußgängerzone, Zentraler Stadtplatz, Grün- und Freiflächen), etwaige Nutzungskonflikte und die Bedeutung des neuen, quasi-öffentlichen Raumtyps „Shopping Mall“ diskutiert.
Den theoretischen Hintergrund liefern vor allem Arbeiten von Pierre Bourdieu, Anthony Giddens und Henri Lefebvre: In Anlehnung an Bourdieu muss Raum, und damit auch öffentlicher Raum, aus verschiedenen Dimensionen, insbesondere der physischen und der sozialen, gedacht werden, die jedoch wechselseitig aufeinander wirken. Er ist, so die Theorie Henri Lefebvres, in einem mehrdimensionalen Prozess sozial produziert. Im Rahmen dieses Produktionsprozesses bilden sich, im Rahmen des dem von Giddens dargestellten Dualismus von Handeln und Struktur, Macht- und Ordnungsstrukturen aus, die Handeln und damit Nutzungsmöglichkeiten beeinflussen.
Die Ergebnisse der Fallstudien zeigen, dass öffentliche Räume von Jugendlichen, nach wie vor, als Interaktions-, Rückzugs- Mobilitäts- und Konsumräume genutzt werden. Dennoch sind Transformationsprozesse sichtbar: Kommerzialisierung und Privatisierung beeinflussen den Zugang zu und die Nutzungsmöglichkeiten von öffentlichen und quasi-öffentlichen Räumen. Auch durch gestiegene Unsicherheit, von aber auch durch Jugendliche, sowie Kontrollen verändern sich Möglichkeitsräume. Diese Kontrollen werden jedoch durchaus auch positiv und als Notwendigkeit bewertet, um zunehmender Unsicherheit zu begegnen.
Von Jugendlichen sind insgesamt Anpassungsleistungen notwendig, vor allem hinsichtlich eines angemessenen Verhaltens in öffentlichen und quasi-öffentlichen Räumen. Sie müssen sich mit bestehenden Macht- und Ordnungsstrukturen auseinandersetzen und sich diesen häufig unterordnen. Sind sie dazu nicht bereit oder nehmen Konflikte Überhand, werden Treffpunkte und Nutzungen aufgegeben. Besonders am Beispiel der „Shopping Malls“ wurde deutlich, dass eingeschränkte Zugangsmöglichkeiten und geltende Verhaltensvorschriften Änderungen der räumlichen Praxis notwendig machen, um Nutzung zu legitimieren. Shopping Malls können aber das Angebot an Freizeiträumen für Jugendliche auch erweitern. Gerade wenn ein Mangel an adäquaten Treffpunkten herrscht und klassische öffentliche Räume von „Verödung“ betroffen sind, so wie es im Fallbeispiel Ludwigshafen der Fall war, bilden sie einen alternativen „Erlebnisort“.
Infobrief FBK 50/16
(2016)
Infobrief FBK 49/16
(2016)
α-, β- und γ-Asaron gehören zur Gruppe der Phenylpropanoide und kommen überwiegend in Pflanzen der Familien Aristolochiaceae, Acoraceae und Lauraceae vor. Asarone sind im etherischen Öl dieser Pflanzen enthalten, welches hauptsächlich als Aromastoff in
alkoholischen Getränken wie Bitterlikören oder in der traditionellen Pflanzenmedizin
eingesetzt wird. α- und β-Asaron besitzen pharmakologische Eigenschaften und könnten potentiell in der Therapie von verschiedenen Krankheiten eingesetzt werden, jedoch haben Studien gezeigt, dass diese Verbindungen sowie indisches Kalmusöl im Tierversuch im Nager
krebserregend sind (Dünndarm und Leber). Der Mechanismus dieser kanzerogenen Wirkung ist derzeit noch unklar, wobei ein gentoxischer Weg nicht ausgeschlossen werden kann. Studien zur Gentoxizität der propenylischen Verbindungen α- und β-Asaron sind bislang uneinheitlich. Daten zur Kanzerogenität und Gentoxizität des allylischen γ-Asarons fehlen
gänzlich. Basierend auf der aktuellen Datenlage ist eine Risikobewertung für Zubereitungen, die Asarone enthalten, nicht möglich. Im Rahmen der vorliegenden Dissertation sollte daher
mithilfe von verschiedenen in vitro Testsystemen ein Beitrag zur Aufklärung des Wirkmechanismus der Kanzerogenität geleistet und die Frage nach der Gentoxizität der Asarone geklärt werden. Dazu wurde zunächst ein bakterieller Mutagenitätstest (Ames-Fluktuationstest) mit und ohne exogene metabolische Aktivierung (S9-Mix) in den Salmonella
typhimurium-Stämmen TA97a, TA98, TA100 und TA102 eingesetzt. Zusätzlich wurden Untersuchungen zur Zytotoxizität und Gentoxizität in Säugerzellen durchgeführt. Zur Überprüfung der Mutagenität diente der Hypoxanthinphosphoribosyltransferase (HPRT)-Test in V79-Zellen und gentechnisch veränderten V79-Zellen (V79-hCYP1A2-hSULT1A1*1 und V79-
rCYP1A2-rSULT1C1) und zur Bestimmung des gentoxischen Potentials wurde der
Mikrokerntest in V79-Zellen und metabolisch kompetenten HepG2-Zellen herangezogen. α- und β-Asaron zeigten im Ames-Fluktuationstest nur nach metabolischer Aktivierung ein mutagenes Potential. Diese Ergebnisse deuten auf die wichtige Rolle des Metabolismus in der
Toxizität der propenylischen Asarone hin. Deshalb wurden neben den drei Asaron-Isomeren auch ausgewählte oxidative Metaboliten ((E/Z)-Asaron-1',2'-epoxid, γ-Asaron-2',3'-epoxid, erythro- und threo-1',2'-Dihydro-1',2'-dihydroxyasaron, (E/Z)-3'-Oxoasaron und 2,4,5-Trimethoxyphenyl-2-propanon) auf Mutagenität getestet. Dabei konnte festgestellt werden, dass die mutagene Wirkung von α- und β-Asaron auf die Epoxidierung der Seitenkette
zurückzuführen ist, da die entsprechenden Epoxide im Ames-Fluktuationstest ebenfalls mutagen waren. Außerdem führte der HPRT-Test in den gentechnisch veränderten V79-hCYP1A2-hSULT1A1*1-Zellen zu einer leichten Erhöhung der Mutationsfrequenz nach Inkubation mit den Asaronen, während der Test in den Standard-V79- und V79-rCYP1A2-rSULT1C1-Zellen für diese Verbindungen keine Veränderung im Vergleich zur Negativkontrolle zeigte. Im Mikrokerntest in HepG2-Zellen konnte ebenfalls ein gentoxisches Potential für die
propenylischen Asarone nachgewiesen werden. Welchen Einfluss dabei der Metabolismus der Substanzen hat, wurde mithilfe einer Vorinkubation mit TCDD überprüft, welches vor allem zur Induktion von CYP1A-Enzymen in HepG2-Zellen führt. Bei allen drei Asaron-Isomeren
wurde dadurch eine Erhöhung der relativen Mikrokernrate erreicht, insbesondere jedoch bei α-Asaron. Die Inkubation mit den oxidativen Metaboliten gab Hinweise darauf, dass die gentoxische Wirkung hier vermutlich auf die Bildung von (E/Z)-3'-Oxoasaron zurückzuführen ist. In der vorliegenden Arbeit konnte somit gezeigt werden, dass nicht nur zwischen allylischen und propenylischen Asaronen Unterschiede in der Gentoxizität vorliegen, sondern auch zwischen dem trans(α)- und cis(β)-Isomer. Dieser Befund geht mit den neuesten Untersuchungen zum Metabolismus dieser Substanzen einher, der sich ebenfalls zwischen den propenylischen Asaronen unterscheidet. Dem allylischen γ-Asaron liegt wiederum ein anderer Wirkmechanismus zugrunde. Der postulierte Metabolismusweg für vergleichbare allylische Alkenylbenzene basiert auf einer CYP-Hydroxylierung der Seitenkette und einer weiteren Sulfonierung durch Sulfotransferasen. Durch eine spontane Abspaltung der Sulfat-Gruppe entsteht ein reaktives Carbokation, das mit nukleophilen Zentren (z.B. Proteinen oder DNA) reagieren und somit letztlich zu Mutationen und der Entstehung von Krebs beitragen
kann. Die Ergebnisse der vorliegenden Arbeit geben jedoch keinen Hinweis darauf, dass es bei γ-Asaron analog zu anderen allylischen Propenylbenzenen zu einer Bildung eines ultimaten Kanzerogens kommt, da keine mutagene Wirkung in den hier verwendeten Testsystemen zu
beobachten war, die zum Großteil eine Aktivierung über Sulfotransferasen ermöglichten.
Immobilisierung von Glycosidasen an magnetische Partikel mit dem Ziel einer Weinaromaverbesserung
(2016)
In der Winzertechnik werden Enzympräparate für diverse Anwendungen eingesetzt. Dabei gibt es zahlreiche kommerzielle Enzyme zur Verbesserung bzw. Freisetzung von Aromen. Solche Enzympräparate werden nach einiger Zeit durch eine Bentonitschönung inaktiviert bzw. ausgefällt und gehen damit verloren. Der Einsatz von neuem Enzympräparat bei jedem weiteren Gärungsansatz stellt dabei einen Kostenfaktor für den Winzer dar und es bleibt eine gewisse Rest-Enzymaktivität im Wein erhalten. Letzteres führt dazu, dass solche Weine sensorisch nach einem halben bis einem Jahr abbauen. Um sensorische Beeinträchtigungen und Qualitätsminderungen vorzubeugen ist eine vollständige Entfernung der Enzyme wichtig. Eine Immobilisierung dieser Enzyme an Magnetit-Partikel stellt eine Möglichkeit dar, dieses Problem zu lösen. Besonders die vollständige Entfernung durch eine Magnet-Separation und die anschließende Wiederverwendbarkeit der Enzyme sind dabei wichtige Vorteile für den Winzer.
Bei Enzympräparaten zur Weinaromaverbesserung handelt es sich um pektolytische Enzymmischungen mit einer β-Glucosidase-Nebenaktivität. Gerade in Weißwein kommen viele Aromen glykosidisch gebunden vor und sind dadurch sensorisch nicht wirksam. Diese glykosidischen Verbindungen können durch eine β Glucosidase-Aktivität gespalten und das entsprechende Aroma-Aglykon freigesetzt werden. Allerdings liegt bei der Freisetzung der Aromastoffe ein sequentieller Mechanismus vor, d.h. es werden ebenfalls andere Glycosidasen, wie Arabinosidase, Rhamnosidase oder Xylosidase, benötigt, um Aroma freizusetzen. Daher muss es sich bei den für die Aromafreisetzung eingesetzten Enzymen immer um eine Mischung aus Glycosidasen handeln. Die Immobilisierung verschiedener Enzyme auf einen Träger ist dahingehend eine Herausforderung, indem jedes Enzym andere Voraussetzungen hat, um erfolgreich an einen Träger zu koppeln. Aus diesem Grund ist die simultane Immobilisierung mehrere Enzyme immer nur ein Kompromiss.
Ziel dieser Arbeit war es, die Enzyme erfolgreich an Magnetit-Partikel zu koppeln und mittels analytischer und sensorischer Untersuchungen die Wirksamkeit und die Eigenschaften der Enzyme hinsichtlich eines Einsatzes in der Winzertechnik zu bewerten. Zur Immobilisierung wurden superparamagnetische Magnetit-Partikel, die in einer Matrix aus Polyvinylalkohol eingeschlossen waren, verwendet und die Konjugation der Enzyme wurde mit Carbodiimid durchgeführt.
Die Ergebnisse zeigen, dass es möglich ist mehrere Glycosidasen verschiedener Spezifität aus einem kommerziellen, önologischen Enzympräparat erfolgreich an Magnetit-Partikel zu koppeln und dadurch die Aroma-Ausprägung von Wein positiv zu beeinflussen. Bei den untersuchten Bedingungen stellten sich pH 3,8 bis 4,0 als beste Voraussetzung heraus, um möglichst viele Glycosidasen aktiv an den Träger zu konjugieren. Generell hatte die β-Glucosidase eine relativ hohe Kopplungsaffinität zum Träger, sodass im immobilisierten Enzymgemisch andere Mengenverhältnisse der einzelnen Glycosidasen vorlagen als im Ausgangsprodukt. Untersuchungen hinsichtlich einer möglichen Änderung im Aktivitätsprofil zeigten keine signifikanten Unterschiede. Durch die Kopplungsreaktion kam es zu keiner negativen Beeinträchtigung. Für alle Enzympräparate wurde allerdings eine deutliche Inhibition der β-Glucosidase-Aktivität durch Glucose festgestellt. Die Enzyme sollten daher erst am Ende bzw. nach der Gärung eingesetzt werden, da dort die Glucose-Konzentration am niedrigsten ist. Stabilitätsuntersuchungen der gekoppelten Glycosidasen im Wein zeigten lediglich leichte Aktivitätsverluste. Somit war die Kopplung stabil und stellte kein Hindernis für einen Einsatz im Wein dar. Die Rückgewinnung der Magnetit-Partikel aus Wein wurde mit Hilfe eines Hochgradient-Magnet-Separators durchgeführt. Die Separation hatte ebenfalls keinen negativen Einfluss auf die Enzymaktivität der gekoppelten Enzyme.
Da die Enzyme an Magnetit-Partikel gekoppelt wurden, ist eine mögliche Eisenmigration aus den Partikeln in den Wein ebenfalls ein wichtiges Kriterium und wurde entsprechend untersucht. Dabei konnten durch den Einsatz der Magnetit-Partikel im Wein teilweise ein stark erhöhter Eisengehalt festgestellt werden. Eine erhöhte Eisen-Konzentration im Wein kann zu drastischen Qualitätseinbußen und zu vermehrter Oxidation führen. In Folge dessen stellt die Eisenmigration aus den Partikeln noch ein erhebliches Problem bei einem späteren Einsatz in der Winzertechnik dar. Untersuchungen zum Phenolgehalt der mit Magnetit-Partikel behandelten Weinproben ließen auf einen solchen oxidativen Abbau durch die erhöhten Eisen-Konzentrationen schließen. Weitere Untersuchungen einiger Einzelphenole bestätigten diese Annahme. Neben verminderten Phenolgehalten konnten dagegen einige Phenole, wie Kaffeesäure, p Coumarsäure und Resveratrol, durch den Enzymeinsatz signifikant gesteigert werden.
Weitere Untersuchungen zeigten, dass die gekoppelten Enzyme fähig waren, Aromastoffe im Wein freizusetzen. Der Terpengehalt konnte signifikant durch Enzymeinsatz, sowohl frei als auch immobilisiert, gesteigert werden. Dies betraf besonders die Monoterpene Nerol und Geraniol. Ein Vergleich zwischen gekoppelten und freien Glycosidasen zeigte, dass durch das nicht-immobilisierte Enzymgemisch etwas mehr der untersuchten Verbindungen freigesetzt wurde. Dieser Effekt kann mit der durch die Kopplung veränderten Enzym-Zusammensetzung erklärt werden, da ein größerer Anteil an β-Glucosidase an die Magnetit-Partikel koppelte, aufgrund des sequentiellen Mechanismus, aber auch andere Glycosidasen von Bedeutung sind, um das entsprechende Aglykon freizusetzen.
An Magnetit-Partikel gekoppelte Glycosidasen können gut in bestehende Batch-Prozesse der Weinherstellung integriert werden. Außerdem sind, abgesehen vom Magnet-Separator, nur geringe Investitionen in neue Anlagen nötig. Weitere Vorteile sind eine gute Abtrennung und Wiederverwendbarkeit der gekoppelten Enzyme, enzymfreies Produkt, nahezu identische Anwendung im Vergleich zu bestehenden Enzympräparaten und es ist kaum neue Prozess-Expertise für die Winzer notwendig. Die Prozessbetrachtung zeigte allerdings auch die Komplexität der Hydrolyse glykosidisch gebundener Stoffe im Wein, da eine Vielzahl von Faktoren die Hydrolyse der Glykoside im Wein beeinflusst. Somit ist eine Vorhersage bzw. Abschätzung der Freisetzung an Aromastoffen im Wein durch einen Enzymeinsatz äußerst kompliziert und es ist zurzeit noch nicht möglich die erworbenen Kenntnisse zur Hydrolyse der Glykoside den Weingütern effizient zur Verfügung zu stellen.
Die Glycosidasen β-Glucosidase, Arabinosidase, Rhamnosidase und Xylosidase konnten erfolgreich auf die verwendeten Magnetit-Partikel immobilisiert, deren mögliche Wiederverwendbarkeit gezeigt und durch den Einsatz dieser Enzyme der Gehalt an Terpenen und einiger Phenole signifikant gesteigert werden. Diese Erkenntnisse zeigen, dass ein Einsatz der an Magnetit-Partikel gekoppelten Glycosidasen in der Winzertechnik möglich ist. Allerdings können die erhöhten Eisengehalte durch die Verwendung der Magnetit-Partikel zu Qualitätseinbußen führen. Daher sind die verwendeten Partikeln noch nicht für einen Einsatz in der Winzertechnik geeignet. Diese bedürfen weiterer Entwicklung, da für einen erfolgreichen Einsatz möglichst inerte Partikel vorliegen sollten, um die beschriebenen negativen Effekte zu minimieren.
Ausgangspunkt und Vorgehen:
Smartphones bieten zahlreiche interessante Experimentiermöglichkeiten und weisen dabei Vorteile gegenüber herkömmlichen Experimenten auf: Die Geräte besitzen verschie- dene interne Sensoren, so dass mit nur einem Medium viele verschiedene physikalische Phänomene untersucht werden können. Smartphones eignen sich zur Behandlung der Mechanik, der Akustik, des Elektromagnetismus, der Optik und der Radioaktivität, wobei Experimente sowohl innerhalb, als auch außerhalb der Schule möglich sind. Hinzu kommt, dass heute nahezu alle Jugendlichen ein eigenes Smartphone besitzen, so dass auch die Möglichkeit besteht, Versuche als Hausaufgabe einzusetzen. Diese Vorteile sind in der fachdidaktischen Forschung bekannt, weswegen bereits zahlreiche experimentelle Konzep- te in der Literatur vorhanden sind.
Im Gegensatz zur Erstellung experimenteller Konzepte wurde die empirische Untersu- chung der Lerneffekte von Smartphones allerdings von der Forschung bisher kaum in den Blick genommen, obwohl Auswirkungen auf Motivation, Neugier und Leistung auf der Grundlage verschiedener theoretischer Rahmenwerke (kontextorientiertes Lernen, Neu- gier, Cognitive Load Theory und Cognitive-Affective Theory of Learning with Media) ange- nommen werden können. Eine schrittweise Erkundung der Auswirkungen des Einsatzes der Geräte auf affektive und kognitive Variablen des Lernens ist daher notwendig. In die- sem Sinne wird als ein erster Schritt hin zu einem umfänglichen Verständnis der Möglich- keiten der Förderung des Lernens in Physik durch das Experimentieren mit Smartphones und den darin verbauten Beschleunigungssensoren eine Untersuchung in einer traditionel- len Unterrichtssituation mit bewährten Experimenten im Themenbereich Mechanik durch- geführt. Auch wenn so das Potenzial der Geräte nicht vollständig ausgenutzt wird, wurde diese Vorgehensweise aus zwei Gründen beschritten: Zum einen muss das Lernen außer- halb des Unterrichts im Unterricht vorbereitet werden; zum anderen lässt sich so eine gute Kontrollierbarkeit und geringe Konfundierung der untersuchten Variablen bei gleichzeitig hoher ökologischer Validität realisieren.
Zur Untersuchung der Lerneffekte durch den Einsatz der Beschleunigungssensoren von Smartphones wurde zunächst eine Pilotstudie mit 122 Schülerinnen und Schülern durch- geführt. An der anschließenden Hauptstudie nahmen 245 Schülerinnen und Schüler aus 15 Klassen und Kursen von sechs Gymnasien aus Rheinland-Pfalz teil. Für beide Studien wurden experimentelle Aufbauten und zugehörige Instruktionsmaterialien für inhaltsgleiche Experimente mit dem Beschleunigungssensor von Smartphones einerseits und mit traditio- nellem Equipment andererseits entwickelt. Außerdem wurden verschiedene Testinstrumen- te konstruiert oder adaptiert.
Ausgewählte Ergebnisse:
Außer den bereits bekannten praktischen und experimentellen Vorteilen von Smartphones kann der Einsatz des Beschleunigungssensors der Geräte förderlich für das Lernen sein. Zunächst wurde festgestellt, dass keine der häufig befürchteten Nachteile der Nutzung moderner Kommunikationsmedien im Unterricht auftraten. Die Schülerinnen und Schüler waren durch den zielgerichteten Medieneinsatz nicht überfordert: Der von den Schülerin- nen und Schülern wahrgenommene allgemeine Cognitive Load war in der Smartphone- Gruppe nicht größer als in der Kontrollgruppe, der speziell auf die Nutzung der Geräte be- zogene Cognitive Load wurde als eher klein empfunden. Die Lernleistung der Schülerinnen und Schüler war außerdem unabhängig von ihrer Vorerfahrung mit Experimenten oder mit Technik, eine befürchtete Limitierung der positiven Effekte von Smartphones auf bestimmte Schülergruppen war also nicht festzustellen. Häufig wird als Argument gegen Smartphones in der Schule ins Feld geführt, dass diese zu stark vom Unterricht ablenkten. Eine beson- ders große Ablenkung konnte jedoch in der Intervention nicht beobachtet werden: Die Schülerinnen und Schüler der Smartphone-Gruppe arbeiteten ebenso konzentriert wie die der Kontrollgruppe (die bisweilen ebenfalls durch Gespräche oder Ähnliches abgelenkt waren). Dementsprechend war auch keine Minderung des Lernerfolgs in der Smartphone- Gruppe festzustellen.
Neben dem Ausbleiben befürchteter Nachteile traten außerdem explizite Vorteile durch das Lernen mit Beschleunigungssensoren von Smartphones auf: Das Interesse und Engage- ment der Schülerinnen und Schüler in der Smartphone-Gruppe war signifikant größer als das in der Kontrollgruppe (d = 0,4). Dabei ist der gefundene Gruppenunterschied so groß, dass davon ausgegangen werden kann, dass hier mehr als ein bloßer Neuigkeitseffekt vorliegt. Hinzu kommt, dass durch das Lernen mit Smartphones vor allem das Interesse bezüglich des Physikunterrichts bei den Schülerinnen und Schülern geweckt wurde, die vor der Intervention eher wenig interessiert waren.
Ein weiterer Effekt durch das Lernen mit den Beschleunigungssensoren von Smartphones betrifft die Neugier bezüglich der Inhalte der Experimente: Diese Neugier war in der Smartphone-Gruppe signifikant stärker ausgeprägt als in der Kontrollgruppe (d = 0,25). Dabei konnte kein Einfluss der experimentellen Vorerfahrung oder der fachlichen Vor- kenntnisse auf die Neugier festgestellt werden, es liegt also eine weitgehend vorausset- zungsfreie Förderung vor. Die Einstellung gegenüber Smartphones war bei den meisten Schülerinnen und Schülern eher positiv, unabhängig von ihrem Interesse am Physikunter- richt oder ihrem Selbstkonzept. Bei leistungsschwächeren Schülerinnen und Schülern war die positive Haltung gegenüber dem Einsatz von Smartphones im Unterricht sogar stärker ausgeprägt als bei leistungsstarken.
Kognitive Vorteile durch das Lernen mit dem Beschleunigungssensor von Smartphones konnten nicht festgestellt werden. Es traten allerdings auch keine Nachteile auf: In beiden Gruppen gab es mittlere gewichtete Lernzuwächse (gSG = 0,38, gKG = 0,33) mit großen Effektstärken (dSG = 0,95, dKG = 1,09), wobei die Smartphone-Gruppe genau so gut ab- schnitt wie die Kontrollgruppe.
Abgesehen von den Erkenntnissen bezüglich der Lerneffekte von Smartphones konnten die beiden neu erstellten Testinstrumente der primären Fragestellung übergeordnete Er- kenntnisse liefern: Der für die Hauptstudie entwickelte Konzepttest zur Periodizität mecha- nischer harmonischer Schwingungen liefert Hinweise auf bisher unbekannte Präkonzepte. So glaubten einige Schülerinnen und Schüler, dass ein kleiner Ortsfaktor die Bewegung eines Federpendels verlangsamen würde, was zu einer größeren Schwingungsdauer führ- te. Zum anderen bestand die intuitive Vorstellung, dass die Dämpfung eines Fadenpendels durch die Gravitationskraft verursacht würde, da diese das Pendel an den tiefsten Punkt seiner Bahn ziehe.
Außerdem wurden in der vorliegenden Arbeit erste Schritte hin zu einem Testinstrument für das episodische Gedächtnis in instruktionalen Kontexten unternommen. Drei Itemformate stellten sich als geeignet für die Untersuchung heraus, unter anderem die Wiedererken- nung von Bildern beim Experimentieren verwendeter Gegenstände. Zum Zusammenhang zwischen dem episodischen Gedächtnis und dem Lernen ergaben sich erste Hinweise, die vielversprechende Ansätze für weitere Forschungen bieten.
Synthetisch hergestelltes Siliziumdioxid (SiO2) im Submikro- und Nanopartikelmaßstab findet bereits in Farben und Lacken, sowie in Kunst- und Klebstoffen Einsatz, um deren Brillanz, Kratz- und Kohäsionsfestigkeit zu verbessern. Die gute Verfügbarkeit und der geringe Preis des SiO2 machen es für viele Anwendungen zu einem interessanten Füllstoff.
Ziel dieser Arbeit war es, durch werkstoffwissenschaftliche, grundlagenorientierte Betrachtungen ein tieferes Verständnis für die Funktionsmechanismen von modifizierten SiO2-Partikeln in einer EP-Matrix zu erlangen und eine Verbesserung der tribologischen Eigenschaften (Reibungskoeffizient und Verschleißrate) der Komposite zu erreichen. Der erste Teil dieser Arbeit befasst sich mit der Herstellung und Charakterisierung von modifizierten Siliziumdioxid-Partikeln mittels eines modifizierten Stöberprozess. Es wurden die Katalysatoren Ammoniak, Tetramethylammoniumhydroxid (TMAH) und Tetramethylethylendiamin (TMED) getestet. Als Referenz wurden kommerziell erhältliche SiO2-Nanopartikel (Aerosil 200) sowie ein ebenfalls kommerziell erhältliches Partikelgemisch (NanoVit) als Füllstoffe getestet. Zur Ermittlung der tribologischen Eigenschaften wurde an den Kompositen eine Gleitverschleißuntersuchung (Stift-auf-Scheibe (PoD)) mit unterschiedlichen Parametervarianten (Geschwindigkeit-/Druckvariationen) durchgeführt. Es konnte gezeigt werden, dass die modifizierten SiO2-Partikel einen positiven Einfluss auf die tribologischen Eigenschaften der EP-Komposite haben. Weiter konnte bewiesen werden, dass durch die Zugabe der neu synthetisierten SiO2-Partikel auf eine Zugabe von Graphit als Schmiermittel verzichtet werden kann. Auch wurde festgestellt, dass durch das Eleminieren des Graphites sich ein sehr dünner Gleitfilm auf dem Gegenkörper ausbildete, der als ein Indiz für die Ursache der Verbesserung des Reibwertes gelten kann. Ein Prozess für dieses Kompositverhalten wurde in dieser Arbeit postuliert.
Die Entwicklung von Revitalisierungskonzepten für Wohnimmobilien ist ein komplexer und zeitintensiver Prozess, bei dem umfassendes Fachwissen und weitreichende Erfahrungen notwendig sind. Heterogene Gebäudetypen mit unterschiedlichen Eigenschaften und Handlungsbedarfen machen den Konzeptentwicklungsprozess noch komplizierter. Diese Arbeit bietet einen Katalog mit priorisierten Handlungsempfehlungen zur Entwicklung von Revitalisierungsvarianten für Mehrfamilienhäuser aus den 1970er Jahren in den alten Bundesländern. Die Immobilien tragen mit ca. 2,4 Mio. Wohnung wesentlich zur Wohnraumversorgung in den alten Bundesländern bei und wurden bisher unzureichend erforscht. Darüber hinaus stehen durch das Alter, den häufig geringen Modernisierungszustand und vorhandene Potenziale der Mehrfamilienhäuser meist kurz- bis mittelfristig grundlegende Revitalisierungen an.
Die erarbeiteten Handlungsempfehlungen basieren auf Auswertungen von Daten professionell-gewerblicher Wohnungsanbieter, über 13.700 Energieverbrauchsausweisen, Mieterbefragungen und der Datenbasis Gebäudebestand des IWU. Außerdem stützen sich die Empfehlungen auf eine Sekundäranalyse einer repräsentativen Wohnnachfrageuntersuchung für Deutschland sowie auf zwanzig Expertenbefragungen und umfangreiche Literaturanalysen. Durch eine Immobilienanalyse werden verallgemeinerungsfähige Aussagen über bauliche und technische Eigenschaften und Handlungsbedarfe für die Mehrfamilienhäuser gewonnen. Daneben erfolgt anhand einer Nachfrageanalyse die Bestimmung potenzieller Nachfragegruppen und deren Wohnanforderungen sowie daraus abgeleitet nachfrageseitige Handlungsbedarfe für die Mehrfamilienhäuser. Für die ermittelten baulichen und technischen sowie nachfrageseitigen Handlungsbedarfe werden durch eine Maßnahmenanalyse geeignete Revitalisierungsmaßnahmen gefunden. Diese Maßnahmen werden im Katalog der Handlungsempfehlungen angelehnt an ein Kundenanforderungsmodell nach technischen Gesichtspunkten und Nachfrageaspekten priorisiert. Anwender des Empfehlungskatalogs können ihre individuelle kaufmännische Perspektive einbringen, um ganzheitliche Revitalisierungskonzepte zu entwickeln. Durch eine entwickelte Berechnungshilfe können Kosten und Wirtschaftlichkeit der Konzepte bewertet werden.
Die Handlungsempfehlungen zielen auf technische, funktionale, energetische, wirtschaftliche, soziale und architektonische Verbesserungen bei den Mehrfamilienhäusern. In zwei Fallstudien werden der Katalog der Handlungsempfehlungen und die Berechnungshilfe angewendet. Die Fallstudien deuten darauf hin, dass mit Hilfe des Katalogs der Handlungsempfehlungen und der Berechnungshilfe Revitalisierungsvarianten für Mehrfamilienhäuser aus den 1970er Jahren effizient entwickelt und deren Kosten und Wirtschaftlichkeit effizient eingeschätzt werden können. Die Forschungsergebnisse der Arbeit sind insbesondere für Wohnungseigentümer, Projektentwickler, Ingenieure, Berater und Investoren nützlich.
Die Planung von Bushaltestellen in Innenstädten ist ein authentisches Thema, welches sich für den Einsatz in einem realitätsbezogenen Unterricht in unterschiedlichen Klassenstufen eignet. Verschiedene Interessen und Gegebenheiten müssen in einem Modell und in einer Lösungsstrategie vereint werden. Durch eine sehr offen gewählte Fragestellung sind verschiedene Ansätze und Modelle möglich. Somit wird mathematisches Modellieren trainiert und das Durchlaufen eines Modellierungsprozesses in einem interessanten Projekt ermöglicht. Die mathematischen Hintergründe sowie das vielseitige Lösungsspektrum von Schülerinnen und Schülern unterschiedlicher Jahrgangsstufen zu derselben Fragestellung werden im Folgenden vorgestellt.
Es ist eine Alltagsbeobachtung für welche sich zahlreiche empirische Belege finden, dass ge-sundheitsbewusste Verhaltensweisen wie etwa das regelmäßige Betreiben von Sport oder der Konsum von als gesund geltenden Lebensmitteln in bestimmten Kreisen der Bevölkerung zu-nehmen. Parallel ist ein weiterer Trend zu beobachten: die Zunahme umweltbewusster Verhal-tensweisen. Gerade im Bereich des Konsums gehen solche gesundheits- und umweltbewusste Verhaltensweisen häufig miteinander einher. Wer sich gesundheitsbewusst ernähren möchte, greift in aller Regel auf umweltbewusste Produkte zurück. Die Vermutung liegt nahe, dass ge-sundheits- und umweltbewussten Verhaltensweisen bestimmten gemeinsamen Einstellungen, Überzeugungen und Werten zugrunde liegen. Als ein solches Wertecluster kann auf theoreti-scher Ebene eine postmaterialistische Werteorientierung identifiziert werden. Gesundheits- und Umweltbewusstsein würden demnach in wechselseitiger Beziehung zueinander stehen und durch eine postmaterialistische Werteorientierung determiniert werden. Ziel der vorliegenden Arbeit ist es, eben diesen Zusammenhang mittels Strukturgleichungsmodellierung empirisch zu überprüfen. Dies geschieht anhand von Daten des Sozio-Ökonomischen Panels aus dem Jahr 2006 (n=661). Während sich ein positiver und durchaus starker Zusammenhang zwischen Ge-sundheits- und Umweltbewusstsein findet und auch das Umweltbewusstsein positiv von einer postmaterialistischen Werteorientierung abhängig ist, zeigt sich für das Gesundheitsbewusst-sein kein signifikanter, bzw. in verschiedenen Modellvariationen sogar eine negative Abhän-gigkeit von einer postmaterialistischen Werteorientierung. Aufgrund dieser Ergebnisse wird vorgeschlagen, das Gesundheitsbewusstsein als mehrdimensionales Konstrukt zu betrachten. Differenziert wird in ein lebensstilbedingtes Gesundheitsbewusstsein, über welches z.B. Hobby- und Leistungssportler verfügen, und ein defensives Gesundheitsbewusstsein, wie es z.B. bei chronisch Kranken Personen wie Diabetikern zu finden ist. Jedoch sind weitere Ana-lysen nötig, um diese Theorie zu testen.
Die heutige Epigenetik erfordert eine evolutionstheoretische Neubewertung zum Verhältnis von Entwicklung, Vererbung und Anpassungsfähigkeit der Lebewesen. Heutige Fragen zur Entstehung und Weitergabe epigenetischer Veränderungen reichen zurück bis in die Anfänge mytho-, theo- und kosmologischer Betrachtungen. Platon, Augustinus und Cusanus lösen metaphysische Probleme des Anfangs durch einen Übergang vom Sein zum Werden. Eine Übertragung kosmologischer Konzepte in die Embryologie findet sowohl bei Aristoteles als auch in der Renaissance statt. Harvey und Wolff beschreiben die Epigenese in Anlehnung an die kosmologische Revolution von Planeten und Gestirnen als epigenetische Revolution von Henne und Ei. Die Transformation von der zeitlosen, natürlichen Ordnung zu einer Genealogie der Natur und der Triumph der Epigenesis-Theorie über die Präformationslehre ermöglichen zu Beginn des 19. Jahrhundert eine Biologie, die in ihren epigenetischen Grundannahmen unterschiedliche Autoren wie Goethe, Schelling, Lamarck, Mendel und Darwin verbindet. Mit der Umdeutung der revolutionären Epigenese bei Lamarck werden onto- und phylogenetische Prozesse unterscheidbar, deren Verhältnis bei Darwin und in den postdarwinschen Debatten durch verschiedene Theorien der Entwicklung, Vererbung und Anpassung bestimmt wird. Schon bei Darwin kommt es zu einer pangenetischen Synthese von neolamarckistischen, selektions- und organisationstheoretischen Mechanismen der Anpassung. In der ersten Hälfte des 20. Jahrhunderts entsteht die heute noch prägende genetische Evolutionstheorie, bei der Entwicklung und Anpassung vererbungs- und selektionstheoretisch verengt werden. Mit Waddingtons Epigenetik wird das Verhältnis von Onto- und Phylogenese durch die epigenetische Landschaft verräumlicht und das Konzept der Anpassungsfähigkeit konkretisiert. Die Molekularisierung von genetischer und epigenetischer Evolution lässt epigenetische Fragen der Biologie des 19. Jahrhunderts und das protobiologische Erbe wieder aktuell werden. Epigenetische Evolution beruht auf einer Synergie von natürlicher Selektion und epigenetischer Systemdynamik. Diese Synergie erzeugt anpassungs- und lernfähige Organismen, die auf ihre eigene Entwicklung, Vererbung und Anpassungsfähigkeit Einfluss nehmen können. Mit den jüngsten theoretischen Entwicklungen der Epigenetik hat eine Temporalisierung des biologischen Informationsverständnisses begonnen. Aufgabe der genealogischen Annäherung ist die Erhellung dieser historischen Entwicklung und ihrer Relevanz für die heutige Theoriebildung.
Mit der Entwicklung und Umsetzung des Kaiserslauterer Open Online Course (KLOOC) „Nachhaltige Entwicklung“ hat sich die TU Kaiserslautern in verschiedener Hinsicht aktuellen Herausforderungen der Hochschulentwicklung gestellt. Im Ergebnis ist es gelungen, ein erstes offenes, online- basiertes Lernangebot zu schaffen und zu erproben, welches für eine breite Öffentlichkeit zugänglich war und auf vielfältige Weise Formen des digitalen Lehrens und Lernens nutzte. Thematisch leistete der KLOOC zudem einen wichtigen Beitrag zur Engagement der TU Kaiserslautern, sich im Rahmen ihrer Strategie „Nachhaltige TU“ für eine nachhaltige Entwicklung einzusetzen.
Der vorliegende Bericht ist das Ergebnis der internen Evaluation des Projektes, in dessen Rahmen die Wirksamkeit des KLOOC systematisch erfasst wurde. Ziel war es, einerseits Potentiale für dessen organisatorische, inhaltliche und didaktische Weiterentwicklung aufzudecken, andererseits die anvisierten Projektziele kritisch zu reflektieren.
Mit Blick auf die Evaluationsdaten ergibt sich auf einen Blick folgendes Bild:
50% der Teilnehmenden kamen aus der Region Westpfalz1.
50% der Teilnehmenden waren berufstätig.
57% der Teilnehmenden waren zwischen 18 und 34 Jahren alt.
75% der Teilnehmenden haben in den letzten 12 Monaten an Wei- terbildungen teilgenommen.
68% der Teilnehmenden schätzten ihre Medienkompetenz als hoch ein.
57% der Teilnehmenden verfügten über einen Hochschulabschluss. Dementsprechend lässt sich vorab zusammenfassend konstatieren, dass
der KLOOC vor dem Hintergrund der Projektziele ein akademisches Bildungsangebot darstellt, dass sowohl neue Zielgruppen (z.B. Berufstätige) erreicht, als auch den Wissenstransfer in die Region fördert. Gleichzeitig ist erkennbar, dass insbesondere jüngere, tendenziell gut gebildete sowie medien- und weiterbildungsaffine Personen am Kurs teilgenommen haben.
Lautarium ist ein computergestütztes phonologisches Trainingsprogramm zur alltagsintegrierten Schulung der Phonemwahrnehmung, der Phonologischen Bewusstheit im engeren Sinn, der Graphem-Phonem-Korrespondenz und zum alphabetischen Lesen und Schreiben. Während die Wirksamkeit des Programms in einer klinischen Studie mit legasthenen Drittklässlern bereits nachgewiesen wurde (Klatte et al., 2014), steht die Beurteilung des potentiellen Beitrags, den Lautarium im Rahmen des Schriftspracherwerbs in der Schuleingangsphase leisten kann, noch aus. Die vorliegende Arbeit prüft daher, inwieweit Erstklässler die inhaltlichen und formalen Anforderungen des Programms bewältigen und bis zu welchem Grad schriftsprachliche Fertigkeiten gefördert werden können. Die Studie ist im Prätest-Posttest-Follow-up-Design mit einer Experimental- und einer den konventionellen Grundunterricht absolvierenden Kontrollgruppe konzipiert.
Die Ergebnisse zeigen signifikante Verbesserungen in beiden Untertests zur Phonemwahrnehmung, in 2 von 4 Untertests zur phonologischen Bewusstheit in allen Untertests zu Lesegeschwindigkeit und Leseverständnis sowie im lautgetreuen Schreiben. In allen Bereichen, mit Ausnahme der Lesegeschwindigkeit, hielten Trainingseffekte bis 3 Monate nach Trainingsende an. In der Nachbefragung beurteilten 37 von 41 Kinder Lautarium mit der bestmöglichen Bewertung. Die technischen Herausforderungen des Programms wurden nach Aussagen der Lehrer von den Kindern gut bewältigt. Somit kann geschlussfolgert werden, dass Lautarium für den Einsatz in der Schuleingangsphase im Zuge des Förderunterrichts oder zur Binnendifferenzierung uneingeschränkt empfohlen werden kann.
Im Rahmen dieser Arbeit wurden verschiedene Ansätze zur Bilanzierung von Badgiren
und Luftkollektorkonstruktionen studiert und ein Beitrag zur Bilanzierung, harmonisiert
mit der DIN V 18599, neu entwickelt. Die rechnerische Bilanzierung der
Einzelelemente wurde mit dem Werkzeug der thermisch dynamischen Simulation
entwickelt und überprüft.
Entwicklung von TDMA-basierten QoS-Routing-Protokollen und Simulationskomponenten für Ad-Hoc-Netze
(2016)
Ad-Hoc-Netze sind selbstorganisierende Netze ohne zentrale Infrastruktur, die heutzutage in vielen Bereichen Verwendung finden. Sie bestehen aus drahtlosen Knoten, die zur Erfüllung ihrer Aufgaben miteinander kommunizieren. Jedoch befinden sich nicht notwendigerweise alle Knoten in Reichweite zueinander. Damit entfernte Knoten einander erreichen können, werden Routingverfahren benötigt. Die Etablierung einer beliebigen Route ist jedoch oft nicht ausreichend, denn viele Anwendungen stellen spezielle Dienstgüteanforderungen (QoS-Anforderungen) an die Verbindung, beispielsweise die Gewährleistung einer Mindestbandbreite. Um diese QoS-Anforderungen erfüllen zu können, werden sie bereits bei der Ermittlung einer Route berücksichtigt, und die benötigten Ressourcen werden entlang der Route reserviert. Dazu dienen QoS-Routing- und Reservierungsprotokolle.
In dieser Arbeit wird zunächst der Aspekt der deterministischen Reservierung von Bandbreite in Form von konkreten Zeitslots einer TDMA-basierten MAC-Schicht betrachtet. Da sich die Übertragungen verschiedener Knoten in drahtlosen Netzen gegenseitig stören können, wurde ein Interferenzmodell entwickelt. Dieses identifiziert Bedingungen, unter denen Zeitslots innerhalb eines Netzes für mehr als eine Übertragung verwendet werden können. Zudem definiert es durch Aggregation der Informationen anderer Knoten Möglichkeiten zur Ermittlung der benötigten Informationen, um zu entscheiden, welche Zeitslots für eine störungsfreie Übertragung verwendet werden können.
Weiterhin werden existierende QoS-Routing- und Reservierungsprotokolle auf inhärente Probleme untersucht, wobei der Schwerpunkt auf Protokollen liegt, die deterministische Reservierungen von Zeitslots vornehmen. In diese Kategorie fällt auch das im Rahmen der Arbeit entwickelte Protokoll RBBQR, dessen Hauptziel darin besteht, die identifizierten Probleme zu eliminieren. Ferner wird das ebenfalls zu dieser Kategorie gehörende Protokoll QMRP beschrieben, welches zentralisiert Multicast-Routen inklusive der zugehörigen Reservierungen in teilstationären Netzen ermittelt.
Ein weiterer Bestandteil der Arbeit behandelt die Entwicklung von Simulationskomponenten, welche beispielsweise zur Evaluation von QoS-Routing- und Reservierungsprotokollen genutzt werden können. Das existierende Simulationsframework FERAL wurde um eine Komponente erweitert, die die Verwendung von Kommunikationstechnologien des Netzwerksimulators ns-3 ermöglicht. Weiterhin wurde ein Modul zur Simulation eines CC2420-Transceivers entwickelt, welches in eigenständigen ns-3-Simulationen und in Simulationen mit FERAL verwendet werden kann.
Nachhaltige Chemie beinhaltet die Nutzung stofflicher Ressourcen und deren Umwandlung ohne Schaden für zukünftige Generationen. Dabei hat sich insbesondere die Katalyse als nützliche Technologie etabliert, durch die Syntheserouten zu hochwertigen Produkten abgekürzt und dabei die CO2-Bilanz des Gesamtprozesses verbessert wird. Im Rahmen dieser Dissertation wurden nachhaltige, homogen-katalytische Prozesse zur Einbindung nachwachsender Rohstoffe in die chemische Wertschöpfungskette und zur abfallminimierten Synthese von Amiden und Peptiden entwickelt.
Im ersten Teil dieser Arbeit wurde die isomerisierende Metathese als Methode zur Valorisierung nachwachsender Rohstoffe etabliert. Mit einem bimetallischen Katalysatorsystem, bestehend aus dem Isomerisierungskatalysator [Pd(µ-Br)(tBu3P)]2 und NHC-basierten Ruthenium-Metathesekatalysatoren, werden Doppelbindungen ungesättigter Verbindungen kontinuierlich entlang der Kohlenwasserstoffkette verschoben und können gleichzeitig, ungeachtet ihrer Position, eine Metathese durchlaufen. Dies erlaubt die Umwandlung von zwei unterschiedlichen Olefinen in ein Gemisch mit homogener Produktverteilung und einstellbarer mittlerer Kettenlänge. Das synthetische Potential dieser Transformation wurde anhand der Darstellung von Dieselersatzkraftstoffen demonstriert, die vollständig auf erneuerbaren Ressourcen basieren und aufgrund ihres Siedeverhaltens in modernen Motoren in unverdünnter Form eingesetzt werden können. Der neu entwickelte Tandemprozess ermöglicht weiterhin die gezielte Kürzung olefinischer Seitenketten in Gegenwart von Ethen. Die isomerisierende Ethenolyse der natürlich vorkommenden Allylbenzole Eugenol, Allylanisol, Safrol und Methyleugenol wurde zur Synthese wertvoller Styrole mit komplexen Substitutionsmustern eingesetzt. Die isomerisierende Ethenolyse stellt außerdem die Schlüsseltechnologie zur Valorisierung von Cashew-Nussschalenöl dar. Ausgehend von dem bisher ungenutzten Abfallstoff wurde die Synthese der Tsetsefliegen-Lockstoffe 3-Ethyl- und 3-Propylphenol sowie des Polymervorläufers 3,3’-Hydroxystilben demonstriert.
Der zweite Teil dieser Doktorarbeit umfasste die rationale Entwicklung einer abfallminimierten und umweltfreundlichen Methode zur Synthese von Amiden aus Carbonsäuren und Aminen. Dazu wurde ein hocheffektives, luft- und wasserstabiles Ru(IV)-Katalysatorsystem identifiziert, das die Addition von Carbonsäuren an Alkine unter Bildung von Enolestern sowie die weitere Umsetzung dieser Aktivester mit Aminen zu Amiden vermittelt. Ein einstufiges Eintopf-Verfahren zur Synthese von Amiden, bei dem alle Reagenzien zu Beginn der Reaktion zugegeben werden, wurde unter Verwendung von Ethoxyacetylen als Aktivierungsreagenz entwickelt. Hierbei werden die Carbonsäuren in Gegenwart eines Amins intermediär in hochreaktive Ketenacetale überführt, die nach Aminolyse die entsprechenden Amide in sehr guten Ausbeuten liefern. Die Anwendungsbreite dieses milden Reaktionsprotokolls umfasst aliphatische und aromatische Carbonsäuren sowie N- und C terminal geschützten Aminosäuren.
In der vorliegenden Arbeit wurde ein glasfaserverstärkter Rotor für einen Elektromotor
entwickelt, welcher bei elektrisch angetriebenen Fahrzeugen verwendet werden
soll. Ziel ist eine kostengünstige Serienversion des Motors auf Basis eines bereits
bestehenden Baumusters. Im Wesentlichen waren dabei zwei Anforderungsfelder zu
erfüllen.
Als erstes mussten Verformungsrestriktionen unter Betriebslast eingehalten werden.
Es wurde ein Finite-Elemente-(FE-) Modell erstellt, wobei eine Schnittstelle zwischen
der Prozesssimulation der Fertigung und dem FE-Modell geschrieben wurde, um die
Informationen zum Lagenaufbau zu transferieren. Sowohl in der Analytik als auch in
der numerischen Simulation hat sich gezeigt, dass bei der im Betrieb auftretenden
Fliehkraft die gewünschte Verformung nur mit Hilfe der zu verwendenden Glasfaser
nicht eingehalten werden kann. Daraufhin wurde ein Konzept entwickelt, um die
Verformung mittels einer adaptiven Steuerung mit Formgedächtnislegierungen zu
begrenzen. Zunächst wurden Konzepte entwickelt, wie die Formgedächtnislegierung
in Drahtform an den Rotor angebunden werden kann. Die Konzepte wurden experimentell
überprüft, wobei gleichzeitig das Verhalten der Formgedächtnislegierung
ermittelt wurde, um daraus ein numerisches Simulationsmodell zu entwickeln,
welches mit dem Modell des Rotors verknüpft wurde. Dabei zeigte sich, dass dieses
Konzept das Verformungsverhalten positiv beeinflusst und in Abhängigkeit von der
verwendeten Menge die Verformungsrestriktion eingehalten werden kann.
Als zweites Anforderungsfeld wurde die Lasteinleitung zwischen dem Rotor und der
Abtriebswelle ausgelegt. Dafür wurde ein Konzept für eine Verschraubung als
Sonderform einer Bolzenverbindung erarbeitet, bei denen ein Gewinde in der
dickwandigen glasfaserverstärkten Kunststoff (GFK-) Struktur des Rotors mittels insitu-
Herstellung eingebracht wird. Um die Vor- und Nachteile eines solchen geformten
Gewindes gegenüber einer geschnittenen Variante zu ermitteln, wurden umfangreiche
quasistatische Versuche und zyklische Lebensdauerversuche an zwei verschiedenen
Laminaten und zwei verschiedenen Gewindetypen durchgeführt. Gemessen
wurde jeweils die (Ermüdungs-) Festigkeit bei axialer Kraft und bei Scherkraft.
Dabei zeigte sich, dass bei quasistatischer axialer Belastung die geformten
Gewinde im Mittel eine geringere Festigkeit aufweisen als die geschnittene Variante.Bei der für den Anwendungsfall relevanteren Scherbelastung konnten im Mittel
jedoch Festigkeitssteigerungen gemessen werden. Bei der Ermüdungsfestigkeit
waren die Vorteile abhängig von dem geprüften Lastniveau. Die Wöhlerlinien bei den
geformten Gewinden haben im Mittel einen deutlich flacheren Verlauf. Für die
meisten Vergleichspaare bedeutet dies, dass die geschnittene Variante bei sehr
hohen Lastniveaus beim Einstufenversuch eine größere Versagensschwingspielzahl
erreicht als die geformte Variante. Bei Verringerung der Last haben ab einem
individuellen Kreuzungspunkt jedoch die geformten Gewinde eine größere Schwingspielzahl
erreicht.
Abschließend wurde ein voll parametrisches numerisches Einheitszellen-Modell
erstellt, welches sowohl die geformten als auch die geschnittenen Gewinde abbilden
kann. Hierbei wurden auch Degradationsmodelle integriert, die ein verändertes
Werkstoffverhalten nach dem Auftreten insbesondere von Zwischenfaserbrüchen
und Delaminationen abbilden sollen. Validiert wurden die Modelle, indem die quasistatischen
Versuche nachgebildet wurden und die globale Verformung mit den
optischen Messungen aus den Versuchsreihen verglichen wurden. Dabei zeigte sich
eine gute Übereinstimmung bis relativ nah an die Schraube heran. In diesem Bereich
war die Simulation minimal zu steif, was auf eine noch nicht ausreichende Degradation
in der Simulation hindeutet.
In this study a GFRP rotor of an electric engine is developed. The engine shall be
used in electric drive trains in cars. Major aim of the study is to develop a low-cost
version of an existing prototype for serial production with a relatively high output of at
least 50.000 units per annum. Two main aims must be achieved.
First of all, the structural deformation must be limited under operating load. To predict
the deformation, a finite element model was set up. To import the lay-up information
from a filament winding process simulation software into the FE-model, a compilertool
was written. The numerical simulation and an analytical calculation have shown
that the GFRP-laminate alone is not able to limit the radial deformation caused by
centrifugal force under rotation. So a different approach was developed, using an
adaptive control with shape memory alloys. For this, a concept was investigated, how
the shape memory alloy wires can be attached on the GFRP structure. The strengths
of the different concepts were measured experimentally and simultaneously the
force-temperature behavior of the wire was investigated. Out of these empirical
studies, a material model of the shape memory alloys for the numerical simulation
was developed and combined with the existing simulation model of the rotor. The
simulation showed that the shape memory alloys can be used to decrease the radial
deformation below the given limits.
The second main requirement was to develop a proper load transfer from the metallic
output shaft into the GFRP rotor. For serial rotor production with a high output, the
direct forming of threads in the thick-walled GFRP was investigated. The direct
forming of threads reduces the manufacturing costs by avoiding wear of drilling and
cutting tools, although with a slight increase of tooling costs which are less relevant
due to the economies of scale of high output manufacturing processes as the
filament winding process. In this study the mechanical behavior of directly formed
threads was compared to conventionally tapped threads. Two different GFRP
laminate layups were investigated, a cross-ply-laminate and a quasi-isotropic
laminate, both with a thickness of approximately 12 mm, impregnated with epoxy
resin. A standard metrical thread and a more coarse thread were also compared,
both with an outer diameter of 8 mm. Two different tests were investigated: a pullout
test of the screw perpendicular to the laminate and a bearing-pull-through-test in the
laminate plane.
The quasi static test results show differences in fracture behavior, but in general very
good strength and stiffness behavior compared to conventionally cut threads in thickwalled
GFRP. The deformations of the surface of the GFRP laminates during the
tests were measured with a three dimensional digital image correlation system. The
measured deformations were used to validate the numerical simulations of the tests.
These simulations were parametrical built up in order to adapt them easily to other
application cases. They use a degradation mechanism to simulate the connection
behavior very close to the total fraction and show a very good correlation to the
experimental results.
As a second step, the fatigue behavior of the connection was also investigated. To
compare the cyclic performance of the formed and cut threads for both kinds of tests,
for both laminates and both threads - the metric and the coarse ones -, Woehler
diagrams with a load aspect ratio of R=0.1 were measured. Especially the high cycle
fatigue behavior with a relatively low maximum load, as commonly used in a real
structure, improves a lot when forming the threads.
At last a full parametrical numerical model of the laminate with both the formed and the cut thread was generated. Also algorithms for material degradation were integrated.
They can represent the behavior of the material after the appearance of inter
fiber failures or delamination. The validation of the numerical model was achieved by
remodeling the experimental tests and comparing the global deformation of the
model with the optical measurement of the quasi static tests. The deformation of the
simulation was very congruent to the tests, only very close to the screw the simulation
shows a slightly more stiff behavior. This indicates a not sufficient degradation of
the simulation due to damage effects in the material.
Die Möller-Plesset Störungstheorie ist die einfachste ab-initio Methode zur Berechnung der Korrelationsenergie. Durch die Verwendung von zweikomponentigen Spinoren wird sichergestellt, dass relativistische Effekte wie z.B. die Spin-Bahn-Wechselwirkung berücksichtigt werden, die besonders auf die Eigenschaften schwerer Elemente einen großen Einfluss besitzen. Die bisher vorhandenen MP2-Programme berücksichtigten entweder keine relativistischen Effekte oder bauten auf weiteren Näherungsmethoden auf. Ziel der Doktorarbeit war, dass in meiner Diplomarbeit entworfene tcmp2-Programm durch die Entwicklung einer geeigneten Parallelisierung so weiterzuentwickeln, dass auch größere Übergangsmetallkomplexe damit berechnet werden können.
Das fertige Programm wurde anschließend zur Untersuchung der Elektronenaffinität ausgewählter Superhalogeniden sowie der Nullfeldaufspaltung spezieller Rheniumkomplexe verwendet.
Während der Maillard-Reaktion entsteht eine Vielzahl an Verbindungen, die neben
antioxidativen oder antikanzerogenen Effekten auch adverse Eigenschaften aufweisen
können. Das Ziel dieser Arbeit war daher zum einen die Charakterisierung der zellulären
Effekte von Lebensmittelextrakten aus den traditionellen chinesischen Lebensmitteln
Peking Ente (PE) und Jinhua Schinken (JS). In den Extrakten JS und PE konnten u. a. die
Lebensmittelkontaminante Acrylamid (AA) identifiziert werden. Das B-Vitamin Niacin führte
in Lebensmittelsystemen bereits zu einer Reduktion des AA-Gehalts unter Entstehung eines
Acrylamid-Niacin-Addukts (ANA). Da die Reaktionspartner AA und Niacin natürlicherweise
während der Kaffeeröstung entstehen, wurde die Hypothese formuliert, dass auch ANA
während der Kaffeeröstung gebildet werden könnte. Dies konnte mittels LC/MS-Analyse
bestätigt werden. Somit liegt eine Aufnahme von ANA über Kaffee im Rahmen des
Möglichen und eine Niacin-Supplementierung könnte sich als effektive Möglichkeit
erweisen, um den AA-Gehalt bei der Zubereitung von Lebensmitteln zu senken. Bevor
jedoch diese Methode in Betracht gezogen werden kann, ist ein Nachweis der
gesundheitlichen Unbedenklichkeit von ANA insbesondere im Vergleich zu AA notwendig.
Aufgrund der strukturellen Ähnlichkeit zu N-Methylpyridinium (NMP), einem möglichen
Nrf2-Aktivator, wurde angenommen, dass ANA ebenfalls den Nrf2/ARE-Signalweg
aktivieren könnte. Der Schwerpunkt der Untersuchungen in HT29 Zellen wurde dabei auf
Zytotoxizität, pro- und antioxidative Eigenschaften, Gentoxizität und Beeinflussung des
Nrf2-Signalwegs gelegt. JS zeigte in den verwendeten Testsystemen kaum zelluläre
Wirkungen, mit Ausnahme der schwachen DNA-schädigenden Wirkung und des stärkeren
Effekts auf die UGT1A1-Transkription, die jedoch keine Schutzwirkung gegenüber eines
Menadion-induzierten oxidativen Stresses gezeigt hatte. PE induzierte (oxidative) DNASchäden
und ROS, in dessen Folge vermutlich die Erhöhung des redoxsensitiven Gens
UGT1A1 sowie die Hemmung der Zellproliferation zu erklären ist. Eine Beeinflussung des
Nrf2-Signalwegs sowie eine antioxidative Wirkung konnte nach Inkubation mit ANA nicht
beobachtet werden. Jedoch führte die Bindung von AA an das B-Vitamin Niacin zu einem
Addukt mit verminderten DNA-schädigenden und zytotoxischen Eigenschaften im Vergleich
zu AA.
Der gewerkschaftliche Bildungsträger ver.di Bildung + Beratung (im Folgenden: ver.di b+b) ist auf die Qualifizierung von gesetzlichen Interessenvertretungen spezialisiert und eng mit der Gewerkschaft ver.di verbunden. Die größte Zielgruppe sind Mitglieder von Betriebsratsgremien. Die Bildungsarbeit von ver.di b+b wird durch die rechtlichen Rahmenbedingungen, einen gewerkschaftspolitischen Anspruch und einen pädagogischen Auftrag beeinflusst: Betriebsratsmitglieder haben nach dem Betriebsverfassungsgesetz (BetrVG) einen Freistellungsanspruch für den Besuch von Schulungen. Damit sie teilnehmen können, müssen die Schulungen verschiedene rechtliche Vorgaben erfüllen. Gewerkschaftliche Bildung versteht sich als politische Bildung, was ebenfalls Einfluss auf die inhaltliche, pädagogische und organisatorische Gestaltung hat. Im Leitbild von ver.di b+b wird der pädagogische Anspruch des Bildungsträgers deutlich: Die Schulungen sollen handlungs- und teilnehmerorientiert sein und die Teilnehmenden persönlich, fachlich, sozial und politisch stärken. Diese drei Aspekte sind zu berücksichtigen, wenn es um die Frage nach den geeigneten Lernformen für Betriebsratsschulungen geht. Bis jetzt bietet ver.di b+b seine Seminare ausschließlich in Form von Präsenzveranstaltungen an. E-Learning-Angebote gibt es nicht. Das steht im Widerspruch zu der allgemeinen gesellschaftlichen Bedeutung des Internets.
Anhand einer empirischen Untersuchung gibt die Arbeit eine Einschätzung zu dem Bedarf von E-Learning-Angeboten im Bereich der gewerkschaftlichen Bildungsarbeit mit Betriebsräten aus Sicht der Teilnehmenden von ver.di b+b.
Der unmögliche Freistoß
(2016)
Die Autoren befassen sich mit der Ableitung und Bearbeitung eines Modellierungsprojektes aus der populären Sportart Fußball: Ein Freistoß wird unter Beachtung der gegebenen physikalischen Effekte mathematisch modelliert und simuliert. Der Fokus liegt auf der möglichen Durchführung dieses Modellierungsprojekts mit Schülerinnen und Schülern der Sekundarstufe II.
Wie entwickelte sich der europäische Stadtblock von der Antike bis in die Gegenwart und was bedeutet er heute für den urbanen Raum? Dies sind die zentralen Fragestellungen dieser Arbeit. Aufbauend auf den methodischen Werkzeugen der diachronischen und synchronischen Linien nach Carl E. Schorske, mit deren Hilfe parallele Entwicklungsströme zwischen Architektur und Gesellschaft aufgezeigt werden können, sowie dem Prinzip der Paradigmenwechsel nach Thomas S. Kuhn, welches den Übergang eines Gedankenmodells zum nächsten mittels revolutionären Vorgängen beschreibt, wird die Chronik des europäischen Stadtblocks auf die Korrelation zwischen Gebautem und Gedachtem analysiert. Der Fokus liegt hierbei auf der Entwicklung und den Eigenschaften des urbanen Stadtblocks innerhalb der europäischen Stadt. Dieser definiert sich über das Dreigespann »Straße – Haus – Hof« als zusammenhängendes, städtebauliches Konstrukt, welches von öffentlichem Raum umgeben ist und einen gemeinschaftlichen Raum einschließt.
Die Evolution des Stadtblocks entlang der gesellschaftlichen Entwicklungen führt unweigerlich in die Gegenwart. Auf diesem Weg lädt sich der Block mit epochenspezifischen Inhalten auf, welche er kontinuierlich weiterführt. So erfährt er aus der Antike den sozialen Grundgedanken der Gemeinschaft. Mit dem gesellschaftlichen Paradigmenwechsel der aufkommenden Bürgerlichkeit erhält der Stadtblock im Mittelalter eine wirtschaftliche Komponente auf Grundlage der Multifunktionalität. Aufklärung und Absolutismus überführen die Typologie schließlich in die Renaissance und den Barock, aus denen wiederum ein repräsentativer Charakter sowie ein grundlegendes städtebauliches Prinzip resultiert. Die politischen, sozialen wie technischen Revolutionen der Neuzeit geben dem Stadtblock einen programmatischen Charakter, da er nicht nur zum Programm erhoben, sondern gleichzeitig auch Grundtyp der gegenwärtigen Blockbebauungen wird. Die Weltkriege sowie die Abkehr vom traditionellen Stadtbild lassen die Planer von der Blocktypologie abkommen hin zu einem vom Kontext gelösten, aufgelockerten Städtebau der Moderne. Hieraus entsteht weniger ein städtebaulicher Mehrwert für den Block, durchaus aber ein funktionaler im Hinblick auf Bautechnik und Organisation. Die Auswirkungen der autogerechten und funktionalen Stadt bewirken den Paradigmenwechsel zur Nachmoderne, in welcher Multifunktionalität und Dichte erneut zum Leitbild des Baugeschehens erhoben werden.
Am Ende der Untersuchung erweist sich die These der Korrelation zwischen Gebautem und Gedachtem als belegt. Wenn sich Gesellschaft und Architektur nun von der Antike an parallel entwickelten, so ist es nur folgerichtig anzunehmen, dass der Stadtblock als kontinuierlich gewachsenes Konstrukt auch eine Analogie zur Gesellschaft der Gegenwart darstellen kann. Als regressiver Stadtbaustein, also als Typologie, die dank ihrer fortdauernden Weiterentwicklung die Bedingung vom Bedingten abzuleiten vermag, ist es dem Stadtblock möglich auf die immanenten Inhalte seines Werdeganges zurückzugreifen und diese gleich der Gesellschaft für die Gegenwart und Zukunft zu nutzen.
Congress Report 2016.11-12
(2016)
Congress Report 2016.09-10
(2016)
Congress Report 2016.05-08
(2016)
Congress Report 2016.01-04
(2016)
Congress Report 2015.11-12
(2016)
Beim Bauen im Bestand werden häufig neue Stahlbetonbauteile kraftschlüssig an bestehende Tragstrukturen angeschlossen. Dies wird bei Ortbetonbauteilen günstig mit dem Übergreifungsstoß realisiert.
Bis Ende der 1950-er Jahre wurden im Stahlbetonbau überwiegend glatte Betonstähle verwendet, bevor sie mit einer Übergangszeit bis Ende der 1970-er Jahre von den heute eingesetzten gerippten Betonstählen abgelöst wurden. Im Gegensatz zu den seit 1925 genormten Übergreifungsstößen mit Betonstählen gleicher Art und Güte sind kombinierte Übergreifungsstöße von Glatt- und Rippenstählen jedoch bis heute nicht geregelt.
Zur Beseitigung dieses Defizits wurden im Rahmen dieser Arbeit differenzierte Bewehrungsregeln hergeleitet, die wissenschaftlich abgesicherte und gleichzeitig wirtschaftliche Lösungen für kombinierte Übergreifungsstöße ermöglichen, denn unter Einbeziehung des Rückbaus bestehender Altbetonsubstanz verlangt eine ökonomische Bauweise für Übergreifungsstöße von freigelegten historischen Glattstählen mit aktuell verwendeten Rippenstählen nach Vollstößen mit kleinstmöglichen Übergreifungslängen. Dabei sind die Anforderungen nach heute gültigem Regelwerk an die Zuverlässigkeit gegen Versagen im Grenzzustand der Tragfähigkeit (GZT) und die Sicherstellung der vorgegebenen Nutzung durch Begrenzung der Rissbreiten im Grenzzustand der Gebrauchstauglichkeit (GZG) zu beachten.
Für verschiedene kombinierte Übergreifungsstöße von mit Endhaken versehenen glatten Betonstählen BStI und gerippten Betonstählen B500 mit geraden Stabenden oder Endhaken wurden die erforderlichen Übergreifungslängen anhand systematisch aufgebauter Versuchsreihen empirisch ermittelt. Dabei wurde ein grundlegendes Verständnis für die Tragwirkung kombinierter Übergreifungsstöße gewonnen und ein allgemeingültiges Lastübertragungsmodell erarbeitet.
Zur Bemessung kombinierter Übergreifungsstöße wurde weiter ein Ingenieurmodell abgeleitet, welches die Tragwirkung derartiger Stöße zuverlässig beschreibt und die experimentell ermittelten Übergreifungslängen bestätigt. Dabei wurde unter Berücksichtigung der für den Verbund maßgebenden Betonzugfestigkeit, der Stahlspannungen und den Stabdurchmessern auf Basis statistischer Methoden ein Bemessungsdiagramm für die erforderliche Übergreifungslänge bestimmter Stoßkombinationen erarbeitet und eine ergänzende FE-Modellierung durchgeführt.
Darauf aufbauend werden allgemeingültige Gleichungen zur Ermittlung der Bemessungswerte der Übergreifungslängen kombinierter Übergreifungsstöße mit Glattstahl BStI und Rippenstahl B500 angegeben und Konstruktionsregeln für in der Praxis regelmäßig vorkommende Kombinationen von Stabdurchmessern, Betongüten und Verbundbedingungen erarbeitet, die für Kombi-Stöße gleichwertig zu den Regeln des EC2 für den Neubaufall angewendet werden können.
Bedingt durch den Zusammenstoß zweier Objekte im Crashlastfall existieren im Bereich
des Güter- und Personentransports eine Vielzahl an Konzepten und Mechanismen
für einen kontrollierten Abbau der kinetischen Impactenergie unter äußerer
Druckbelastung. Im Gegensatz dazu ist der Wissensstand für eine Energieabsorption
unter äußerer Zugbelastung vergleichsweise gering. Für den Anwendungsfall in einer
modernen Flugzeugrumpfstruktur aus kohlenstofffaserverstärktem Kunststoff (CFK),
deren Crashkinematik eine Integration von zugbelasteten Energieabsorberelementen
ermöglicht, liefert diese Arbeit sowohl eine Entscheidungsgrundlage für eine Vorauswahl
durch einen methodischen Vergleich zugbelasteter Absorberkonzepte als
auch Methoden für eine Vorauslegung entsprechender Absorberelemente.
Im Rahmen dieser Arbeit wird eine Vielzahl möglicher, zugbelasteter Energieabsorberkonzepte
erarbeitet und detailliert untersucht. Die Bewertung der Absorberkonzepte
unter den Gesichtspunkten Leichtbaupotenzial (Gewicht, Integrationsmöglichkeiten),
Robustheit und Funktionsweise erfolgt anhand charakteristischer Absorberkennwerte,
wie gewichtsspezifische Energieabsorption, effektive Geometrie- und
Lastausnutzung, Lastschwankung sowie Einfluss von Temperatur und Lastrate auf das Energieabsorptionsvermögen. Dabei lassen sich die Absorberkonzepte in die
Kategorien Materialien und Strukturen unter globaler Zugbelastung unterteilen.
Auf Materialebene, welche die unterste Betrachtungsebene für eine Energieabsorption
unter Zugbelastung darstellt, wird das Energieabsorptionsvermögen typischer
Leichtbauwerkstoffe unter Zugbelastung bestimmt. Der zugrunde liegende Energieabsorptionsmechanismus
der plastischen Deformation von Materialien bietet aufgrund
der vergleichsweise einfachen konstruktiven Lösung ein hohes Leichtbaupotenzial.
Hauptnachteil ist jedoch die fehlende Einstellbarkeit sowie die direkte Abhängigkeit
der Absorbercharakteristik vom mechanischen Verhalten der betrachteten
Werkstoffklasse, was sich, bedingt durch die Bruchdehnung, bei gegebenem Bauraum
in der Beschränkung der maximalen Absorptionslänge widerspiegelt.
Die Strukturebene bildet eine weitere Betrachtungsebene für eine Energieabsorption
unter Zugbelastung. Hier werden Absorberelemente unter globaler Zugbelastung
sowie unter lokaler Druckbelastung, die über eine entsprechende Lastumleitung in
eine globale Zugbelastung überführt werden kann, untersucht. Letztere bieten jedoch
nur für den Fall einer Integration in vorhandene Strukturen ein ausreichend hohes Leichtbaupotenzial, um mit Materialien oder rein zugbelasteten Absorberelementen
zu konkurrieren. Im Vergleich zu einfachen Materialien unter Zugbelastung zeichnen
sich Absorberelemente auf Strukturebene durch eine generelle Einstellbarkeit der
Absorbercharakteristik sowie eine höhere Flexibilität in der Auslegung aus.
Den Schwerpunkt dieser Arbeit bildet die Untersuchung eines Energieabsorberkonzepts
basierend auf dem progressiven Lochleibungsversagen von Faser-Kunststoff-
Verbunden (FKV), das sich nicht nur durch eine hohe gewichtsspezifische Energieabsorption,
sondern auch durch eine annähernd ideale Absorbercharakteristik sowie
eine potenzielle Integration in eine Nietverbindung der betrachteten Flugzeugrumpfstruktur
aus CFK auszeichnet. Vor dem Hintergrund der Vorauslegung dieses Absorberelements
werden der Einfluss des Faser- und Matrixmaterials, der Faserorientierung
und -architektur, der Lastrate (200 mm/min bis 3 m/s) und Temperatur
(-20 °C bis 60 °C) sowie geometrischer Parameter wi e Plattendicke und Bolzendurchmesser
in einer experimentellen Studie analysiert. Für spröde FKV stellt sich
ein kontrolliert ablaufendes progressives Versagen als Kombination aus Transversalschub
und Laminatbiegung ein. Die Bildung eines Fragmentkeils vor dem Bolzen begünstigt
zudem den Anteil der Reibung an der Gesamtenergieabsorption.
Auf Basis der experimentellen Daten wird ein analytischer Ansatz zur Vorhersage der
sich einstellenden mittleren Deformationskraft entwickelt. Dieser vereinfachte, energetische
Ansatz ermöglicht unter Verwendung materieller (Biegefestigkeit, Reibungseigenschaften,
intra- und interlaminare Bruchenergie) sowie geometrischer
(Fragmentkeil) Parameter den linearen Zusammenhang zwischen mittlerer Deformationskraft
und Bolzendurchmesser bzw. den nichtlinearen Zusammenhang zwischen
mittlerer Deformationskraft und Plattendicke abzubilden.
Die generelle Eignung numerischer Berechnungsmethoden für eine Vorhersage des
progressiven Lochleibungsversagens wird für eine industrielle Anwendung mittels
geeigneter Modellierungsansätze in der kommerziellen, expliziten Berechnungssoftware
Abaqus/Explicit untersucht. Dies geschieht auf Basis von konventionellen intraund
interlaminaren Materialmodellen für gewebeverstärkte FKV. Mit den gezeigten
Modellansätzen lässt sich das generelle Deformationsverhalten des FKV abbilden.
Aufgrund der starken Vereinfachung der in der Schädigungszone vor dem Bolzen
ablaufenden Mechanismen sowie der unrealistisch frühen interlaminaren Schädigung
lassen sich die nichtlinearen Zusammenhänge zwischen mittlerer Deformationskraft
und Plattendicke jedoch nur bedingt abbilden.
Der Beitrag beschäftigt sich mit der Frage, ob Schildkröten alleine anhand der Musterung bzw. Struktur ihres Bauch- Rückenpanzers eindeutig identifiziert werden können. Dabei sollen sinnvolle Identifizierungsmerkmale entwickelt werden, die auf der Basis von Fotos ausgewertet werden. Das Besondere an diesem Problem ist, dass es mit Lernenden ganz unterschiedlicher Altersstufen bearbeitet werden kann und dass es eine unheimliche Vielfalt an mathematischen Methoden gibt, die auf dem Weg zu einer Lösung hilfreich sind: Dies reicht von einfachen geometrischen Überlegungen über Analysis (Integration, Kurvendiskussion) bis hin zu mathematischer Bildverarbeitung und Fragen der Robustheit. Genauso breit wie das Spektrum der einsetzbaren mathematischen Werkzeuge ist die Altergruppe, mit der ein derartiges Projekt durchführbar ist: Vom Grundschulalter bis hin zur Masterarbeit ist eine Bearbeitung möglich, und die benötigte Zeitspanne reicht von wenigen Stunden bis hin zu mehreren Monaten. Im Beitrag wird die angesprochene Vielfalt exemplarisch gezeigt, so dass die Leser im Idealfall das Projekt genau an die Bedürfnisse ihrer Lerngruppe anpassen können.
Der vorliegende Arbeits- und Forschungsbericht bietet eine Handreichung für Studiengangsentwickler_innen, um sie bei der Erstellung von Kompetenzprofilen zu unterstützen. Zu diesem Zweck werden drei verschiedene Tools der Kompetenzprofilerstellung vorgestellt. Diese umfassen die Stellenanzeigenanalyse, den Curriculumabgleich und Lehrendeninterviews. Diese Tools haben sich als sehr nützlich für die Entwicklung von kompetenzorientierten Studiengängen erwiesen. Die drei Verfahren werden einander gegenübergestellt und Implikationen für die Praxis abgeleitet. Dieser Bericht soll dazu beitragen, bedarfsorientierte Weiterbildungsangebote für die Region zu gestalten.
Alkylcyclopentadienylchrom(II)-Verbindungen und Stickstoffkomplexe des Molybdäns und Wolframs
(2016)
Der Einsatz von Chrom(II)acetat als Ausgangsverbindung führte in einer Reaktion mit Na\( ^4 \)Cp zum dimeren, Acetato-verbrückten Tetraisopropylcyclopentadienylchrom(II)-Halbsandwich-komplex [\( ^4Cp \)Cr(OAc)]\( _2 \) 13.
Die sehr gut zugängliche Verbindung 13 wurde auf ihre Reaktivität untersucht und als Startmaterial für die Herstellung weiterer Chromverbindungen eingesetzt. Der Tetraisopropylcyclopentadienylchrom(II)-Halbsandwichkomplex 13 ergab bei der Reduktion mit Kalium in einer Stickstoffatmosphäre den zweikernigen Nitrido-Komplex [\( ^4Cp \)Cr(N)]\( _2 \) und bei der Substitution mit Cyanid das quadratische Tetramer [\( ^4Cp \)Cr(CN)]\( _4 \).
Mit anderen Reaktionspartnern wie z. B. den Pseudohalogeniden Azid und Cyanid wurden dagegen unvollständige Umsetzungen beobachtet, die den Wunsch nach einer besser geeigneten Ausgangsverbindung weckten. Dies gelang durch den Einsatz von Trimethylhalogensilanen, welche die Acetato-Liganden von 13 gegen Chlorid, Bromid, Iodid und im Falle des Trimethylsilylesters der Trifluormethansulfonsäure auch gegen Trifluormethansulfonat austauschen.
Die Reduktion der Halbsandwichkomplexe des Typs [\( ^RCp \)MoCl\( _4 \)] mit Kalium in Gegenwart ungesättigter Ringsysteme (Toluol, Cycloheptatrien oder Cyclooctatetraen) knüpfte an die noch unveröffentlichten Ergebnisse mit Cyclopentadienylnickel- und eisenverbindungen an und erbrachte folgendes Resultat: Während die Formeln der Reaktionsprodukte [\( ^RCp \)Mo\( _2 \)(Ring)] zur Interpretation als Tripeldecker-Sandwichkomplexe mit einem Ringsystem als Mitteldeck zwischen den beiden Metallatomen einluden, gaben die Massenspektren Hinweise auf eine Reaktivität, die dazu nicht passt.
Die unter Argon hergestellte Verbindung musste am Spektrometer aus messtechnischen Gründen unter Stickstoff gehandhabt werden und die Spektren gaben Hinweise auf den Einbau von Stickstoff.
Advanced Nursing Practice
(2016)
Der demografische Wandel stellt insbesondere die Gesundheitsversorgung vor große Her-
ausforderungen. Immer mehr ältere, chronisch erkrankte und häufig multimorbide Menschen
stehen immer weniger jüngeren Menschen gegenüber, die sowohl als pflegende Angehörige
als auch als Pflegefachpersonen, Ärzt_innen oder Angehörige anderer Gesundheitsberufe
für die Sicherstellung der pflegerisch-medizinischen Versorgung zur Verfügung stehen. Das an der Hochschule Ludwigshafen am Rhein angesiedelte Teilprojekt „EB – Entwicklung
durch Bildung – Pflege und Gesundheit“ fokussiert sowohl auf die Entwicklung eines hoch-
schulischen Bildungsangebots für Pflegefachpersonen, als auch auf die Konzeption eines
Modells erweiterter gemeindenaher Pflegepraxis für die Region Westpfalz.
Die Forschung zum amerikanischen Exzeptionalismus als Teil der kollektiven
Identität der USA lässt eine systematische Einordnung der
exzeptionellen Selbstzuschreibungen der USA im Kontext militärischer
Interventionspolitik bisher weitgehend vermissen. Basierend auf den beiden
grundlegenden Dimensionen einer exemplarischen und einer missionarischen
Selbstzuschreibung werden in dieser Studie vier Idealtypen
des amerikanischen Exzeptionalismus gebildet, die als ideationales Analyseraster
der amerikanischen Interventionspolitik dienen können. Ausgehend
von der Doppelfunktion des amerikanischen Exzeptionalismus
als Movens außenpolitischer Präferenzen und als strategische Legitimationsgrundlage
wird in einem historisch angeleiteten Vergleich gezeigt,
dass Elemente dieser vier Idealtypen die außenpolitischen Traditionen
der USA maßgeblich (mit)geprägt haben. Zur weiteren Einordnung des
amerikanischen Exzeptionalismus in den außenpolitischen Präferenzbildungsprozess
der USA wird in einem zweiten Schritt die ideationale Variante
der liberalen Außenpolitiktheorie nach Andrew Moravcsik um den
Faktor der politischen Kommunikation ergänzt. Der amerikanische
Exzeptionalismus dient dem Präsidenten dabei als narrativer Diskursrahmen
außenpolitischer Interpretations- und Deutungsangebote, mit denen
er die Öffentlichkeit zu mobilisieren und den Kongress von seinen
außenpolitischen Absichten zu überzeugen versucht. In diesem Zusammenhang
gilt: Je kongruenter die außenpolitischen Deutungsangebote
mit dem Narrativ des amerikanischen Exzeptionalismus, desto wirkmächtiger
ihre Bedeutung für den gesellschaftlichen Diskurs der USA
über Außenpolitik. Entgegen den Annahmen der liberalen Außenpolitiktheorie
zeigt sich, dass der Präsident als Strategic Narrator des amerikanischen
Exzeptionalismus die Öffentlichkeit nicht nur repräsentieren,
sondern auch zu seinen Gunsten mobilisieren kann.