Filtern
Erscheinungsjahr
- 2013 (37) (entfernen)
Dokumenttyp
- Dissertation (29)
- Teil eines Periodikums (6)
- Buch (Monographie) (1)
- Arbeitspapier (1)
Sprache
- Deutsch (37) (entfernen)
Volltext vorhanden
- ja (37)
Schlagworte
- CAFM (2)
- Cobalt (2)
- Eisen (2)
- Facility Management (2)
- Gebäudeautomation (2)
- Integration (2)
- Katalyse (2)
- Kopplung (2)
- Schnittstelle (2)
- UPnP (2)
Fachbereich / Organisatorische Einheit
- Kaiserslautern - Fachbereich Chemie (8)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (6)
- Kaiserslautern - Fachbereich Sozialwissenschaften (6)
- Kaiserslautern - Fachbereich Biologie (3)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (3)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (2)
- Kaiserslautern - Fachbereich Informatik (1)
- Universität (1)
- Universitätsbibliothek (1)
Das Drilltragverhalten von Fertigteilplatten mit Ortbetonergänzung wird im Wesentlichen durch vertikale Elementfugen beeinflusst. Die DIN 1045-1 erlaubt die Berechnung der Schnittgrößen derartiger Platten unter Ansatz voller Drillsteifigkeit auch für den Fall, dass sich vertikale Elementfugen im Drillbereich \((0,3 *l_{min})\) der Platte befinden. Ein Aufklaffen der horizontalen Verbundfuge zwischen Fertigteilplatte und Ortbeton wird in diesem Fall beidseits der Fuge durch randparallele Gitterträger verhindert.
In der vorliegenden Arbeit wird das Tragverhalten von Fertigteilplatten mit Ortbetonergänzung physikalisch nichtlinear, unter Berücksichtigung wirklichkeitsnahen Werkstoffverhaltens, mit dreidimensionalen FEM-Ansätzen modelliert. Dazu wird zunächst ein Ansatz zur Berücksichtigung des Tension-Stiffening Effekts in dreidimensionalen FE-Berechnungen entwickelt. Damit gelingt die numerische 3D-Simulation des Tragverhaltens von Stahlbetonfertigteilplatten mit Ortbetonergänzung und insbesondere auch die Erfassung des Einflusses vertikaler Elementfugen auf die Schnittgrößen.
Eigene FE- Simulationen, in denen der Bewehrungsstahl als eindimensionales Stabelement diskretisiert worden ist, führten im Lasteinleitungsbereich der Bewehrung lokal zum vorzeitigen Versagen einiger Betonelemente. Abliegende Querschnittsbereiche konnten somit nicht zum Lastabtrag herangezogen werden. In einer aufwendigen dreidimensionalen Simulation in der auch die Bewehrung inklusive Rippen dreidimensional modelliert worden ist, konnte das experimentell ermittelte Tragverhalten unter Berücksichtigung des Tension-Softening Verhaltens im Beton nachgebildet werden.
Diese Art der Modellierung ist außerordentlich zeit- und rechenintensiv. Es wird daher zur näherungsweisen Beschreibung des Tension-Stiffening Effekts in dreidimensionalen FE- Modellen ein vereinfachter Ansatz entwickelt, der nach den genaueren Berechnungen und experimentellen Ergebnissen kalibriert wird und das Tragverhalten “verschmiert“ beschreibt. Dies erfolgt zunächst für das einachsige Tragverhalten eines Stahlbetonzugstabs und wird im Anschluss für das zweiachsige Tragverhalten von Stahlbetonplatten erweitert.
Mit dem entwickelten Modell sind zweiachsig gespannte Fertigteilplatten mit Ortbetonergänzung berechnet worden. Die Berechnungsergebnisse sind an drei Platten experimentell im Labor für Konstruktiven Ingenieurbau der TU Kaiserslautern abgesichert worden.
Die physikalisch nichtlinearen 3D-FEM Berechnungen haben gezeigt, dass die Tragfähigkeit einer zweiachsig gespannten Fertigteilplatte mit Ortbetonergänzung durch eine obere Eckbewehrung nur geringfügig gesteigert werden kann (ca. 6%). Dies bestätigt die Ergebnisse von Gersiek (1990) an quadratischen Stahlbetonplatten in Ortbetonbauweise.
Weiter konnte sowohl im Versuch als auch in nichtlinearen Berechnungen gezeigt werden, dass bei Anordnung vertikaler Elementfugen im Drillbereich \((0,3 *l_{min})\) gemäß DIN1045-1 die Tragwirkung der Platte sichergestellt ist. Der Rissverlauf unterscheidet sich nur geringfügig von einer Platte ohne Fugen in den Fertigteilplatten.
Im ersten Teil der Arbeit sollte die im AK Gooßen entwickelte palladiumkatalysierte Kupplung von aktivierten Carbonsäurederivaten mit Boronsäuren zu Arylketonen weiterentwickelt und auf heterozyklische Carbonsäuren übertragen werden. Es zeigte sich jedoch, dass die ausgereifte Methode der Ketonsynthese mit NHS-Aktivestern nur unwesentlich zu verbessern war. Die bereits bekannten Bedingungen konnten nicht weiter optimiert werden, aber es gelang erstmalig Nicotinsäure mit Phenylboronsäure in einer Ausbeute von 55% zu 3-Benzoylpyridin kuppeln. Für andere Substrate gelang es trotz vieler Versuche nicht, die mit der bereits pubilizierten NHS-Aktivestermethode erreichten Ausbeuten weiter zu verbessern.
Im zweiten Teil der Arbeit wurde eine effektive, einstufige Ketonsynthese, basierend auf dem Prinzip der decarboxylierenden Kreuzkupplung entwickelt. Dadurch konnte gezeigt werden, dass das Konzept der decarboxylierenden Kreuzkupplung nicht nur auf die Biarylsynthese beschränkt ist. Die Methode ist breit anwendbar auf eine große Zahl von Arylbromiden und 2-Oxocarbonsäuren. Sie verzichtet auf metallorganische Reagenzien und verwendet statt dessen 2-Oxocarboxylate als Quelle für Acylnucleophile. Diese sind teilweise großtechnisch als Zwischenprodukte in der Aminosäureherstellung verfügbar. Die gewünschten Arylketone wurden in guten Ausbeuten erhalten. Die Reaktion wurde erfolgreich im Großansatz, sowie unter Mikrowellenbedingungen durchgeführt.
Im dritten Teil der Arbeit wurde eine katalytische decarboxylierende Kreuzketonisierung entwickelt. Diese erlaubt eine abfallarme, salzfreie, regioselektive und nebenproduktarme Synthese von Arylalkylketonen aus gut verfügbaren, kostengünstigen Carbonsäuren. Als Koppelprodukte werden nur Wasser und CO2 gebildet. Die Carbonsäuren können aus nachwachsenden Rohstoffen gewonnen werden oder über Luftoxidation von Alkoholen oder Alkylarenen.
Einzig mit Eisenkatalysatoren wurden gute Selektivitäten für die Kreuzketoniserungsprodukte erzielt. Bei Verwendung von Dowtherm A als Lösungsmittel konnten hohe Ausbeuten mit verschiedenen Eisenvorstufen bei einer Temperatur von 250-270°C erreicht werden.
Die Durchführung einer Salzmetathese zur in situ Benzoaterzeugung und Verwendung von Triphenylsilan als Additiv ermöglichte erstmal eine Ketonsynthese mit katalytischer Menge von 20 mol% Eisen. Genauere Untersuchungen ließen vermuten, dass Magnetitnanopartikel, die sich in definiertem Größenbereich im Verlauf der Reaktion gebildet hatten, die eigentlichen Katalysatoren darstellen.
Wurden Magnetit-Nanopartikel direkt als Katalysator eingesetzt, lieferten diese höhere Ausbeuten bei einer vereinfachten Reaktionsdurchführung. Auf den Zusatz von Reduktionsmitteln kann bei Verwendung von Magnetit-Nanopartikeln als Katalysator ganz verzichtet werden. Nanopartikel mit einem Durchmesser von ca. 20 nm und einer engen Korngrößeverteilung bilden sich auch in situ beim Auflösen von Eisenpulver in den Carbonsäuresubstraten in Gegenwart von Dowtherm A unter kontrollierten Bedingungen. Durch die geringe Korngröße steht an der Oberfläche ausreichend Eisen(II) zur Verfügung, um die Kreuzketonisierung zu vermitteln. Die große Zahl an Nanopartikeln verhindert ein Disproportionieren des Eisen(II)oxids, das nach einem Katalysezyklus kurzfristig gebildet wird, da das Eisen in dieser Oxidationsstufe an der Oberfläche der Nanopartikel stabilisiert wird. So war es schließlich möglich, katalytische Kreuzketonisierungen durch Umsetzung von aliphatischen mit aromatischen Carbonsäuren mit Eisenspänen als Präkatalysatoren durchzuführen. Diese Reaktion wurde erfolgreich in Miniaturansätzen und im Multigramm-Maßstab durchgeführt.
Die Verbesserung der aerodynamischen Komponenten einer Gasturbine lässt nur noch wenig Spielraum zu einer Effizienzsteigerung offen. Eine Erhöhung der maximalen Temperatur des thermodynamischen Prozesses bietet weiteres Potential zur Leistungssteigerung. Diese Maßnahme führt zu Turbineneintrittstemperaturen, die eine thermische Belastung für die Turbinenkomponenten darstellt, welche auch durch moderne Werkstoffe nicht ertragen werden kann. Um einer thermische Ermüdung vorzubeugen kann eine Filmkühlung appliziert werden.
Eine Filmkühlung hat zunächst eine Reduktion des thermischen Wirkungsgrades zur Folge. Der benötigte Luftmassenstrom muss daher minimiert werden. Um mit minimalem Luftmassenstrom eine ausreichende Kühlung zu erreichen, ist vor der Auslegung der Filmkühlung die Kenntnis des lokalen Wärmeübergangs in der Turbine notwendig. Dieser wird von der Strömung in der Turbine bestimmt. Insbesondere die entstehenden Wirbelstrukturen verursachen starke Temperaturfluktuationen über den Bauteiloberflächen. Hier ist an erster Stelle das Wirbelsystem im Eckbereich von Schaufeln und Seitenwänden zu nennen. Der Wärmeübergang kann hier um bis zu 300% gegenüber der ungestörten Anströmung erhöht sein. Weiterhin tritt das Wirbelsystem mit der vorhandenen Filmkühlung in Interaktion, was eine Reduzierung der Kühlleistung zur Folge hat.
Die experimentelle Evaluierung der lokalen Kühlleistung, bemessen durch die Filmkühleffektivität, ist mit einem hohen Maß an Aufwand verbunden. Eine numerische Bestimmung der Filmkühleffektivität ist eine kostengünstige Alternative, bietet jedoch aufgrund der benötigten Modellierung der Turbulenz und der räumlichen und zeitlichen Diskretisierung zwei Fehlerquellen, deren Einfluss auf das Ergebnis einer Beurteilung bedarf.
Mit Turbulenzmodellen niedrigen Modellierungsgrades ist eine Abbildung des instationären Wirbelsystems im Eckbereich in guter Übereinstimmung mit dem Experiment möglich. Diese erfordern ein hohes Maß an Ressourcen. Im Zuge der Notwendigkeit einer Ressourcenersparnis besteht der Wunsch das Wirbelsystem mit Modellen hohen Modellierungsgrades zu bestimmen. In dieser Arbeit wird daher herausgestellt, welchen Anspruch das Wirbelsystem tatsächlich an seine Modellierung stellt. Zu diesem Zweck werden nicht nur verschiedene Turbulenzmodelle variierenden Modellierungsgrades gegenübergestellt, sondern auch der notwendige räumliche und zeitliche Diskretisierungsgrad diskutiert.
Die Strömungskonfiguration einer Filmkühlung im Eckbereich vor der Schaufelvorderkante kann als Superposition zweier Strömungskonfigurationen betrachtet werden. Diese sind das Ausblasen von Kühlluft aus einer diskreten Bohrung und die Entwicklung des Wirbelsystems im Eckbereich vor der Vorderkante aufgrund einer Grenzschichtströmung. Zunächst werden die Ansprüche der Einzelkonfigurationen an Turbulenzmodellierung und Diskretisierung geklärt. Anschließend wird die Superposition beider Fälle untersucht. Im Vergleich zeigt sich der Einfluss von Turbulenzmodellierung und Diskretisierung auf die Ergebnisse der Einzelkonfigurationen und weiterhin, ob diese Erkenntnisse auf die Bestimmung der Superposition angewendet werden können. Die Zielgröße der Berechnungen ist die lokale Filmkühleffektivität, beziehungsweise, im Fall der Untersuchung des Wirbelsystems ohne Filmkühlung, der lokale Wärmeübergang in die Seitenwand. Für die drei untersuchten Strömungskonfigurationen stehen experimentelle Daten zur Validierung zur Verfügung.
Während das Ausblasen aus einer diskreten Bohrung mit einem RANS Modell, dem k-\epsilon Modell, gut abgebildet werden kann, ist die Entwicklung des Wirbelsystems im Eckbereich vor der Schaufelvorderkante und der damit einhergehende Wärmeübergang durch ein hybrides Modell, das DES Modell, gut repräsentiert. In Verbindung mit dem k-\epsilon Modell zeigt sich für die Untersuchung des Ausblasens eine grobe Diskretisierung bei stationärer Berechnung als förderlich für die Abbildung der experimentellen Filmkühleffektivität. Dies liegt in der vorhandenen numerischen Diffusion begründet.
Die Wiedergabe vorhandener Wirbelstrukturen ist essentiell zur Prognose der Filmkühleffektivitätsverteilung und des Wärmeübergangs im Eckbereich vor der Vorderkante. Dies bedarf der Verwendung eines geeigneten Modells in Verbindung mit einer ausreichenden Diskretisierung. Daher zeigt sich hier das DES Modell als geeignet.
Die Entwicklung der Filmkühleffektivität im Fall des Ausblasens von Kühlluft in ein bestehendes Wirbelsystem ist von den entstehenden Wirbelstrukturen bestimmt. Die Ergebnisse des DES Modells in Verbindung mit dem Netz größter Knotendichte weisen daher hier die beste Übereinstimmung mit dem Experiment auf.
Das Zwei-Komponenten System CiaRH beeinflusst mit der β-Lactamresistenz, Kompetenz, Autolyse, Bakteriocinproduktion und Virulenz eine Vielzahl an Phänotypen in Streptococcus pneumoniae und ist daher von großer physiologischer Bedeutung. Es setzt sich aus der membrangebundenen Sensorkinase CiaH und dem cytoplasmatisch lokalisierten Response Regulator CiaR zusammen. Das CiaRH System ist unter sehr vielen Wachstumsbedingungen aktiv. CiaH ist allerdings für die Aktivierung von CiaR unter bestimmten Bedingungen verzichtbar. CiaR ist jedoch in seiner phosphorylierten Form aktiv, was die Frage nach einer alternativen Phosphatquelle für CiaR aufwirft. Der sog. Crosstalk durch eine fremde Sensorkinase oder niedermolekulare Phosphodonoren wie Acetylphosphat stellen mögliche Wege zur alternativen Phosphorylierung von CiaR dar.
Um zwischen diesen Möglichkeiten zu unterscheiden, wurden Gene des Acetylphosphat-Stoffwechsels inaktiviert, was zu einer Änderung der Produktion von Acetylphosphat führen sollte. Anschließende Messungen der zellulären Acetylphosphatmenge und der CiaR-abhängigen Promotoraktivitäten in Abwesenheit der Sensorkinase CiaH zeigten klar, dass mit sinkendem Acetylphosphat auch die CiaR-vermittelte Genexpression reduziert wurde. Diese Korrelation legt den Schluss nahe, dass Acetylphosphat tatsächlich den wesentlichen alternativen Phosphodonor für CiaR darstellt. Allerdings wurden auch Hinweise für geringfügigen Crosstalk durch eine andere Sensorkinase erhalten. Im Zuge dieser Experimente ergab sich weiterhin, dass ein Enzym des Acetylphosphat-Stoffwechsels, die Acetatkinase, eine besondere Rolle bei der alternativen Phosphorylierung von CiaR spielt. Eine Reihe von Befunden legt den Schluss nahe, dass Acetatkinase und CiaR möglicherweise interagieren. Eine solche regulatorische Rolle der Acetatkinase ist bisher nicht beschrieben.
Weiterhin konnte gezeigt werden, dass die CiaR-Aktivität durch die Bifunktionalität von CiaH auf nahezu konstantem Niveau gehalten wird. Dabei kann wahrscheinlich Acetat, ein exkretiertes Endprodukt des Acetylphosphat-Stoffwechsels, zur Stimulierung der Phosphataseaktivität von CiaH dienen. Dies könnte von physiologischer Bedeutung sein, um eine von Acetylphosphat ausgehende Phosphorylierung von CiaR durch Acetat im Medium durch Dephosphorylierung zu begrenzen. Somit könnten Acetylphosphat und Acetat Gegenspieler zur Regulation der CiaR-Aktivität darstellen.
Ein einem zweiten Teil dieser Arbeit wurde auf die Auswirkungen von Mutationen in CiaH auf die CiaR-Aktivität eingegangen. Das CiaRH-System wurde als erste Nicht-PBP-Resistenzdeteminante in β-lactamresistenten Labormutanten von S. pneumoniae R6 entdeckt, wobei eine Mutation im Sensorkinasegen ciaH (ciaH306, T230P) eine Erhöhung der CiaR-abhängigen Genexpression vermittelte. Weitere ciaH-Mutationen wurden in anderen spontanresistenten Labormutanten beschrieben. Die Laborallele vermitteln eine Steigerung der CiaR-abhängigen Promotoraktivität zwischen vier- und 26-fach. Phänotypische Folgen sind die Verringerung der β-Lactamsuszeptibilität, der Verlust der Kompetenz und verändertes Wachstum von S. pneumoniae R6.
Im Zuge dieser Arbeit wurden zum ersten Mal veränderte ciaH-Allele in klinischen Pneumokokken-Isolaten identifiziert und charakterisiert. Es zeigte sich eine Verbreitung in Isolaten der Serotypen 6, 7, 9, 19 und 23. Im Gegensatz zu den Laborallelen vermitteln die klinischen Allele eine bis zu dreifache Erhöhung der CiaR-abhängigen Promotoraktivität. Lediglich das Allel ciaHTpVT beeinflusst die Phänotypen β-Lactamresistenz und Kompetenz. Weiterhin erfolgte die Charakterisierung der Kinase- und Phosphataseaktivitäten der klinischen ciaH-Allele. Hierbei zeigten sich Abweichungen der Stärken beider Funktionen, wobei für ciaH306 ein Phosphatasedefekt festgestellt wurde.
Experimentelle Untersuchung des Rissausbreitungsverhaltens von nanopartikelverstärktem Polyamid 66
(2013)
Die Nanotechnologie wird als eine der Schlüsseltechnologien des 21sten Jahrhunderts angesehen. Sie ermöglicht es Werkstoffeigenschaften gezielt zu verändern oder dem Werkstoff gänzlich neue Eigenschaften zu verleihen. So kann beispielsweise die Bruchzähigkeit von Polymeren durch Zumischung von wenigen Volumenanteilen Nanopartikel erheblich gesteigert werden. Dadurch wird auch das Energieabsorptionsvermögen dieser Werkstoffe verbessert.
Im Rahmen dieser Arbeit wurden TiO2- und SiO2-Nanokomposite auf Basis von Polyamid 66 in einem Zweischneckenextruder durch Direktmischen mit Füllgehalten von ½, 1, 2 und 4 Vol.-% hergestellt. Mit Zugversuchen (Prüfgeschwindigkeiten von 1 mm – 1000 mm/s) und Bruchuntersuchungen bei quasistatischer sowie kurzzeit-dynamischer Belastung wurden die mechanischen Eigenschaften charakterisiert. Mit vergleichenden Untersuchungen an einfach und zweifach extrudiertem ungefüllten Polyamid 66 (Referenzmaterial) konnte die Degradation des Polyamids durch den Extrusionsprozess ermittelt werden. Die TiO2- und SiO2-Nanokomposite wiesen deutliche Unterschiede in der Zähigkeit zueinander auf. Deshalb wurde ein Vergleich der plastischen Verformung bei Zugbeanspruchung der niedrig gefüllten Nanokomposite mittels einer Lichttransmissionsanalyse durchgeführt.
In den TiO2-Nanokompositen sind die Nanopartikel größtenteils in Form von Primärpartikeln homogen im Polyamid 66 verteilt. Die restlichen Nanopartikel fanden sich als Agglomerate unterschiedlicher Größen in der Matrix wieder. SiO2 Nanokomposite wiesen eine sehr geringe Anzahl an Agglomeraten auf. Stattdessen fanden sich die Nanopartikel vorwiegend homogen als Kleinstagglomerate verteilt vor. Übergreifend zeigten die untersuchten Nanokomposite bei niedrigen Füllgraden gegenüber dem Referenzmaterial die größten mechanischen Eigenschafts-steigerungen, welche mit steigendem Füllgehalt wieder abnahmen.
TiO2 Nanokomposite sind steifer und spröder als das Referenzmaterial. In den Zugversuchen bei geringen Prüfgeschwindigkeiten zeigten sie geringere Zugfestigkeiten und Duktilität. Mit steigender Belastungsrate wiesen alle untersuchten Materialien eine Versprödung auf, sodass bei den TiO2 Nanokompositen eine höhere Zugfestigkeit als die des Referenzmaterials bei hohen Prüfgeschwindigkeiten beobachtet wurde. Die Bruchzähigkeit der TiO2–Komposite war in den Bruchuntersuchungen sowohl bei quasistatischer als auch bei kurzzeitdynamischer Belastungsrate größer als bei dem Referenzmaterial.
Trotz gleicher Matrix zeigten die SiO2 Nanokomposite im Vergleich zu den TiO2-Nanokompositen ein anderes mechanisches Verhalten. Gegenüber dem Referenzmaterial wiesen sie in den Zugversuchen eine deutlich höhere Duktilität über alle untersuchten Prüfgeschwindigkeiten auf. Sie besaßen eine geringere Zugfestigkeit bei geringen Prüfgeschwindigkeiten. Bedingt durch die dehnratenabhängige Versprödung war die Zugfestigkeit bei der höchsten untersuchten Dehnrate größer als die der Referenz. Die SiO2 Nanokomposite hatten auch eine höhere Bruchzähigkeit bei quasistatischer und kurzzeitdynamischer Belastung, wobei sie einen geringeren Rissinitiierungswiderstand bei quasistatischer Prüfgeschwindigkeit aufwiesen.
Bezogen auf das Referenzmaterial zeigten die Nanokomposite ein Potential das Absorptionsvermögen von FKV zu steigern. Das Polyamid 66 im Referenzmaterial und in den Nanokompositen besaß eine vergleichbare Verarbeitungshistorie, welche sich auf die Materialeigenschaften ausgewirkt hat.
Sphärische keramische Nanopartikel können die Eigenschaften von Thermoplasten
signifikant positiv verändern. Eine gute Dispersität von Nanopartikeln in einer polymeren
Matrix ermöglicht z.B. eine außergewöhnliche Steigerung der Zähigkeit. Allerdings
neigen die Nanoadditive wegen ihrer großen spezifischen Oberfläche zur Agglomeration,
was der Verbesserung der Eigenschaften entgegenwirkt. Dies stellt eine der
größten Herausforderungen der Nanokompositforschung dar. Da industriell hergestellte
Nanokomposite von steigendem Interesse für vielerlei Anwendungen sind, ist es
ingenieurwissenschaftlich relevant, Prozess-Struktur-Eigenschaftsbeziehungen von Nanokompositen
mit kommerziell erhältlichen Nanopartikeln genauer zu verstehen. Dies
erlaubt eine gezielte Steuerung bzw. Einstellung der Materialeigenschaften.
In den bisherigen wissenschaftlichen Arbeiten zu thermoplastischen Nanokompositen
mit sphärischen keramischen Nanofüllstoffen ist die Dispersität der Nanokomposite
nicht hinreichend gut quantifiziert worden, was zur Folge hat, dass verschiedene Herstellungsmethoden
nicht miteinander verglichen werden können. Diese Arbeit zielt darauf
ab, thermoplastische Polyamid 6-Nanoverbundwerkstoffe mit guter Dispersität mittels
Extrusion herzustellen und zu untersuchen. Dabei werden drei Herstellungsmethoden
und die dabei erreichten Dispersionsqualitäten und Eigenschaftsprofile betrachtet. Dafür
werden Verbundwerkstoffe aus einer PA6-Matrix und keramischen Nanofüllstoffen (TiO2,
SiO2, BaSO4) - als Pulver oder als Nanopartikeldispersion - generiert. Die erzeugten
Komposite werden mit TEM-, REM- und μ-CT-Analysen morphologisch analysiert. Die
Materialeigenschaften werden durch DSC-, DMTA-, GPC-, Viskositätsuntersuchungen
erfasst. Weiterhin werden Kerbschlagbiege- und Zugversuche durchgeführt.
In einem ersten Schritt wird eine häufig angewendete Herstellungsmethode untersucht,
bei der Nanopartikelpulver zum Extrusionsprozess zugegeben werden. Es ist
nicht möglich alle Agglomerate durch die Bearbeitung im Extruder aufzubrechen. Die
Agglomeratfestigkeit für die verwendeten Partikel wird aus den Verläufen der Dispersität
bei mehrfacher Extrusion erfolgreich bestimmt. Die Untersuchung der Vorgänge
bei der Deagglomeration anhand eines Modells zeigt, dass das Verhältnis zwischen
Agglomeratbruch und Erosion von einzelnen Partikeln von der Oberfläche des Agglomerates
für die Materialeigenschaften von maßgeblicher Bedeutung ist. Trotz sehr guter
Dispersionsqualität der TiO2-Komposite und einer guten Partikel-Matrix-Anbindung lassen
sich nur die Festigkeit und Steifigkeit steigern, während die Kerbschlagzähigkeit nicht erhöht ist. Die TiO2-Nanopartikel weisen eine relativ geringe Agglomeratfestigkeit
(0,1 MPa) auf, und die Erosion spielt neben Bruch eine wichtige Rolle im Deagglomerationsmechanismus,
weshalb für diese Partikel die Zugabe als Pulver zu empfehlen
ist. Restagglomerate führen jedoch zu Spannungskonzentrationen im Material, was
eine Zähigkeitssteigerung verhindert. SiO2-Nanopartikel dagegen können bei den in
dieser Arbeit gewonnenen Erkenntnissen nicht als Füllstoffe empfohlen werden. Ihre
Agglomerate weisen eine so hohe Festigkeit auf, dass diese überwiegend zerbrechen.
BaSO4 sollte als Pulver nicht verwendet werden, denn es kann mittels Extrusion kaum
dispergiert werden.
In der zweiten Bearbeitungsphase werden die Materialeigenschaften bei der Zugabe
der Nanopartikel als wässrige Dispersion untersucht. Dabei wird die Partikeldispersion
drucklos zugegeben; das Dispersionsmedium kann an der Zugabestelle direkt verdampfen.
Zusammengefasst ist festzustellen, dass Agglomeration an der Zugabestelle zu
verschlechterten mechanischen Eigenschaften führt.
Im dritten Schritt werden wässrige Nanopartikeldispersionen unter Druck in den Extruder
gepumpt, um zu erreichen, dass sich eine Mischung aus flüssiger Dispersion und Polymerschmelze
bildet. Dabei tritt zum einen Diffusion der Partikel in die Polymerschmelze
auf, zum anderen kommt es zu Tropfenverkleinerung durch die Scherspannung im
Extruder. Bei der theoretischen Untersuchung der Zerkleinerung der Dispersionstropfen
wird festgestellt, dass das Verhältnis der Viskositäten der zu mischenden Medien, deren
Oberflächenspannungen und die Scherspannung im Extruder den Vorgang bestimmen.
Die so ermittelte Größe der kleinsten Agglomerate liegt nicht im Nanometerbereich.
Infolge der geringen Mischdauer nach der Verdunstung des Dispergiermediums sind die
Agglomerate schlecht an die Matrix angebunden. Weiterhin bilden sich sehr kompakte
Agglomerate. Aufgrund dessen steigert sich der E-Modul des Nanokomposits kaum
bei einer gleichzeitig reduzierten Zähigkeit. Als Dispersion zugegeben diffundieren die
SiO2-Partikel kaum und es bilden sich relativ große Agglomerate. Da insbesondere bei
TiO2 und BaSO4 außergewöhnlich kleine Agglomerate (<100 nm) bzw. sogar Primärpartikel
gefunden werden, ist davon auszugehen, dass für diese beiden Nanoadditive
auch Diffusion von Bedeutung ist. Nanokomposite mit diesen Füllstoffen sollten über
die Methode der Zugabe von wässrigen Dispersionen unter Druck hergestellt werden.
Diese Arbeit bildet mit systematischen Untersuchungen von industriell relevanten Prozessen
zur Herstellung von Nanokompositen, den Mechanismen, die dabei ablaufen,
und den erzielbaren Materialmorphologien und Materialeigenschaften die Grundlage
für maßgeschneiderte Nanokomposite.
Durch das Vernähen trockener Faservorformlinge vor der Harzinjektion werden vielfältige
Möglichkeiten eröffnet, um Faser-Kunststoff-Verbund-Strukturen gewichtsoptimiert
und gleichzeitig kostengünstig herzustellen. Durch die im Vergleich zur
Prepreg-Technik innovativere Prozesskette sind auch komplexe Geometrien, wie sie
beispielsweise in Lasteinleitungsbereichen vorliegen, automatisiert fertigbar. Die Einbringung
von strukturellen Vernähungen in Laminatdickenrichtung kann insbesondere
in Strukturbereichen mit dreidimensionalen Spannungszuständen die Delaminationsgefahr
durch eine Steigerung der interlaminaren Eigenschaften abmindern
und die Schadenstoleranz steigern. Allerdings erfordert eine vermehrte Anwendung
der Nähtechnik in der industriellen Praxis auch die Bereitstellung dreidimensionaler
mechanischer Werkstoffkennwerte, die im Konstruktions- und Auslegungsprozess
benötigt werden.
Im Rahmen dieser Arbeit wurden kohlenstofffaserverstärkte Multiaxialgelege-Laminate,
die im Flugzeugbau angewandt werden, strukturell vernäht und die durch den
Nähprozess entstehenden Reinharzgebiete sowie die Veränderung des relativen Faservolumengehaltes
erfasst. Bei der Bestimmung von intralaminaren Zug- und
Druckkennwerten wurden die Auswirkungen der Vernähung auch auf die Kerbdruckeigenschaften
untersucht. Zur Bestimmung von Elastizitäts- und Festigkeitskenngrößen
bei einer Zugbelastung senkrecht zur Laminatebene wurde ein Versuchskonzept
erarbeitet und die Potentiale der eingebrachten strukturellen Vernähung
ermittelt. Darüber hinaus wurden die Auswirkungen der strukturellen Vernähung auf
die interlaminaren Schubfestigkeiten charakterisiert. Auch der Einfluss des Nähprozesses
auf die mechanischen Eigenschaften der verwendeten E-Glas-Garne
wurde experimentell erfasst.
Die Versuchsergebnisse zeigten Reduktionen der intralaminaren Kennwerte um bis
zu 12 %, bei den Kerbdruckversuchen wurden teilweise Steigerungen des Kerbfaktors
festgestellt, die bis zu 9 % betrugen. Der Zug-Elastizitätsmodul senkrecht zur
Laminatebene wurde generell gesteigert, im Maximum um 8 %. Für die Zugfestigkeit
wurden leichte Steigerungen um 4 %, aber auch Abnahmen um bis zu 12 % beobachtet.
Bei der interlaminaren Schubfestigkeit waren durchgehend Steigerungen
festzustellen, die maximal 11 % betrugen. Der Elastizitätsmodul und die Festigkeit
des Nähgarns wurden infolge des Nähprozess um bis 22 % bzw. 42 % verringert.
Der praxisgerechte Einsatz der strukturellen Nähtechnik erfordert neben fundierten
Werkstoffkennwerten auch Simulationswerkzeuge, die die Auswirkungen der 3DVerstärkung
abschätzen können. Somit könnte durch eine Vorauswahl geeigneter
Nähmuster der Aufwand für eine kosten- und zeitintensive Materialcharakterisierung
reduziert werden. Hierzu wurde auf ein parametrisch gesteuertes Finite-Elemente-
Einheitszellenmodell zur Vorhersage von intralaminaren Elastizitäts- und –Festigkeitskenngrößen
zurückgegriffen und dieses um die Vorhersage von Elastizitäts- und
Zugfestigkeitskenngrößen senkrecht zur Laminatebene erweitert. Im Rahmen der
Modellvalidierung und -kalibrierung wurden intensive Untersuchungen hinsichtlich
geeigneter Randbedingungen und mikromechanischer Ansätze zur Beschreibung der
unidirektionalen Einzelschicht des Laminats durchgeführt. Die mit dem weiterentwickelten
Einheitszellenmodell abgeschätzten mechanischen Kennwerte zeigten gute
Übereinstimmungen mit experimentellen Ergebnissen.
Die vorliegende Arbeit befasst sich mit der Frage nach der zukünftigen Gestalt schrumpfender Städte in untrennbarer Verbindung mit möglichen Entwicklungsrichtungen und daraus ableitbarer städtebaulicher Leitbilder mit dem Ziel, bisherige fachliche Erkenntnisse zusammenzuführen, den Überblick über die anstehenden Gestaltungsaufgaben aufzuzeigen sowie diese Aspekte in die vorhandene wissenschaftliche Methodik einer Stadtgestaltplanung zu überfuhren.
Im Ergebnis zeigt die vorliegende Arbeit die Einordnung der gestalterischen Aspekte und Problemfelder im Stadtumbau in eine entsprechende Stadtgestaltplanung unter Schrumpfungsbedingungen, die sich hinsichtlich ihrer Inhalte kaum von bisherigen Stadtbildplanungen von Michael Trieb oder Seog-Jeong Lee unterscheidet, schließlich steht sowohl für die Stadtentwicklung unter Wachstumsvorzeichen als auch unter Schrumpfungsbedingungen die Bewahrung der stadträumlichen Qualität der Europäischen Stadt im Vordergrund, die in der jeweiligen Stadtentwicklung stets Gefahr laufen, abgerissen oder überformt zu werden.
Schwerpunktmäßig kommt der Teilbereichsplanung eine primäre Bedeutung zu, um für Stadtteile mit
unterschiedlichen Entwicklungsperspektiven stadträumliche Qualitäten zu erhalten oder auszubilden.
Andererseits geht es allgemein in einer Gestaltungsaufgabe von Stadt um die Erhaltung, Erzeugung oder Weiterentwicklung eines identitätsstiftenden Stadtbildes. Die damit verbundenen Zielvorstellungen zukünftiger Stadtentwicklung zeigen eine verwirrende Vielfalt an Begriffen, die eine Stadtstruktur zwischen kompakter Europäischer Stadt und aufgelockerter, perforierter Zwischenstadt beschreiben. In der Stadtumbaupraxis wird die Umsetzung dieser Ziele, entsprechend der vorgefundenen stadtstrukturellen Ausgangslage bzw. besonderen örtlichen Rahmenbedingungen, meist in einer dualen und stadtgestalterisch nicht ins Letzte konsequenten Strategie der möglichst weitgehenden Erhaltung der historischen Stadtstrukturen bei gleichzeitiger Anerkennung der polyzentralen Entwicklung der vergangenen Jahrzehnte verfolgt. Die Konsequenz der parallelen Anwendung bisher gegensätzlicher Zielvorstellungen ist die Fortführung unscharfer Stadtbilder, die in Verbindung mit dem Bild der Stadt im Kopf meist nur in den historisch geprägten Innenstädten in eindeutige und ästhetisch ansprechende Erscheinungen konkretisiert werden können. So lasst sich die Gestalt der Stadt unter Schrumpfungsbedingungen charakterisieren als eine „perforierte bis fragmentierte Stadt mit historische Mitte und zukünftigen Konzentrationsinseln“ bzw. in Rückgriff auf bereits vorhandene Begriffe: „Zwischenstadt mit historischer Mitte“ bzw. „Zwischenstadt mit
Konzentrationsinseln“. Inwieweit das entstehende Stadtbild mit positiven Gestaltwahrnehmungen verknüpft sein wird, hängt davon ab, in welcher Intensität Schrumpfung bzw. Stadtumbau in den jeweiligen Stadtteilen zum Tragen kommen wird. Eine baulich geschlossene und kompakte Europäische Stadt kann, sofern sie das erhaltenswerte Gut bzw. städtebauliche Leitbild der zukünftigen Stadt darstellt, nur bewahrt werden, wenn Lücken und Rückbau beschrankt oder gar unterbunden werden. Das bedeutet angesichts negativer Entwicklungsperspektiven gleichzeitig verstärkter Ruckbau in den Bereichen der heutigen Zwischenstadt und die Akzeptanz entsprechend fragmentierten Stadtstrukturen, die zukünftig vor allem landschaftlich geprägt sein werden. Andersherum muss eine polyzentrale Entwicklung mit gleichzeitig fortschreitender
Außenentwicklung zu stadträumlichen Verlusten in den kompakten innerstädtischen Bereichen führen. Auch die Strategie des „sanften Stadtumbaus“, der den Rückbau auf historische und neuzeitliche Stadtstrukturen gemeinsam zu verteilen sucht, kann diesbezüglich zu keinen befriedigenden Losungen gelangen und verfestigt das Bild der Zwischenstadt auch in den bisher baulich-räumlich geschlossenen innerstädtischen Bereichen. Die Forderung einer Stadtstruktur, deren endgültige Bewertung noch immer aussteht und für deren schwer fassbares heterogenes Stadtbild aktuell Möglichkeiten zur positiven Wahrnehmung und Qualifizierung gesucht werden, kann jedoch eigentlich nicht das Ziel einer städtebaulichen Gestaltungsplanung im Rahmen der Stadtplanung sein. Die stadtgestalterische Herausforderung liegt neben einer eindeutigen Positionierung bezüglich eines städtebaulichen Leitbildes für die Stadtentwicklung in den
Rand- bzw. Grenzbereichen, den Schnittpunkten zwischen geschlossener historischer Struktur und
landschaftlich geprägter Zwischenstadt. Angesichts der Eingriffe in die Stadtstruktur und der drohenden Verfestigung bzw. räumlichen Vergrößerung der Zwischenstadt soll die hier vorliegende Auseinandersetzung mit der Gestalt der Stadt als ein Plädoyer für eine Stadtentwicklung unter Schrumpfungsbedingungen als verstärkt stadtgestalterische städtebauliche Aufgabe verstanden werden.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der "Plug and Play"-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein "FMControl" demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins "FMControl" können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
Traubenerzeugende Betriebe fordern eine faire Bezahlung, bei der arbeitsintensive qualitätsfördernde Maßnahmen honoriert werden und nicht ausschließlich hohe Erträge den betriebswirtschaftlichen Erfolg garantieren. Traubenabnehmer andererseits fordern nicht nur die Einhaltung vertraglich festgelegter Erträge und Qualitäten, sondern benötigen auch eine möglichst genaue analytische Charakterisierung des Leseguts, auf deren Basis eine differenzierte Auszahlung begründet und objektiv vorgenommen werden kann. Gängige und vor Ort rasch bestimmbare Parameter, wie etwa der Zuckergehalt, sind als alleinige Qualitätsparameter jedoch nicht in der Lage, die gesamte Komplexität der Traubenqualität ausreichend wiederzugeben. Auch die häufig zum Einsatz kommende visuelle Einschätzung greift zu kurz, da Qualitäts- mindernde Veränderungen, wie etwa ein Wachstum von Botrytis cinerea bzw. Sekundärinfektanten, oftmals erst bei Ausbildung der Fruchtstände erkennbar werden. Die Infrarotspektroskopie wässriger Proben ist, unter anderem aufgrund der raschen Durchführung der entsprechenden Analysen, eine Technik, die geeignet scheint, für diese Problemstellung einen entsprechenden Lösungsansatz zu bieten.
Vorliegende Arbeit beschreibt die umfangreiche Erstellung und Validierung einer FT-MIR Kalibrierung auf Basis mehrerer Jahrgänge deutscher Trauben- und Mostproben. Dabei werden insbesondere jene Parameter, welche unmittelbare Aussagen über den Reife- und Gesundheitszustand des Untersuchungsmaterials erlauben, identifiziert, charakterisiert und validiert. Dargestellt wird die Kalibration von Minor- und Majorbestandteilen sowie nachfolgend die Validierung mit den jeweiligen Folgejahrgängen. Ein Abgleich der in verschiedenen Genossenschaften ermittelten analytischen Kenndaten mit rein visuell ermittelten Qualitätseinschätzungen zeigt die Plausibilität und Validität der FT-MIR Analysendaten, wie auch die Limitationen der optischen Qualitätseinschätzung, klar auf. Ebenso werden auch die regional sehr unterschiedlichen Anforderungen bzw. Charakteristika deutlich. Um mögliche Geräte- spezifische Unterschiede zwischen den vor-Ort Messungen der einzelnen Anwender der Technik evaluieren zu können, werden als Abschluss und finaler „Proof-of-Concept“ der vorliegenden Arbeit Kenndaten von entsprechenden Ringversuchen mehrerer Jahrgänge dargestellt und bewertet. Ergänzend werden die ermittelten Kenndaten mit Kenndaten der wissenschaftlich publizierten Literatur abgeglichen, um die Leistungsfähigkeit für relevante Analysenparameter der wichtigsten Traubeninhaltsstoffe, aber auch für Minorbestandteile, aufzuzeigen.
Das übergeordnete Ziel der Arbeit stellt eine nachhaltige Qualitätsverbesserung der resultierenden Weine durch Honorierung guter Qualitäten des Ausgangs- Leseguts dar. Um letztlich die Umsetzbarkeit dieses Zieles zu belegen werden Berechnungsmodelle zur Gestaltung möglicher alternativer Auszahlungsmodelle auf Basis realer Datensätze Süddeutscher Genossenschaften vorgestellt und evaluiert.
Congress Report 2013.10-12
(2013)
Diversitätsgenerierende Retroelemente (DGRs) stellen einen neuen Typus Retroelement dar, die gezielt einen Teil einer codierenden Sequenz des Wirtsgenoms über einen Copy and Replace-Mechanismus hypermutieren und somit zur Erzeugung biologischer Diversität beitragen können. Trotz dieser einzigartigen Eigenschaften und dem potentiellen Wert dieser Elemente für Industrie und Forschung konzentrierten sich seit der Beschreibung des ersten DGRs vor über zehn Jahren die meisten Publikationen auf mechanistische Eigenschaften des Prototypen aus dem Bordetella Bakteriophagen. Allerdings sind zahlreiche Fragen zur Funktionsweise dieser Elemente noch immer ungeklärt. Ebenso wurden bisher extensivere, vergleichende Studien, die weitere Vertreter dieser Elemente berücksichtigen, noch nicht durchgeführt.
Die vorliegende Dissertation leistet einen wichtigen Beitrag zum tieferen Verständnis diversitätsgenerierender Retroelemente. Das eigens für diesen Zweck konzipierte Programm DiGReF erlaubte eine umfassende Analyse der Bestände öffentlicher Datenbanken auf DGRs in sequenzierten Genomen. Mit Hilfe dieser Daten konnten weitere Aspekte dieser Elemente aufgeklärt werden, die eine Analyse ihrer Verteilung, ihrer phylogenetischen Beziehungen, ihrer Struktur und eine Charakterisierung der einzelnen Elemente einer DGR-Kassette umfassten. So konnte gezeigt werden, dass das zuvor für wenige Elemente beschriebene Merkmal der Adeninsubstitution eine gemeinsame Eigenschaft aller DGRs ist, während keine C-, T- oder G-Substitionen auftreten. Ebenso fanden sich erste Belege dafür, dass die beiden essentiellen Elemente Template Repeat und reverse Transkriptase nicht notwendigerweise ein gemeinsames Transkript besitzen. Außerdem konnte erstmalig die Gruppe der weitgehend uncharakterisierten akzessorischen Proteine umfassender beschrieben und ein Consensusmotiv ermittelt werden. Für künftige Studien werden die DiGReF-Software und die Ergebnisse dieser Arbeit von grundlegender Bedeutung sein.
Der zweite Teil dieser Arbeit fokussierte sich auf die experimentelle Charakterisierung zweier Kernkomponenten von DGRs, der reversen Transkriptase und den akzessorischen Proteinen. Während die Aufreinigung einer DGR-assoziierten reversen Transkriptase noch weitere experimentelle Arbeiten erfordern wird, konnte das akzessorische Protein Alr3496 aus der Blaualge Nostoc sp. PCC 7120 erfolgreich in rekombinanter Form aufgereinigt werden. Es konnte weiterhin gezeigt werden, dass Alr3496 diverse Nucleinsäuresubstrate bindet, und in der Lage ist, die Hybridisierung von komplementären DNA-Strängen zu katalysieren. Dies legt nahe, dass akzessorische Proteine aus DGR-Elementen eine Rolle als Nucleinsäurechaperone übernehmen.
Der Bericht beinhaltet die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Online-Fachdatenbanken und CD-ROM-Netz", "Elektronische Hochschulschriften, Lernmaterialien und Fotos", "E-Journals und E-Books", "Literatur- und Sachmittel", "Literaturerwerbung/Bestand", "Bestandserschließung", "Benutzung/Information", "Schulungen", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2012.
Die Arbeit befasst sich mit parallelen Algorithmen zur Lösung des Capacitated-Vehicle-Routing-Problems unter Verwendung von Grafikkarten. Hierbei werden durch die Analyse von lokalen Suchoperatoren und ihrer Ausführungen Gestaltungsempfehlungen gegeben, wie eine möglichst performante Implementierung auf der Grafikkarte aussehen kann. Weiterhin wird analysiert wie die einfache Nutzung lokaler Suchoperatoren im Kontext von Metaheuristiken mit State-of-the-Art-Algorithmen zur Lösung des Capacitated-Vehicle-Routing-Problems konkurrieren kann. Dabei wird auch eine unterschiedlich starke Nutzung von der Grafikkarte und deren Auswirkung auf die Lösungsgüte berücksichtigt. Außerdem wird untersucht, inwiefern sich der Einsatz von Grafikkarten im Vergleich zur reinen CPU-Nutzung auf die Wirtschaftlichkeit auswirkt.
Congress Report 2013.07-09
(2013)
Gegenstand der vorliegenden Arbeit ist die Entwicklung neuartiger Anionenrezeptoren auf Basis von Cyclopeptiden und Bis(cyclopeptiden). Besonderer Augenmerk sollte hierbei auch auf der Verbesserung der synthetischen Zugänglichkeit dieser Rezeptoren liegen.
Gemeinsamer Baustein der verwendeten Cyclopeptide sind Dipeptide aus Boc-L-Hydroxy-prolin und geschützten Aminopicolinsäureuntereinheiten. Konventionell wird deren Synthese durch Einsatz von Kupplungsreagenzien realisiert. Aufgrund der Elektronenarmut der Amino-picolinsäureeinheit muss hierbei PyCloP als Kupplungsreagenz eingesetzt werden, welches vergleichsweise teuer ist. Außerdem kann es bei dieser Reaktionsführung zur Epimerisierung der chiralen Aminosäure kommen, so dass bei dieser Reaktion Optimierungsbedarf besteht. Durch Anwendung der Goldberg-Amidierung konnte ich die Effizienz der Dipeptidsynthese durch Einsatz günstiger Reagenzien sowie kommerziell erhältlicher Edukte steigern. Außerdem besteht bei dieser Reaktion keine Gefahr der Racemisierung.
In meiner Arbeit beschäftigte ich mich darüber hinaus mit der Synthese einer molekularen Kapsel auf Basis thiol-haltiger Cyclopeptide. Dieses dreifach verbrückte Bis(cyclopeptid) wird dabei mit Hilfe der dynamischen kombinatorischen Chemie unter Verwendung des Disulfidaustausches als reversibler Reaktion synthetisiert. Mir ist es gelungen, durch systematische Optimierung der Reaktionsbedingungen die Produktbildung positiv zu beeinflussen und die Aufarbeitung zu vereinfachen. Allerdings kam es bei der Isolierung des Bis(cyclopeptids) zu einer Oxidation der Disulfidbrücken, so dass das Produkt nicht analysenrein erhalten werden konnte.
Während meiner Arbeiten ist es mir ebenfalls gelungen, einen Zugang zu funktionalisierten Cyclopeptiden zu entwickeln. Dabei zeigte sich, dass die Einführung von Substituenten in den Prolineinheiten nach Aufbau des Cyclopeptids erfolgen muss. Das so erhaltene Cyclopeptid mit drei β-Alanin-Seitenketten trägt Ammoniumgruppen in der Peripherie. Mit Hilfe von pH-abhängigen potentiometrischen Titrationen konnten drei Protonierungskonstanten ermittelt werden. Diese zeigen, dass bei pH 7 immer noch 95 % der Moleküle vollständig protoniert sind. Dieses Cyclopeptid zeigte bezüglich der Anionenbindung einzigartige Eigenschaften So bindet es in gepufferten wässrigen Medien Sulfatanionen mit hoher Affinität, was mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie nach-gewiesen werden konnte. Die Sulfatbindung konnte darüber hinaus nicht nur in Essigsäure-/Acetat-Puffer sondern auch in reinem Phosphat-Puffer bei verschiedenen pH-Werten nachgewiesen werden. Damit wurde mit diesem Cyclopeptid ein effizienter Sulfatrezeptor entwickelt, der selektiv Sulfatanionen in Wasser zu binden vermag. Es zeigte sich, dass die Kombination der Anionenbindungsstelle des Cyclopeptids mit peripheren funktionellen Gruppen, die sich spezifisch an der Gastbindung beteiligen, eine geeignete Strategie darstellt, die Löslichkeits- und Bindungseigenschaften solcher Cyclopeptide gezielt zu verbessern.
Organophosph(on)ate sind die Ester der Phosphor- und Phosphonsäure und sind z.B. als Bausteine der DNA und Zellmembranen aufzufinden. Für einige künstlich hergestellte Organophosph(on)ate sind jedoch sehr hohe Toxizitäten beschrieben. Diese in der Klasse der neurotoxischen Organophosph(on)ate (NOP) zusammengefassten Verbindungen beinhalten Insektizide und chemische Kampfstoffe. Obwohl NOPs inzwischen in den meisten Ländern verboten sind, kommt es jedes Jahr zu zahlreichen Todesfällen. Die Toxizität, die auf die irreversible Inhibierung der Acetylcholinesterase (AChE) zurückzuführen ist, wird in der aktuellen Therapie durch die Gabe von Reaktivatoren aufgehoben. Mit dieser Therapie sind jedoch einige Nachteile verbunden.
Meine Dissertation hatte das Ziel, neue, auf Cyclodextrinen basierte Scavenger zu entwickeln, die in der Lage sind, ein NOP zu entgiften, bevor es mit der AChE reagieren kann. In diesem Rahmen wurde ein breit angelegtes Screening durchgeführt und 69 potentielle Scavenger synthetisiert und bezüglich ihrer Wirkung auf den NOP-Abbau untersucht. Während die untersuchten N- und O-Nucleophile keine Aktivität auf den Abbau von drei repräsentativen NOPs, Cyclosarin (GF), Tabun (GA) und VX, zeigten, wurden für α-Effekt-Nucleophile z.T. hohe Aktivitäten beobachtet.
β-Cyclodextrin, das mit Pyridiniumoximatgruppen modifiziert ist, war besonders effizient gegenüber GF. In weitergehenden quantitativen Untersuchungen konnte zudem festgestellt werden, dass der Abbau von GF in Gegenwart dieser Verbindung enantioselektiv verläuft. Dies ist ein klarer Hinweis darauf, dass das Cyclodextrin, vermutlich durch Einlagerung des Cyclohexylrests von GF für die Wirkungsweise des Scavengers von Bedeutung ist. Solche Pyridiniumoximate beschleunigten auch den Abbau von GA. Eine chirale Induktion des Cyclodextrinrings konnte in diesem Fall aber nicht festgestellt werden, was sehr wahrscheinlich auf die fehlende Wechselwirkung des GA mit dem Cyclodextrinring zurückzuführen ist.
Cyclodextrine, die Hydroxamsäuregruppen entlang der Kavität enthalten, sind ebenfalls in der Lage, GA abzubauen. Bei diesen Untersuchungen zeigte sich, dass die Aktivität des Scavengers mit der Anzahl an reaktiven Einheiten entlang der Cyclodextrinkavität steigt. Mit Hydroxamsäure modifizierte Cyclodextrine zeigten erstmals auch Aktivität im Abbau von VX. Mit Halbwertszeiten von fast drei Stunden ist der Abbau noch zu langsam für einen in vivo Einsatz, jedoch stellen diese Verbindungen sehr vielversprechende Leitstrukturen für weitere Arbeiten in diesem Gebiet dar.
In einer dreijährigen Längsschnittstudie wurde der Einfluss eines immersiven englischen Sprachangebots in der Kindertagesstätte auf die Entwicklung der englischen und deutschen Sprache bei 2- bis 6-jährigen Kindern untersucht. Darüber hinaus wurde geprüft, ob der bei bilingualen Personen nachgewiesene Vorteil in den exekutiven Kontrollfunktionen gegenüber monolingualen Personen auch bei Sprachimmersion repliziert werden kann und ob sich ein Vorteil in der phonologischen Bewusstheit durch Sprachimmersion ergibt. Dem Prinzip „Eine Person - eine Sprache“ folgend kommunizierte eine Erzieherin in der Immersionsgruppe ausschließlich in englischer Sprache mit den Kindern, während die anderen Erzieherinnen weiterhin deutsch sprachen. In der hinsichtlich Alter, Geschlecht und SES parallelisierten Kontrollgruppe fand einmal wöchentlich ein kindgerechter Englischunterricht statt. Einmal jährlich wurden verschiedene Tests zur Erfassung des sprachlichen Entwicklungsstands (Deutsch und Englisch; Sprachrezeption und Sprachproduktion), der exekutiven Kontrollfunktionen (inhibitorische Kontrolle: Day-Night-Task, Dimensional Change Card Sort Task, Fish-Flanker-Task) sowie ein Test zur Erfassung der phonologischen Bewusstheit durchgeführt. Die Kinder aus der Immersionsgruppe erreichten eine bessere englische rezeptive Sprachkompetenz als die Kinder der Kontrollgruppe. Es waren keine negativen Auswirkungen der englischen Sprachimmersion auf den Erwerb der deutschen Muttersprache nachweisbar. Die vergleichbaren Leistungen der Kinder in der Immersions- und Kontrollgruppe in den drei Aufgaben zur Erfassung der inhibitorischen Kontrolle und dem Test zur Erfassung der phonologischen Bewusstheit weisen darauf hin, dass keine positiven Effekte durch Sprachimmersion auf die Entwicklung der phonologischen Bewusstheit und der inhibitorischen Kontrolle erzielt werden konnten. Mögliche Ursachen für das Ausbleiben eines Vorteils durch Sprachimmersion im Bereich der exekutiven Kontrollfunktionen und der phonologischen Bewusstheit werden diskutiert.
Der Abbau des essentiellen Penicillin-Bindeproteins 2x in S. pneumoniae durch die Serinprotease HtrA
(2013)
Im Fokus dieser Arbeit stand der Abbau des essentiellen Zellteilungsproteins PBP2x aus S. pneumoniae durch die Serinprotease HtrA. Die PBP2x-Molekülmenge des Wildtypsatmms R6 wurde mit Hilfe einer quantitativen Methode ermittelt und ergab einen Wert von ca. 20.000 Molekülen. Für den Laborstamm C405, der unter anderem die zwei AS-Austausche L403F und T526S innerhalb der Transpep-tidase-Domäne von PBP2x beinhaltet, konnte eine 6,3fach geringere Menge im Vergleich zum Wildtypstamm R6 nachgewiesen werden. Der Laborstamm C606, der vier AS-Austausche in der Transpep-tidase-Domäne von PBP2x aufweist, besitzt sogar eine noch geringere PBP2x-Menge und ist gene-tisch instabil. Die geringe Menge des essentiellen PBP2x in den beiden Stämmen C405 und C606 konnte jeweils auf die proteolytische Aktivität der Serinprotease HtrA zurückgeführt werden. Die alleinige Auswirkung der PBP2x-Mutationen aus C405 und C606 auf die PBP2x-Menge wurden im definierten genetischen Hintergrund des Wildtypstamms R6 untersucht. Dabei konnte bewiesen werden, dass auch hier schon geringere Mengen an PBP2x vorliegen, die Mutationen also direkt Einfluß auf die Struktur von PBP2x haben und somit durch HtrA abgebaut werden. Diese Mutanten besitzen einen temperatursensitiven Resistenzphänotyp, wobei das Wachstum bei 30 °C zu verlängerten Zellen führte.
Innerhalb umfassender Komplementationsstudien wurde die htrA-Expression in unterschiedlichen Stämmen stufenweise erhöht, wobei korrelierend mit den steigenden HtrA-Mengen in den Zellen jeweils stufenweise verringerte PBP2x-Menge erwartet wurden. Die Ergebnisse zeigen eindeutig, dass die Serinprotease HtrA je nach genetischem Hintergrund nur bis zu einem bestimmten Level bzw. überhaupt nicht überexprimiert werden kann. Sobald dieser Level überschritten wird, wehrt sich die Zelle mit gravierenden Mutationen, die sowohl die proteolytische Aktivität, als auch die vollständige Proteinsynthese der Serinprotease HtrA inhibieren.
Im Wildtypstamm R6 wurde die Serinprotease HtrA anhand von Temperaturshiftexperimenten als nicht temperatursensitiv nachgewiesen. Dagegen benötigen Stämme mit verändertem PBP2x bei Hitzestress die Serinprotease HtrA, die durch den Abbau von falsch gefalteten Proteinen ein besseres Wachstum ermöglicht.
Die Auswirkung der verringerten PBP2x-Menge auf die Lokalisation des veränderten und niederaffinen PBP2x aus C405 wurde mittels Fluoreszenzmikroskopie in verschiedenen genetischen Hinter-gründen untersucht. Das GFP-PBP2xC405-Fusionsprotein wurde hierbei durch die Serinprotease HtrA, je nach genetischem Hintergrund, unterschiedlich stark abgebaut, was wiederum in einem höheren Anteil an zytoplasmatisch leuchtenden Zellen resultiert. Sobald die Serinprotease HtrA in diesen Stämmen fehlte, wurde das Fusionsprotein nicht mehr abgebaut und eine korrekte septale bzw. äquato-riale Lokalisation wurde sichtbar. Demnach befindet sich die geringe PBP2x-Menge immer in der Region, in der sie am dringensten benötigt wird - dem Zellseptum.
Das GFP-PBP2x-OT-Fusionsprotein, dem die Transpeptidasedomäne fehlt, wird ebenfalls durch die Serinprotease HtrA abgebaut. Sobald htrA jedoch deletiert wurde, zeigte sich eine septale bzw. äquato-riale Lokalisation des Fusionsproteins. Somit konnte zum ersten Mal eindeutig bewiesen werden, dass ausschließlich die PASTA-Domänen des PBP2x für die Lokalisation dieses essentiellen Enzyms am Zellseptum verantwortlich sind.
Die Größen der detektierten Abbauprodukte der GFP-Fusionsproteine gaben zudem Aufschluss über die ungfähre Position zweier Schnittstellen der Serinprotease HtrA, nämlich kurz nach der Transmembrandomäne von PBP2x und am Ende der N-terminalen Domäne.
Die Rolle des essentiellen PBP2x aus R6 und C405 bei der Zellteilung wurde anhand von Depletionsexperimenten eingehend untersucht. Dabei zeigte sich, dass sich die kontinuierliche Dezimierung des GFP-PBP2x bzw. GFP-PBP2xC405 in allen drei konditionalen Stämmen negativ auf das Wachstum und die Zellmorphologie auswirkte. Die Stämme waren in der Lage mehrere Generationen in Abwesenheit des Induktors zu wachsen, da sich innerhalb der Zelle noch ausreichend synthetisiertes Fusionsprotein aus der Vorkultur befand, bevor sich ein Wachstumsstopp einstellte.
Die Aufreinigung eines proteolytisch aktiven HtrA-Proteins und einer Form mit (S234A) im aktiven Zentrum von HtrA aus S. pneumoniae gelang im Rahmen dieser Arbeit. Die proteolytische Aktivität des HtrA-Proteins konnte anhand von ß-Casein Assays bestätigt werden. Der Abbau des Proteins PBP2xC405 und sogar der PBP2xwt konnten erstmals unter in vitro-Bedingungen als Substrate von HtrA nachgewiesen werden.
Die Daten dieser Arbeit bestärkt die Hypothese, dass ungefaltene PBP2x-Proteine durch die Sec-Translokase exportiert und anschließend in die Membran integriert werden. Dabei führt die Serinprotease HtrA die Proteinqualitätskontrolle durch und baut falsch gefaltete Proteine, oder Proteine, die sich nicht im Komplex befinden, ab.
Kaskaden aus Aerober Oxidation und Radikalischer Funktionalisierung zum Aufbau Cyclischer Ether
(2013)
Die aerobe Cobalt-katalysierte Oxidation von Alkenolen ist eine zweistufige Reaktionssequenz,
die zum stereoselektiven Aufbau funktionalisierter Tetrahydrofurane genutzt
werden kann. Im ersten, katalytisch verlaufenden Teil der Reaktion werden 4-Pentenole
mit Hilfe von Luftsauerstoff und β-Diketonat-abgeleiteten Cobalt(II)-Komplexen mit hoher
Diastereoselektivität in nucleophile Tetrahydrofurylmethyl-Radikale überführt. Diese
können im zweiten Teil der Reaktion mit einer Reihe von Reagenzien abgefangen werden:
Durch radikalische Addition an Akzeptor-substituierte Olefine und anschließenden H-Atom-Transfer können Seitenketten-funktionalisierte Tetrahydrofurane in Ausbeuten bis 67% erhalten werden, wobei die durch direkte H-Atom-Übertragung gebildeten reduktiv terminierten Tetrahydrofurane als Nebenprodukte gebildet werden. Anhand der Produktverhältnisse konnten relative Geschwindigkeitsfaktoren bestimmt werden, die den Radikal-Charakter der Zwischenstufe bestätigen. Im Gegensatz zu klassischen Radikalreaktionen verläuft auch die Addition an Alkine mit ausreichend hoher Geschwindigkeit um Tetrahydrofurane mit ungesättigter Seitenkette in synthetisch sinnvollen Ausbeuten darzustellen. Diese Eigenschaft konnte zum Aufbau eines diastereomerenreinen Bistetrahydrofurans in einer Kaskade von zwei Cyclisierungen genutzt werden.
Durch radikalische Substitution an Disulfiden können in Cobalt-katalysierten Oxidationen Alkylsufanyl-funktionalisierte Tetrahydrofurane aufgebaut werden, ohne dass die so gebildeten Thioether selbst zu Sulfoxiden und Sulfonen oxidiert werden. Die Einführung der Methylsulfanyl-Gruppe konkurriert dabei mit der direkten H-Atom-
Übertragung und eröffnete so die Möglichkeit aus einer Reihe konkurrenzkinetischer
Experimente die Geschwindigkeitskonstante für die Übertragung der Methylsulfanyl-
Gruppe zu ermitteln. Die Methode ermöglichte die Vereinfachung und Verbesserung der Synthese eines Wirkstoff-Derivats sowie die Darstellung eines 2,6- trans-konfigurierten Tetrahydropyrans.
Darauf aufbauend wurde eine generelle Methode zum Aufbau von Tetrahydropyranen ausgehend von Hexenolen entwickelt, die die hohe Diastereoselektivität, die bei der Cyclisierung von Pentenolen beaobachtet wird, beibehält. Es wurde ein stereochemisches Modell für die Cyclisierung abgeleitet, das die beobachteten Selektivitäten erklärt und Voraussagen zu noch nicht getesteten Substraten ermöglicht. Mit der Synthese von nichtcyclischen Ethern ausgehend von Alkoholen und Alkenen konnte gezeigt werden, dass der Mechanismus der aeroben Cobalt-katalysierten Oxidation über die Synthese von Tetrahydrofuranen und Tetrahydropyranen hinaus anwendbar ist und für die Erforschung weiterer Transformationen unter veränderten Reaktionsbedingungen bereit steht.
Die vorliegende Arbeit beschreibt die Entwicklung eines Konzeptes und einer Online-Plattform für die Integration von onlinegestütztem Peer Feedback in Präsenzlehrangeboten an der Technischen Universität Kaiserslautern.
Feedback ist ein wichtiges Instrument im Lernprozess, insbesondere im aktiven Lernen, das für eine moderne Didaktik kennzeichnend ist. Außerdem ist Feedbackgeben eine zentrale Aufgabe des professionellen Handelns als Lehrer, so dass sich Peer Feedback Prozesse auf natürliche Art kompetenzentwickelnd in die Lehrerbildung einbetten lassen.
Auf Grundlage der existierenden Literatur wurde ein onlinegestützter Peer Feedback Prozess entworfen, implementiert, in verschiedenen Veranstaltungen umgesetzt und zugleich qualitativ beforscht. Die Forschung orientierte sich dabei an der Methodik der Design Based Research, die eine iterative Entwicklungsforschung in komplexen Strukturen ermöglicht und dabei Raum für den Umgang mit emergenten Phänomenen lässt, zugleich aber eine Generalisierung aus den konkreten Artefakten anstrebt.
Es stellt sich heraus, dass Peer Feedback mit der Online-Plattform PeerGynt eine wertvolle Ergänzung für Präsenzseminare ist: Durch einen dedizierten zeitlichen und organisatorischen Raum wird Feedback aufgewertet und hilfreicher für die Teilnehmenden.
Auf dem Weg zu einer nachhaltigen Entwicklung spielen die Unternehmen eine wichtige Rolle durch ihren großen und zum Teil internationalen Einfluss. Dabei ist es jedoch für jedes Unternehmen eine Herausforderung, sich von dem rein ökonomischen Denken und Handeln zu lösen und zusätzlich die Vorteile in der Unterstützung und Nachverfolgung der beiden anderen Säulen der Nachhaltigkeit, nämlich dem ökologischen und sozialen Aspekt, zu sehen. Denn Investitionen z.B. in Mitarbeiter, als ein sozialer Bereich, oder in umwelttechnische Innovationen bieten ebenso Chancen für den Wettbewerb und ermöglichen eine langfristige Sicherung des Unternehmenserfolgs.Ziel dieser Arbeit ist es herauszufinden, inwieweit die von den Mitarbeitern wahrge-nommene Nachhaltigkeit ihres Standortes von dem veröffentlichten Nachhaltigkeitsbericht des gesamten Unternehmens abweicht und wie der aktuelle Status der Berichterstattung unter Berücksichtigung aller drei Aspekte der Nachhaltigkeit ist.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der „Plug and Play“-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein „FMControl“ demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins „FMControl“ können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
Die Auslegung trockenverdichtender Schraubenvakuumpumpen erfordert die genaue Kenntnis der schädlichen Rückströmung über die inneren Maschinenspalte. Eine herausragende Bedeutung kommt aufgrund der großen Querschnittsfläche dem Gehäusespalt zu. Zusätzlich stellt dieser eine relativ große Oberfläche für den Wärmeaustausch mit dem durchströmenden Gas zur Verfügung, was für das thermische Verhalten der Maschine wichtig ist.
In der vorliegenden Arbeit wird anhand eines vereinfachten Ersatzspaltes ein Modell entwickelt, das die Berechnung des Spaltmassenstroms und der resultierenden Wärmeströme an Rotor- und Gehäuseseite ermöglicht.
Durch die Analyse der in Schraubenvakuumpumpen typischerweise auftretenden Größenverhältnisse und Drücken wird gezeigt, dass die Strömungsform im Spalt von viskoser, schwach turbulenter bis hin zur molekularen Strömung reichen kann. Da der Gehäusespalt von zwei Maschinenteilen gebildet wird, weisen beide Spaltberandungen i.A. deutlich verschiedene Temperaturen auf, was für die Modellierung des Wärmeübergangs berücksichtigt werden muss.
Um das Modell allgemeingültig zu gestalten, wird die Analyse auf der Basis von dimensionslosen Werten für die Wandreibung und die Wärmeströme durchgeführt. Zur Bestimmung werden im Bereich der viskosen Strömung CFD- Methoden eingesetzt, die eine detaillierte Auswertung der Reibwert- und Wärmestromverläufe ermöglichen. Zur Modellierung der turbulenten bzw. transitionellen Strömung kommt in dieser Arbeit das SST-Turbulenzmodell unter Anbindung eines Transitionsmodells zum Einsatz.
Für verdünnte Strömungen sind diese Methoden nicht einsetzbar; es kann jedoch gezeigt werden, dass hier die Einlauf- und Kompressibilitätseffekte nur eine untergeordnete Rolle spielen. Dies erlaubt eine einfache Modellierung durch Anpassung des Reibungsgesetzes und der effektiven Wärmeleitfähigkeit des Gases als Funktion der Gasverdünnung.
Mit den für alle Strömungsbereiche bekannten Reib- und Wärmeübertragungsgesetzen wird ein Berechnungsalgorithmus formuliert, der unter Vorgabe von Gasart, Spaltgeometrie, Druck vor und hinter dem Spalt sowie der Temperaturen eine effektive Berechnung des gesuchten Spaltmassenstroms sowie der Wärmestromverläufe in die Bauteile ermöglicht.
Die Validierung des entwickelten Modells erfolgt anhand von Versuchen mit einem Spaltkonturkörper, der zwischen zwei Rezipienten mit unterschiedlichen Drücken positioniert wird. Die Oberflächen des Konturkörpers sind ungleich temperiert und mit Wärmestromsensoren ausgestattet. Der Abgleich der gemessenen mit den berechneten Werte zeigt für alle Strömungsbereiche gute Übereinstimmung, was die Gültigkeit des vorgestellten Modells belegt.
Seit dem Beginn der Produktion und Veredelung von Nahrungsmitteln im großtechnischen
Maßstab steigen nicht nur die Mengen an den Hauptprodukten dieser Prozesse, sondern
auch die Mengen der dabei anfallenden Nebenprodukte. Die Entsorgung dieser Nebenprodukte
über Flüsse oder Kläranlagen stellte auf Grund deren BOD (biochemical oxygen
demand) zunehmend ein Problem dar, dessen Lösung unabdingbar wurde. Eines dieser
Nebenprodukte, welches in stets zunehmender Menge anfällt ist Molke, das Hauptnebenprodukt
der Käseherstellung. Die produzierte Jahresmenge betrug für das Jahr 2011 alleine in Deutschland geschätzte 11,80 Mio. Tonnen. Das einstige Abfallprodukt Molke wird seit den 1950er Jahren in zunehmendem Maß vorwiegend zu Molkekonzentrat, einer 5 bis
6-fach aufkonzentrierten Molkelösung, und Molkeproteinpulvern mit steigendem Proteinanteil
aufgearbeitet. In den 2000er Jahren kamen verstärkt Isolate einzelner Molkeproteine dieser Produktpalette hinzu. Bereits vor 15 Jahren wurde die weltweit produzierte Menge
an Molkeproteinkonzentrat auf über 140.000 Tonnen geschätzt. Molkeproteinpulver und alpha-Lactalbumin (ALA) wurden zu dieser Zeit in einer geschätzten Menge von 2.300 Tonnen bzw. 230 Tonnen jährlich hergestellt. Mit der zunehmenden Reinheit der Proteinfraktionen stieg auch deren Marktwert von etwa 1 $/kg für die ersten Molkeproteinpulver in den
1960er Jahren bis auf 600 $/kg für Fraktionen einzelner Proteine mit hoher Reinheit.
Die überwiegende Mehrheit dieser Produkte findet seinen Einsatz in der Nahrungsmittelindustrie,
wie beispielsweise bei der Produktion von Säuglingsnahrung, Sportlerernährung
oder als Texturbildner in verschiedensten Nahrungsmitteln des täglichen Konsums. Die am weitesten verbreiteten Prozesse zur großindustriellen Aufarbeitung von Molke sind
die Ultrafiltration und die Chromatographie. Andere Verfahren wie Fällungsprozesse oder
peptische Hydrolysen kommen mit steigender Prozessgröße immer seltener als alleiniges
Aufarbeitungsverfahren von Molke zum Einsatz. Viele der beschriebenen und angewendeten
Verfahren arbeiten in einem der ersten Schritte mit einer Modifikation des pH-Wertes
des Eduktes Molke. Dies ist in dem hier vorgestellten Verfahren nicht der Fall, das Edukt wird ohne Veränderungen oder Modifikationen eingesetzt. Es werden keine einzelnen Komponenten der Molke im Voraus entfernt oder durch z. B. peptische Hydrolyse zerstört. Die
eingesetzten Chemikalien sind ungiftig und müssen keinen kostenintensiven Entsorgungsverfahren
zugeführt werden. Im Gegensatz zu Verfahren mit Fällungssalzen können die
eingesetzten Chemikalien im Produkt durch Neutralisation einfach wieder entfernt werden
oder kommen in nur geringen Konzentrationen vor. Es treten im Gegensatz zu chromatographischen
Methoden nur geringe Fluidströme, z. B. Waschwasser, auf und der Prozess bedarf keiner massiven Temperaturerhöhung des Eduktes, um beispielsweise die Viskosität
zu erhöhen. Die eingesetzten Adsorbentien sind kostengünstig (unter 10 €/kg) und können im Fall von Siliziumdioxid als restproteinbeladener Tierfutterzusatz entsorgt werden. In dem vorgestellten Prozess können die Hauptkomponenten der Molke alpha-Lactalbumin
(ALA), beta-Lactoglobulin (BLG) und Lactose voneinander getrennt werden, was mit den
meisten Membranverfahren im industriellen Maßstab nicht oder nur ungenügend möglich
ist. Im Prozess werden lediglich einfache Rührkessel und Filtrationseinheiten eingesetzt. Des Weiteren ist der Prozess leicht in bestehende Aufarbeitungsverfahren integrierbar und/oder durch zusätzliche Verfahren, wie beispielsweise vor- oder nachgeschaltete Membranverfahren,
ergänzbar. Dadurch besitzt er ein hohes Potential zur Optimierung und weiteren Kostenersparnis. In dieser Arbeit werden zwei Ansätze zur Aufarbeitung verfolgt,
miteinander verglichen und ein Prozessentwurf mit Wirtschaftlichkeitsbetrachtung für den Batch-Ansatz vorgestellt. Für einen chromatographischen Ansatz wird ausgehend von Isothermen
und Adsorptions- und Desorptionsversuchen in einer Kleinsäule die Produktivität
für ein Material aus
gamma-Aluminiumoxid ermittelt. Für alle in dieser Arbeit verwendeten Materialien
aus Bentonit/Kieselsäure, Siliziumdioxid und
gamma-Aluminiumoxid werden die Permeabilität der Säulenpackung, deren maximale Bindekapazität und Stabilität angegeben. Der Einfluss einer Reduktion der Partikelgröße auf die Proteinbindekapazität daraus resultierender
Adsorbensschüttungen wird ebenfalls betrachtet. Eine gängige Betriebsweise
für viskose Fluide mit teilweise ungelöstem Feststoffanteil, wie Molkekonzentrat, stellt die
Expanded Bed Chromatographie dar. Eine rechnerische Abschätzung für das Material aus gamma-Aluminiumoxid ergänzt experimentelle Beobachtungen hinsichtlich der Eignung des Materials
für die Expanded Bed Chromatographie. Zur Trennung von ALA und BLG wird ein
Ansatz mittels selektiver Adsorption im Durchbruch mit einem Ansatz mittels selektiver Desorption in einem Stufengradienten aus Kaliumphosphat als Eluent verglichen. Für den
Batch-Ansatz wird aus den Ergebnissen von Adsorptionsisothermen und einstufigen Batchversuchen
eine Stoffstromsimulation auf Grundlage eines verfahrenstechnischen Fließbilds
erstellt. Der vorgestellte Prozess besteht aus 6 Rührkesselreaktoren, Filtrationsmodulen
zur Fest-Flüssig-Phasen Trennung und zwei Sprühtrocknungseinheiten. Eine Prüfung des
vorgestellten Prozesses auf seine Wirtschaftlichkeit wird vor dem Hintergrund möglicher
Produktpreise diskutiert.
Lithiumphenylacetylid führte zu einem Halbsandwichkomplex unter Austausch der beiden verbrückenden Bromide gegen Phenylacetylide. Diese neue Halbsandwichverbindung wurde mit Röntgenabsorptionsspektroskopie untersucht und charakterisiert.
Um substituierte Cyclopentadienylliganden anhand ihrer Sperrigkeit charakterisieren zu können, wurden als Maß für den sterischen Anspruch die beiden Kegelwinkel Θ und Ω in Anlehnung an Tolman eingeführt. Als Modellsystem wurden in einer Zusammenarbeit mit der Arbeitsgruppe von Tamm (TU Braunschweig) Cycloheptatrienyl-Zirconium-Komplexe des Typs \([(η^7-C_7H_7)Zr(C_5R_5)]\) ausgewählt, da diese die an ein Modellsystem gestellten Anforderungen erfüllen. Dadurch konnten etwa 20 neue Cycloheptatrienyl-Cyclopentadienyl-Zirconium-Komplexe erhalten werden, bei welchen anhand von Festkörperstrukturen oder DFT-Berechnungen der sterische Anspruch der substituierten Cyclopentadienylliganden ermittelt wurde.
Basierend auf sehr reaktiven Cyclopentadienyl-Eisen-σ-Arylkomplexen konnten zwei unterschiedliche Reaktionen untersucht werden. Zum einen wurde die von Wallasch beobachtete Oxidation von \(Cp'''Fe(II)(σ-Mes)\) \((Cp''' = C_5H_2tBu_3; Mes = C_6H_3-2,4,6-Me_3)\) mit \(PdCl_2\) zu dem neuartigen Komplex \(Cp'''Fe(III)(σ-Mes)Cl\) weiter untersucht, um diese Substanzklasse kennenzulernen. Dabei erwies sich Hexachlorethan als wesentlich günstigeres Oxidationsmittel, mit dessen Hilfe die Verbindungen \(^4CpFe(III)(σ-Mes)Cl,\) \(^4CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) und \(^5CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) synthetisiert und charakterisiert werden konnten.
Auch die von Weismann beobachtete σ/π-Umlagerungsreaktion von \(^5CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Trimethylaluminium zu \(^5CpFe(π-C_6H_3-2,6-iPr_2-AlMe_3)\) wurde näher untersucht. Dazu wurde \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlR_3\) (R = Me, Et, Pr) umgesetzt, um die entsprechenden Umlagerungsprodukte herzustellen. Diese konnten bei der Umsetzung mit \(AlMe_3\) auch erhalten werden, allerdings zeigten sich bei der Reaktion mit \(AlEt_3\) und \(AlPr_3\) unerwartete Reaktionsprodukte. Durch einen Bromid-Alkyl-Austausch wurden die Komplexe \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlEt_2Br)\) und \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlPr_2Br)\) gebildet. Zusätzlich konnten bei der Umlagerung mit \(AlEt_3\) vier weitere Neben- bzw. Folgeprodukte beobachtet werden. Eines der Folgeprodukte ist der Butinkomplex \((^4CpFe)_2(μ,η^2:η^2-but-2-in)\), der vermutlich durch eine Kupplung zweier Ethylgruppen und Dehydrierung gebildet wird. Reaktionen von \([^4CpFe(μ-Br)]_2\) oder \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Ethylmagnesiumbromid ergaben den gleichen Komplex. Für die Entstehung der unterschiedlichen Produkte bei der Reaktion von \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlEt_3\) wurde ein Mechanismus entwickelt und dieser anhand der gewonnenen Erkenntnisse belegt.
Die vorliegende Dissertation umfasst die vier Themengebiete Cobalt(II)-Spincrossover-Verbindungen, Eisen(II)-Spincrossover-Verbindungen, Eisen(II)-Radikal-Komplexe und intermediate-spin-Eisen(III)-Komplexe.
Unter den 18 neuen Cobalt(II)-Verbindungen mit den Tetraazamakrozyklen N,N‘-Dimethyl- bzw. N,N‘-Di-tert-butyl-2,11-diaza[3.3](2,6)pyridinophan als primäre Liganden, die synthetisiert und vollständig charakterisiert werden konnten, befinden sich 5 Komplexe, die einen Spinübergang im Feststoff zeigen. Dieser Spinübergang konnte für alle fünf Verbindungen mittels Röntgenstrukturanalysen bei verschiedenen Temperaturen sowie mittels SQUID-Messungen nachgewiesen werden. Dabei weisen die Verbindungen 7b, 8a und 16b einen graduellen, unvollständigen Spincrossover auf. Die Komplexe 17 und 18 zeigen einen Spinübergang mit einer Übergangstemperatur von 232 bzw. 135 K. Für die beiden letztgenannten Komplexe konnte der Spinübergang auch mittels Raman- und ESR-Spektroskopie nachgewiesen werden. 7 Verbindungen zeigen laut NMR-Evans-Messungen einen Spincrossover in Lösung, wobei dieser jeweils unvollständig ist und über einen weiten Temperaturbereich verläuft. Die Komplexe 7b und 16b weisen sowohl im Feststoff als auch in Lösung einen Spinübergang auf.
Der Vergleich der Cobalt(II)- mit analogen Eisen(II)-Verbindungen zeigt, dass für Cobalt(II)-Spincrossover-Verbindungen neben der Ligandenfeldstärke der koordinierenden Liganden auch die tetragonale Verzerrung der Umgebung des Cobaltions von großer Bedeutung ist. Diese ist für den tert-butylsubstituierten Makrozyklus deutlich stärker ausgeprägt als für das methylsubstituierte Derivat. So kann der low-spin-Zustand energetisch unter dem high-spin-Zustand liegen, obwohl die Ligandenfeldaufspaltung für L-N\(_4\)\(^t\)Bu\(_2\) beim idealen Oktaeder kleiner ist als für L-N\(_4\)Me\(_2\). Dadurch wiederum können die Spincrossover-Komplexe 16b und 18 bei tiefen Temperaturen den low-spin-Zustand erreichen, während die analogen Verbindungen 9 und 10 im high-spin-Zustand verbleiben.
Im Rahmen der Eisen(II)-Spincrossover-Verbindungen konnten 5 neue Komplexe synthetisiert und charakterisiert werden. Dabei handelt es sich einerseits um die Spincrossover-Verbindungen 22a, 23a und 24. Der erstgenannte Komplex zeigt in den SQUID-Messungen einen graduellen Spinübergang, wobei sich unterhalb von 75 K noch etwa 10 bis 15 % der Eisenionen im high-spin-Zustand befinden und bei der Höchsttemperatur von 400 K hauptsächlich der high-spin/high-spin/high-spin-Zustand besetzt ist. Für den Komplex 23a konnte ein gradueller Spincrossover mittels Röntgenstrukturanalysen, SQUID- und Mößbauer-Messungen nachgewiesen werden, die Übergangstemperatur wurde zu 200 K bestimmt. Die Verbindung 24 weist laut SQUID-Magnetometrie einen graduellen Spinübergang mit einer Übergangstemperatur von 245 K auf, und auch die Mößbauer-Spektren belegen einen Spincrossover. Andererseits konnten auch die Verbindung 25a sowie der zugehörige zweikernige Komplex 26a synthetisiert werden. Der mononukleare Komplex weist in Lösung einen Spinübergang auf, im Feststoff befindet sich das Eisen(II)-Ion im low-spin-Zustand. Die dinukleare Verbindung liegt überwiegend im high-spin/high-spin-Zustand vor.
Bei dem vorgestellten Eisen(II)-Radikal-Komplex 28 handelt es sich um eine Eisen(II)-Verbindung mit dem monoanionischen pi-Radikal von Biacetyl-bis-methylimin als Coligand. Sowohl die Röntgenstrukturanalyse als auch die SQUID- und Mößbauer-Messungen weisen darauf hin, dass das Eisen(II)-Ion im intermediate-spin-Zustand (S = 1) vorliegt. Als Nebenprodukt wird bei der Synthese der high-spin-Eisen(II)-Komplex 29 gebildet, welcher einfach deprotoniertes Biacetyl-bis-methylimin als Coligand enthält. Die Ausgangsverbindung 27 weist einen graduellen Spinübergang mit einer Übergangstemperatur von 385 K auf. Durch die Deprotonierung wird die Ligandenfeldstärke des Coliganden also schwächer. Die Auswirkung der Reduktion auf die Ligandenfeldstärke ist schwieriger zu beurteilen. Durch das Hinzufügen eines Elektrons wird der Coligand ein besserer \(\sigma\)- und \(\pi\)-Donor, während seine \(\pi\)-Akzeptor-Eigenschaften abnehmen. Insgesamt ist die reduzierte Spezies vermutlich ein schwächerer Ligand als der Neutralligand.
Mit Komplex 30b konnte eine Eisen(III)-Verbindung mit einem intermediate-spin-Grundzustand synthetisiert und untersucht werden. Der intermediate-spin-Zustand des Eisen(III)-Ions wurde mit Hilfe von Röntgenstrukturanalysen, SQUID-Messungen und Mößbauer- sowie ESR-Spektroskopie belegt. Grund für die Stabilisierung des relativ seltenen, reinen intermediate-spin-Zustandes ist die durch den Tetraazamakrozyklus hervorgerufene tetragonale Verzerrung zusammen mit den guten \(\sigma\)- und \(\pi\)-Donor-Eigenschaften des Coliganden 1,2-Ethandithiolat. Dadurch wird eine relativ große Aufspaltung der ursprünglichen \(e_g\)-Orbitale des Eisen(III)-Ions bewirkt. Dies wiederum führt zum Vorliegen der Elektronenkonfiguration \( (d_{xy})^2(d_{xz}d_{yz})^2(d_{z^2})^1(d_{x^2-y^2})^0\).
Die vorliegende Dissertation zeigt, dass die verwendeten tetraazamakrozyklischen Liganden geeignete Liganden sind, sowohl um mit Eisen(II)- und Cobalt(II)-Ionen Spinübergänge zu verwirklichen, als auch um den seltenen intermediate-spin-Zustand in Eisen(III)-Komplexen zu stabilisieren. Wichtig ist auch die Erkenntnis, dass diese Makrozyklen eine starke tetragonale Verzerrung des oktaedrischen Ligandenfeldes hervorrufen, was die Beobachtung von Spincrossoverprozessen mit Cobalt(II)-Verbindungen sowie von intermediate-spin-Eisen(III)-Komplexen ermöglicht.
Congress Report 2013.04-06
(2013)
Modellgetriebene Entwicklung von Kommunikationsprotokollen für drahtlos vernetzte Regelungssysteme
(2013)
Funkvernetzte Sensorsysteme sind heutzutage allgegenwärtig.
Sie werden sowohl in Rauchmeldern, in Raumtemperaturüberwachungen und Sicherheitssystemen eingesetzt.
Das Sensorsystem soll seine Aufgabe zuverlässig und über viele Jahre ohne Batteriewechsel erfüllen.
Durch die Vernetzung der Sensorsysteme und ihre immer komplexer werdenden Aufgaben wird die Programmierung in einer maschinennahen Sprache immer aufwändiger.
Die modellgetriebene Entwicklung erhöht die Wartbarkeit und reduziert die Entwicklungszeit wodurch im Allgemeinen die Produktqualität steigt.
In Folge der höheren Komplexität, der Abstraktion von der konkreten Hardwareplattform und den immer kürzere Produktentwicklungszeiten bleibt oft keine Zeit für Energieoptimierung, wodurch die Batterielaufzeit geringer ausfällt, als dies möglich wäre.
In dieser Arbeit werden verschiedene Ansätze vorgestellt, die es ermöglichen, bereits während der Modellierung den Stromverbrauch zu berücksichtigen und diesen zu optimieren.
Am Beispiel des inversen Pendels, einem sehr instabilen Regelungssystem, wird dazu mit Hilfe der modellgetriebenen Entwicklung eine funkvernetzte, verteilte Regelung spezifiziert.
Der aus der Spezifikation erzeugte Kode wird direkt auf den Sensorknoten ausgeführt und muß dazu performant und zuverlässig sein, um die Echtzeitanforderungen des Regelungssystems zu erfüllen, aber gleichzeitig so wenig Energie wie möglich zu verbrauchen.
m die Zuverlässigkeit der verteilten Regelung zu gewährleisten ist eine deterministische kollisionsfreie Datenübertragung über das drahtlose Kommunikationsmedium erforderlich.
Die Synchronisation ist eine weitere Voraussetzung zur Ermittlung eines konsistenten Systemzustands.
Congress Report 2013.01-03
(2013)
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Pflanzenkläranlagen (PKA) sind ein naturnahes Verfahren der Abwasserreinigung, das aufgrund seines im Vergleich zu technischen Kläranlagen geringen Wartungs- und Energieaufwands, der guten Einbindung in die Landschaft und der höheren Reinigungsleistung als konventionelle Teichkläranlagen vorwiegend im ländlichen Raum zum Einsatz kommt.
Gemäß den allgemein anerkannten Regeln der Technik beschränkt sich die Anwendung jedoch auf im Trennsystem entwässerte Einzugsgebiete und den Einsatz von fluviatilen Rundkornsanden als Filtersubstrat. Im Süden und Südwesten Deutschlands überwiegt allerdings das Mischsystem, sodass verfahrenstechnische Lösungen in der Abwasserreinigung die Mischkanalisation als Voraussetzung haben. Im Zuge der Umsetzung der EU-Wasserrahmenrichtlinie (EU-WRRL) sind Immissionsbetrachtungen im Hinblick auf den guten chemischen Zustand des Gewässers als Grundlage für den guten ökologischen Zustand erforderlich. Dezentrale Kläranlagen an abflussschwachen Gewässern müssen häufig verschärfte Anforderungen an den Ablauf, insbesondere im Hinblick auf die Nitrifikationsleistung, einhalten. Ziel dieser Arbeit ist die Überprüfung der Eignung von Pflanzenkläranlagen im Mischsystem im Allgemeinen und von Lavasand als Filtersubstrat im Besonderen zur Erfüllung dieser Anforderungen.
Der für Lavasand-Anlagen entwickelte Bemessungsansatz des Entsorgungsverbandes Saar (EVS) sowie die zugehörigen Planungs- und Betriebsvorgaben wurden im großtechnischen Maßstab an zehn kommunalen Kläranlagen mit Ausbaugrößen von 70 bis 600 EW überprüft. Neben einer reinen Verifizierung des Konzepts im Sinne eines Nachweises der Reinigungsleistung wurde versucht, auf der Kläranlage Büschdorf die Belastungsgrenzen des Systems und insbesondere der alternierend und intermittierend betriebenen Hauptbodenfilter (HBF) zu ermitteln. Ergebnis dieser Untersuchungen auf der Kläranlage Büschdorf war, dass der dort als Filtersubstrat eingesetzte Lavasand über ein Jahr mit maximalen hydraulischen Flächenbelastungen von mehr als 220 l/(m2*d) beaufschlagt werden kann, ohne dass es zu Kolmationserscheinungen oder einem Einbruch der Reinigungsleistung kommt.
Darüber hinaus wurde die Leistungsfähigkeit von Lavasanden aus verschiedenen Steinbrüchen mit unterschiedlichen Eigenschaften auf der Kläranlage Riesweiler untersucht. Es zeigte sich, dass das Filtermaterial mit der größten Porosität, der größten spezifischen Oberfläche, der geringsten Durchlässigkeit und der höchsten Kationenaustauschkapazität die besten Ergebnisse im Hinblick auf die Elimination von Kohlenstoff- und Phosphorverbindungen sowie Ammoniumstickstoff erzielt. Im Zusammenhang mit dem CSB-Abbau und der Nitrifikationsleistung sind aerobe Verhältnisse im Filterkörper notwendig, was durch einen intermittierenden Betrieb der Bodenfilter sichergestellt wird. Dieser Sachverhalt wurde mit Redoxpotenzialmessungen und Beprobungen von Versuchsphasen mit dem Filter im Normal- und Einstaubetrieb nachgewiesen. Gemäß den Ergebnissen dieser Arbeit sind Lavasande als Filtersubstrat im Vergleich zu fluviatilen Rundkornsanden bei höherer hydraulischer Belastung, insbesondere bezogen auf den Ammoniumstickstoffabbau, leistungsfähiger.
Zusammenfassend ist festzustellen, dass substrateigenschaftsabhängige Bemessungs-vorgaben notwendig und sinnvoll sind. Hier besteht weiterer Forschungsbedarf.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Das Ziel der vorliegenden Dissertation war die Herstellung eines Immunotoxins das in der Transplantationsmedizin eingesetzt werden soll. Hierbei wurde das Ribosomen-inaktivierende Protein Gelonin als Toxinkomponente eingesetzt. Die Besonderheit von Gelonin ist, dass es für intakte Zellen nicht toxisch ist, weil es nicht in die Zellen gelangen kann. Um es in die Zelle zu bringen wird eine Ligandenkomponente, in dieser Arbeit der monoklonale anti-PD-1-Antikörper, der an PD-1 auf der Oberfläche von alloreaktiven T-Zellen bindet, benötigt. Gelonin könnte somit durch die Aufnahme über den anti-PD-1-Antikörper in diese Zellen gelangen und sie selektiv zerstören, bevor sie zur Abstoßung des Transplantats führen. Mittels chemischer Kopplung wurden Gelonin und der anti-PD-1-Antikörper miteinander verknüpft, indem sie zunächst mit 2-Iminothiolan modifiziert wurden, um freie Thiolgruppen in die Proteine einzuführen. Nach der weiteren Modifizierung von Gelonin mit Bis-(maleimido)-methylether zur Einführung von Maleimidgruppen erfolgte die Kopplung der beiden Proteine durch Ausbildung einer Thioetherbrücke. Nach der Optimierung war die Herstellung des Konjugats erfolgreich und es erfolgte die Aufreinigung mittels verschiedener chromatographischer Methoden, wie HPLC, ÄKTA und Affinitätschromatographie. Nach der immunologischen Charakterisierung mittels ELISA und Western-Blot wurden Untersuchungen zur Wirksamkeit des Konjugats durchgeführt. Es ergab sich keine signifikante Wirkung des Konjugats auf HEK293T Zellen. Der Grund hierfür könnte sein, dass das Konjugat nicht über Endozytose in die Zelle aufgenommen werden kann.
Zur besseren Charakterisierung und Aufreinigung des Konjugats war ein weiteres Ziel dieser Arbeit die Herstellung eines monoklonalen anti-Gelonin-Antikörpers. Hierzu wurden BALB/c Mäuse erfolgreich mit Gelonin immunisiert und im Anschluss die Milzzellen mit der Myelomzelllinie (X63Ag8.653) fusioniert. Nach zweifacher Klonierung und Expansion wurden mittels Protein-G-Affinitätschromatographie zwei unterschiedliche anti-Gelonin-Antikörper isoliert. Auf Grund ihrer niedrigen Affinität konnten sie aber nicht zur Aufreinigung, sondern nur zur Charakterisierung des Konjugats eingesetzt werden.