Refine
Year of publication
Document Type
- Doctoral Thesis (930)
- Periodical Part (274)
- Master's Thesis (221)
- Preprint (148)
- Working Paper (100)
- Article (91)
- Report (81)
- Conference Proceeding (19)
- Book (15)
- Lecture (14)
Language
- German (1971) (remove)
Keywords
- Stadtplanung (29)
- Erwachsenenbildung (27)
- Organisationsentwicklung (27)
- Schule (24)
- Mathematische Modellierung (19)
- wissenschaftliche Weiterbildung (19)
- Digitalisierung (18)
- AG-RESY (17)
- Hochschulforschung (17)
- Nachhaltigkeit (17)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (307)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (276)
- Kaiserslautern - Fachbereich Sozialwissenschaften (271)
- Kaiserslautern - Fachbereich Informatik (171)
- Distance and Independent Studies Center (DISC) (150)
- Kaiserslautern - Fachbereich Mathematik (127)
- Universität (110)
- Kaiserslautern - Fachbereich Bauingenieurwesen (99)
- Kaiserslautern - Fachbereich Biologie (83)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (79)
In der vorliegenden Arbeit wird das Tragverhalten von durchlaufenden stahlfaserbewehrten Stahlverbunddecken analysiert. Auf der Basis von experimentellen und rechnerischen Untersuchungen werden zwei Bemessungsmodelle entwickelt. Anhand der experimentellen Untersuchungen an einfeldrigen und durchlaufenden stahlfaserbewehrten Verbunddecken werden Aufschlüsse über das Trag- und Verformungsverhalten der Decken gewonnen. Dabei werden sowohl offene trapezförmige als auch hinterschnittene Profilbleche verwendet. Auf eine konventionelle Betonstahlbewehrung wird gänzlich verzichtet. Das Stützmoment wird vom Stahlfaserbeton alleine aufgenommen. In vier Versuchsserien mit insgesamt 18 Versuchen werden einzelne Parameter wie z. B. unterschiedliche Deckenstärken, unterschiedliche Profilblechgeometrien sowie unterschiedliche Stahlfaserbetonmischungen untersucht. Für die Berechnung und Bemessung werden die im Verbundbau üblichen Nachweisverfahren aufgegriffen und modifiziert. Die Traganteile des Stahlfaserbetons werden über den Ansatz von Spannungsblöcken implementiert. Bei der Nachrechnung der einzelnen Versuche zeigt sich die Eignung der Verfahren. Für die einzelnen Nachweise werden in Parameterstudien Bemessungsdiagramme und –tabellen erstellt, die dem anwendenden Ingenieur ein einfaches und sicheres Bemessen ermöglichen. Anhand der experimentellen Ergebnisse und der rechnerischen Untersuchungen werden zwei mögliche Bemessungsmodelle entwickelt, mit denen die Tragfähigkeit von stahlfaserbewehrten durchlaufenden Verbunddecken nachgewiesen werden kann. Dabei kann der Nachweis entweder nach den Verfahren Elastisch-Plastisch oder Plastisch-Plastisch erfolgen.
In Deutschland haben die Familienunternehmen eine lange Tradition. Einige weltberühmte deutsche Unternehmen, wie die Volkswagen AG, BMW Group oder Robert Bosch GmbH, werden von der Gründerfamilie oder deren Nachfolger geführt. Neben Familienunternehmen dieser Größenklasse werden auch viele andere mittelständige, familiengeführte Unternehmen in Deutschland jährlich an die nächste Generation weitergegeben oder vererbt. Ganz gleich ob bereits eine gezielte Nachfolgeplanung vorliegt oder ein plötzlicher Generationswechsel geschieht, soll das Firmenvermögen in aller Regel bei der Familie verbleiben.
Das Nachfolgemanagement gestaltet sich dabei oft schwierig, denn bei dem Thema Nachfolgeplanung müssen nicht nur die strategischen Ziele und die möglichen Akteure der Unternehmensfortführung gefunden werden, sondern es soll ebenfalls die Harmonie der Familie erhalten bleiben. In einigen Fällen ist kein Familienmitglied bereit dazu oder geeignet, das Unternehmen weiterzuführen. In solchen Fällen gibt es die Möglichkeit, die Fortführung in die Hände eines erfahrenen Managers zu legen. Für die Dauer der Fortführung wird i.d.R. eine Beteiligung am Firmenvermögen angeboten, um dem Manager eine intrinsische Motivation an der erfolgreichen Weiterführung des Familienunternehmens und an der Steigerung des Firmenvermögens, mithin auch seiner eigenen Beteiligung, zu geben.
Durch die Übertragung von Gesellschaftsanteilen wird der externe Manager Teil eines familiengeprägten Gesellschafterkreises. Es stellt sich die Frage, wie diese Übertragung so gestaltet werden kann, dass die Familie weiterhin die Kontrolle über die Anteile behält und nicht umgangen werden kann. Darüber hinaus stellt sich die Frage, wie weit solche Kontrollmaßnahmen ihre Reichweite erstrecken und wie sich die Auslegung solcher Klauseln ändern kann, wenn die Gesellschafter nicht mehr nur aus der Familie als homogene Einheit stammen und persönlich in der Gesellschaft nicht mehr mitarbeiten.
Das Idealbild der europäischen Stadt mit ihrer dicht gewachsenen Baustruktur und ihren öffentlichen Räumen steht als Synonym für 'Urbanität' und beeinflußt bis zum heutigen Tag das planerische Denken und Handeln. Eng verbunden damit tauchen immer wieder Assoziationen zu Agora und Forum auf, die als Archetypen des 'Öffentlichen' schlechthin, den Mythos einer sich dort artikulierenden und konstituierenden, idealen und demokratischen Stadtgesellschaft transportieren. Zu Beginn des 21. Jahrhunderts stellt sich jedoch die Frage, ob sich die tradierten und erprobten Denkmodelle und Bilder des öffentlichen Raumes aufgrund der rasanten gesellschaftlichen und informationstechnologischen Veränderungen, überlebt haben. Haben die typischen Ideen von Stadt, die auf dem öffentlichen Raum beruhen nur noch rein symbolische Bedeutung? Verlagern sie sich mehr und mehr in den virtuellen Raum? 'Die Stadt der kurzen Wege' mit ihrer räumlichen Mischung ist als 'Marktplatz' für den Austausch von Informationen und Waren nicht mehr in der bekannten Weise relevant und gesellschaftlich bestimmend. Die Stadt als einheitliches und homogenes Gebilde existiert nicht mehr. Stattdessen ist sie durch Fragmentierung und Zersplitterung gekennzeichnet, wie u.a. die Diagnosen von Touraine ['Die Stadt - ein überholter Entwurf', 1996], Koolhaas ['Generic City', 1997], Sieverts ['Die Zwischenstadt', 1999] und Augé ['Orte und Nicht-Orte', 1998] zeigen. Synchron dazu entstehen mit dem Cyberspace oder 'Virtual Cities' [Rötzer, 1997] neue Formen von öffentlichem Raum und Öffentlichkeit - Parallelräume zur realen Welt. Welche Auswirkungen diese neuen Räume auf das Leben der Menschen und die Stadt haben werden, kann noch nicht abgesehen werden. In der realen Welt werden die Planungsspielräume der Kommunen immer kleiner; die Wechselwirkungen, die u.a. durch Globalisierung, Privatisierung und Deregulierung öffentlicher Aufgaben ausgelöst werden, immer komplexer. Neben den international zu beobachtenden Entwicklungen [Shopping-Mall, New Urbanism, Gated Community], die sich länderübergreifend in leicht abgewandelten Varianten durchzusetzen scheinen, üben auch soziokulturelle Gesellschaftstrends großen Einfluß auf den öffentlichen Raum aus. Der öffentliche Raum als Bindeglied zwischen dem 'Öffentlichen' und dem 'Privaten' ist zunehmend dem Druck der 'Erlebnis- und Konsumgesellschaft' ausgesetzt und kann deshalb seine gesamtgesellschaftliche Funktion für die Stadt nur noch eingeschränkt wahrnehmen. Die individualisierte und mobile Gesellschaft mit ihren gewandelten und diversifizierten Lebensentwürfen und Wertvorstellungen stellt das tradierte Verständnis des öffentlichen Raums zusätzlich in Frage. Das Bild des öffentlichen Raumes als ein Bereich der Gesellschaft des 21. Jahrhunderts kann nicht mehr mit einem mythisierenden Agora-Begriff begegnet werden. Neue Wege und eine Überprüfung der aktuellen Entwicklungen sind dafür unerlässlich. Gleichzeitig müssen jedoch auch die geschichtlichen Gegebenheiten berücksichtigt werden, um aus ihnen zu lernen.
In this paper we investigate the use of the sharp function known from functional analysis in image processing. The sharp function gives a measure of the variations of a function and can be used as an edge detector. We extend the classical notion of the sharp function for measuring anisotropic behaviour and give a fast anisotropic edge detection variant inspired by the sharp function. We show that these edge detection results are useful to steer isotropic and anisotropic nonlinear diffusion filters for image enhancement.
Entwicklung von Fermentationsstrategien zur stofflichen Nutzung von nachwachsenden Rohstoffen
(2022)
Biertreber stellt einen wichtigen Vertreter eines nachwachsenden Rohstoffes dar, da es sich dabei um ein niedrigpreisiges Nebenprodukt des Brauprozesses handelt, welches jedes Jahr in großen Mengen anfällt. In der vorliegenden Arbeit wurde Biertreber aus sieben verschiedenen Braurezepten, sowohl aus eigener Herstellung als auch industriellen Ursprungs, analysiert und in Bezug auf die zugrundeliegenden Braugänge klassifiziert. Darüber hinaus wurde der Treber durch Pressen in zwei separate Stoffströme aufgeteilt: eine flüssige und eine feste Fraktion. Für beide Fraktionen wurden Bioprozesse etabliert, um einerseits das flüssige Substrat (Treberpresssaft) mit einem Milchsäurebakterium (Lactobacillus delbrueckii subsp. lactis) zu Milchsäure und andererseits das feste Substrat (Treberrückstand) mit einem lignocellulolytischen und gemischtsäuregärung-betreibenden Stamm (Cellulomonas uda) zu Ethanol und Essigsäure umzusetzen. Außerdem wurde ein kinetisches Modell aufgestellt, welches u.a. die Milchsäurebildung und das Zellwachstum von L. delbrueckii subsp. lactis für drei Treberpresssäfte unterschiedlicher Braurezepturen, d.h. mit unterschiedlicher Nährstoffausstattung, in einer simultanen Verzuckerung und Fermentation vorhersagen konnte. Des Weiteren konnten die entwickelten Fermentationsstrategien zur Verwertung des Treberpresssaftes und Treberrückstandes sowie die zugrundeliegenden Prozessüberwachungs- und Regelungsstrategien auf Fermentationen mit den gleichen Organismen aber dem Substrat Wiesenschnitt – also einen weiteren nachwachsenden Rohstoff – übertragen werden.
Der Erfolg von Transformationen hängt von sehr vielen Faktoren ab. In der vorliegenden Arbeit wurden einige ausgewählte Faktoren aufgegriffen und validiert. Die vorliegende
Arbeit enthält keine abschließende Beurteilung, der in der Literatur dargestellten Erfolgsfaktoren.
Change-Prozesse beeinflussen im organisationalen Kontext in den meisten Fällen die sozialen Beziehungen, sei es auf individueller, Team- oder gesamtorganisationaler
Ebene. Je grösser, einschneidender, tiefgehender oder radikaler die Veränderung, desto schwieriger sind der Ausgang und insbesondere die Erfolgsaussichten vorhersehbar. Gemäß den Forschungsergebnissen spielen neben den geprüften Erfolgsfaktoren auch die bisherigen Erlebnisse eine wichtige Rolle. Die Organisation kann die bisherigen Erfahrungen zu einem großen Teil selber steuern, reflektieren und daraus lernen. Die individuellen Change-Erfahrungen der Mitarbeitenden hingegen sind schwer zu fassen und können höchstens durch individuelle Begleitung verarbeitet werden.
Grundsätzlich kann bestätigt werden, dass die gewählten und validierten Maßnahmen erfolgsversprechend zur positiven Entwicklung der Organisationskultur eingesetzt werden
können. Neben der Prägung der Organisationskultur sollten Organisationen eine grundsätzliche Change-Affinität entwickeln und fördern. Die Interviews belegen, was in der Literatur postuliert wird: Die Organisationskultur ist die Basis der Zusammenarbeit in Organisationen und darf aus diesem Grund nicht vernachlässigt werden. Die Organisationskultur wird von allen befragten Personen als ein sehr wichtiges (wenn nicht sogar als wichtigstes) Element der Organisation betrachtet.
Die Kulturentwicklung in der Praxis wird als Nebeneffekt anderer Interventionen wahrgenommen. Eine klare Aussage, wie die Kultur in eine bestimmte Richtung entwickelt werden kann, wurde nicht getroffen.
Die Arbeit behandelt das facettenreiche Gebiet des steuerlichen Verlustabzugs, namentlich die konkrete Ausgestaltung des Verlustvortrags. Neben der verfassungsrechtlichen Würdigung der relevanten Normen legt die Autorin besonderen Wert auf die Frage, wie § 10d EStG im Sinne eines kohärenten Verlustabzugssystems auszugestalten sei. Auch die Verwerfungen der Corona-Krise haben im Bereich des Untersuchungsgegenstandes rege gesetzgeberische Tätigkeit ausgelöst. Die Verfasserin nimmt dies zum Anlass, pandemiebedingte Änderungen gesondert auf Rechtmäßigkeit wie auch ökonomische Wirksamkeit zu prüfen und die Vereinbarkeit der Neuerungen mit dem bestehenden Normsystem zu hinterfragen.
Untersuchung der spektroskopischen und kinetischen Eigenschaften von Dihydroxysäure-Dehydratasen
(2019)
Eisen-Schwefel-Cluster sind wichtige Cofaktoren, die an der Redox- und Nicht-Redox-Katalyse beteiligt sind. Enzyme der Lyase-Familie wie Aconitase, Fumarase und DihydroxysäureDehydratase enthalten Cluster, die an drei Cystein-Liganden koordiniert sind. Das Eisenion, das an einen Nicht-Cysteinyl-Liganden koordiniert ist, wirkt als Lewis-Säure und interagiert mit dem Substrat über die Hydroxygruppe des dritten Kohlenstoffatoms und der Carboxygruppe. Das in dieser Arbeit untersuchte Enzym ist die Dihydroxysäure-Dehydratase (DHAD), welche an der Biosynthese der Aminosäuren Isoleucin, Leucin und Valin beteiligt ist. In dieser Arbeit wurden die kinetischen und spektroskopischen Eigenschaften von DHAD aus Streptococcus mutans, Streptococcus thermophilus, Saccharomyces cerevisiae und Escherichia coli untersucht. Zu diesem Zweck wurden ihre Gene kloniert und die Proteine in E. coli Zellen exprimiert. Nach der Proteinreinigung zeigten die UV-Vis-, ESR- und Mössbauer-Spektroskopie die Anwesenheit eines [2Fe-2S]2+-Clusters in der S. mutans DHAD, eines [4Fe-4S]2+-Cluster in E. coli DHAD und einer Mischung von [2Fe-2S]2+- und [4Fe-4S]2+ -Cluster in der S. cerevisiae DHAD. Darüber hinaus unterstützten die Ergebnisse der Sauerstoffstabilitätstests und des Eisen- und säurelabilen Sulfidgehalts die spektroskopischen Analysen. MössbauerSpektroskopie lieferte zusätzlich Information für das Vorhandensein eines nicht-cysteinyl-koordinierten Eisenions in den Clustern der S. mutans und in E. coli DHAD. Enzymaktivitätsmessungen mit dem Dinitrophenylhydrazin-Assay und den hier etablierten gekoppelten Assays mit NADH-abhängigen Ketoisovalerat-reduzierenden Dehydrogenasen wurden durchgeführt, um die spezifischen Aktivitäten und die kinetischen Parameter der DHAD zu bestimmen. Interaktionsstudien der S. mutans DHAD mit dem Substrat, dem Produkt, den substrat- und produktähnlichen Verbindungen mittels UV-Vis-, ESR-, Mössbauer- und FT-IR-Spektroskopie zeigten, dass nur das (2R)-Isomer des Substrats und 2-Ketosäuren (KIV, Kbut) mit dem Cluster der S. mutans DHAD interagierten. Das DHAD-Produkt (2-Ketoisovalerat) interagiert vermutlich über seine Enolform mit dem Cluster. Interessanterweise wurde starke Interaktion des Clusters mit der β-Mercaptogruppe von 3-Mercaptopropionat beobachtet. Diese Wechselwirkung wurde unabhängig durch Inhibitionsstudien verifiziert. Anschließend zeigte eine Gelfiltrationsanalyse die Reversibilität der Interaktionen. Insgesamt hat die vorliegende Arbeit unser Wissen über die biotechnologisch wichtigen DHAD-Enzyme erweitert.
Gemeinnützige Organisationen sind aus unserem Alltag nicht mehr wegzudenken, da diese soziale sowie kulturelle Aufgaben übernehmen und eine nicht unwesentliche Rolle bei der demokratischen Entwicklung der Gesellschaft spielen.
In Deutschland gibt es mehr als 615.000 Non-Profit-Organisationen (NPO), darunter bildet die Rechtsform der eingetragenen Vereine mit 580 000 (94%) den größten Teil des Dritten Sektors, dicht gefolgt von gemeinnützigen GmbHs mit rund 10.000 Organisationen. Somit ist jeder zweite Einwohner Deutschlands Mitglied in mindestens einem der mehr als 580.000 Vereine.
Auch wenn dies zunächst eine positive Tendenz von einer vitalen Zivilgesellschaft aufweist, befinden sich Vereine in einem strukturellen Wandel, denn die Konkurrenz wächst in Bezug auf die Ressourcensicherung, sowohl im Bereich der Finanzierung aufgrund von stagnierenden öffentlichen Mitteln und einem fehlenden Finanzierungsmix als auch in Hinblick auf die Gewinnung freiwillig Engagierter. Zudem sind die Überalterung und das nachlassende Gemeinschaftsgefühl der Gesellschaft ein weiteres Problem im dritten Sektor. Soziale Milieus haben sich im Laufe der Zeit verändert, im Gegensatz zu früher sind sie nicht mehr eindeutig definierbar, damit wird es beschwerlicher explizite Zielgruppen anzusprechen. Dies ist einer der Gründe, warum klassischen Mitgliederorganisationen, die Stammkunden verloren gehen.
Eine sich derart verändernde Zivilgesellschaft hat zunehmende Anforderungen an das Leistungsspektrum der Vereinslandschaft. Vor allem für kleine, ehrenamtlich getragene Vereine wird es schwierig, sich mit derartigen Problemlagen auseinanderzusetzen. Aus diesem Grund legt die vorliegende Masterthesis den Fokus auf diese kleinen Vereinssparten, um zu untersuchen, ob ein Vereinssterben in Westdeutschland ein Mythos ist oder zur Realität wird.
Um zu einem Ergebnis zu gelangen, wird in den nächsten Kapiteln zunächst das Vereinsmodell in Deutschland näher betrachtet. Danach werden die hauptsächlichen Herausforderungen untersucht, mit denen die heutige Vereinslandschaft zu kämpfen hat, um dann der Frage nach zugehen, ob die Rechtsform des Vereins ein Auslaufmodell ist. Zum Schluss wird anhand eines praktischen Beispiels ein Changemanagementprozess durchlaufen. Dieser soll beweisen, dass die Professionalisierung des Vereinswesen, zumindest in Teilbereichen, wie beispielsweise bei der Kommunikation, ein Lösungsansatz sein kann, damit auch kleine, ehrenamtlich getragene Vereine weiterhin bestehen können.
Durch den Einsatz von Hohlkörpern in Stahlbetondecken können Beton, Stahl und folglich Gewicht eingespart werden. Die Materialeinsparung reduziert den Primärenergiebedarf sowie die Treibhausgasemissionen bei der Herstellung. Hierdurch stellen Hohlkörperdecken im Vergleich zu konventionellen Massivdecken eine ressourcenschonendere Bauweise dar. Infolge der deutlich reduzierten Eigenlast und einem im Verhältnis geringeren Steifigkeitsabfall können zudem Decken mit großen Spannweiten realisiert werden.
Die einzelnen Traganteile der Decken werden durch die Hohlkörper grundsätzlich nachteilig beeinflusst. Die Tragfähigkeit von Hohlkörperdecken mit abgeflachten rotationssymmetrischen Hohlkörpern wurde in der vorliegenden Dissertationsschrift im Detail analysiert. Auf Grundlage experimenteller und theoretischer Untersuchungen wurden Bemessungskonzepte für die Biegetragfähigkeit, die Querkrafttragfähigkeit, die Schubkraftübertragung in der Verbundfuge und das lokale Durchstanzen des Deckenspiegels oberhalb der Hohlkörper entwickelt. Unter Berücksichtigung der Bemessungskonzepte können die Hohlkörperdecken auf dem bauaufsichtlich geforderten Sicherheitsniveau hergestellt werden.
Für die Querkrafttragfähigkeit von Stahlbetondecken ohne Querkraftbewehrung steht derzeit kein allgemein anerkanntes mechanisch begründetes Bemessungskonzept zur Verfügung. Der Einfluss der einzelnen Traganteile auf das Versagen wurde experimentell analysiert. Hierzu wurden Versuche mit verlagerter Druckzone sowie mit ausgeschalteter Rissuferverzahnung und mit ausgeschalteter Dübelwirkung durchgeführt. Der rechnerische Einfluss der einzelnen Traganteile an der Gesamttragfähigkeit konnte durch die Nachrechnung von Versuchen zu Hohlkörper- und Installationsdecken unter Verwendung eines bestehenden mechanisch begründeten Rechenmodells visualisiert und verifiziert werden. Hierdurch wird ein Beitrag zum besseren Verständnis der Querkrafttragfähigkeit geleistet.
Es wurden Untersuchungen zur Expression und Wechsel von Serotypproteinen bei Paramecium primaurelia, Stamm 156 durchgeführt. Zum Nachweis der unterschiedlichen Serotypexpressionen wurden Immunofluoreszenzfärbungen und eine spezifische RT-PCR etabliert. Mit dieser Methode wurde der Ablauf eines temperaturinduzierten Serotypwechsels dokumentiert. Es wurde der Einfluss weiterer Umweltparameter auf die Ausprägung des Serotyps untersucht. Freilandexperimente sollten die Ausprägung der Serotypen unter multifaktorieller Reizeinwirkung zeigen. Zusätzlich konnte die Koexpression von zwei Serotypproteinen auf einer Zelle nachgewiesen werden.
In 2022 verfehlten Gebäude- und Verkehrssektor die Klimaschutzziele in Deutschland. Im Gegensatz zum Verkehrssektor stehen im Gebäudesektor lange Lebensdauern schnellen Technologiewechseln entgegen, weshalb Strategien besonders frühzeitig umgesetzt werden müssen. Zudem ist der Gebäudebestand durch hohe Investitionskosten bei vergleichsweise geringen Treibhausgaseinsparungen je investiertem Euro geprägt. In Kombination erschweren diese Hemmnisse die Erreichung der Klimaschutzziele für den Wohngebäudebestand deutlich.
Ziel dieser Arbeit ist die Entwicklung eines Wohngebäudebestandsmodells, um Transformationspfade unter dem Einfluss variierender ökonomischer Rahmenbedingungen, wie z.B. dem Einfluss unterschiedlicher CO2-Preisverläufe und eine Reinvestition der CO2-Steuer in die Modernisierung der Gebäude, simulieren und analysieren zu können.
Im ersten Schritt wird ein Wohngebäudebestandsmodell bei Fortschreibung der ökonomischen Rahmenbedingungen im Startjahr entwickelt und angewendet. Hierzu werden wichtige Parameter des Gebäudebestands identifiziert und diese anhand des vergangenen Verlaufs analysiert sowie Szenarien und Prognosen betrachtet. Ergebnis sind Ausgangsbedingungen und Einflussfaktoren auf den weiteren Verlauf, die für die Modellierung genutzt werden. Im zweiten Schritt wird eine Systematik entwickelt, um Modernisierungsraten endogen bei Variation der ökonomischen Rahmenbedingungen berechnen zu können.
In der vorliegenden Arbeit wird ein Modell vorgestellt, dass die ökonomischen Rahmenbedingungen und das Kopplungsprinzip dynamisch bei der Simulation von Vollmodernisierungsraten berücksichtigt. Die Ergebnisse zeigen, dass Vollmodernisierungsraten von 2 %/a über längere Zeiträume extreme Rahmenbedingungen benötigen und unrealistisch sind. Haupthemmnisse sind der Sanierungsbedarf (Kopplungsprinzip), sinkende Energieeinsparpotenziale der jüngeren Baualtersklassen und Mitnahmeeffekte bei verbesserter Förderung. Da eine Erreichung der Klimaschutzziele nur durch Anpassung der CO2-Steuer (auch bei Reinvestition) nicht innerhalb realistischer Steuerhöhen im Modell möglich ist, wird stattdessen ein Maßnahmenpaket aus wirtschaftlichen und legislativen Rahmenbedingungen zur Zielerreichung vorgestellt.
Der Flächennutzungsplan ist das zentrale Instrument der Gesamtplanung auf der gesamtstädtischen Ebene und kann gleichzeitig als Paradebeispiel für den – angesichts der in der Praxis zu lösenden Probleme nicht gerechtfertigten – Bedeutungsverlust formeller Pläne herangezogen werden. Mit der Bewältigung aktueller Herausforderungen der Stadtentwicklung konfrontiert, werden vor allem die seiner Aufstellung dienenden, zu langwierigen Verfahren und seine zu starren, Unsicherheiten in der tatsächlichen Entwicklung ungenügend berücksichtigenden Inhalte kritisiert. Folglich muss nach Möglichkeiten einer Weiterentwicklung des formellen Instrumentariums gesucht werden. Im Laufe der letzten Jahrzehnte wurden einige punktuelle Anpassungen im Modell des Flächennutzungsplanes vorgenommen. Des Weiteren sind Entwicklungen im benachbarten europäischen Ausland beachtenswert: Der im englischen Planungssystem neu eingeführte Local Development Framework soll sich durch Flexibilität und Modularität bei gleichzeitiger Stärkung der strategischen Steuerungswirkung seiner Inhalte auszeichnen. An einer systematischen Untersuchung der Erfordernisse, Potenziale und Grenzen einer Weiterentwicklung des Modells des Flächennutzungsplanes fehlt es bislang. Damit ein zukünftiges Modell die ihm zugedachten Wirkungen entfalten kann, ist zudem eine grundlegende Auseinandersetzung mit dem vorherrschenden Verständnis von gesamtstädtischer Planung und ihren Ergebnissen erforderlich. Vor diesem Hintergrund ist es das Ziel der vorliegenden Arbeit, das Modell des Flächennutzungsplanes systematisch abzuleiten und zu untersuchen, um es anschließend mit dem Ziel einer Erhöhung der Steuerungskraft der Inhalte des gesamtstädtischen Planes weiterentwickeln zu können. Hierbei fließen die Erkenntnisse aus einer Betrachtung des Local Development Framework mit ein. Die Arbeit kommt zu dem Ergebnis, dass trotz zahlreicher Anpassungen des Modells des Flächennutzungsplanes einige Charakteristika aus dessen Anfangszeit erhalten geblieben sind, die als nicht mehr angemessen bezeichnet werden müssen. Zu den Hauptschwächen des gegenwärtigen Modells zählen sein statischer Charakter und die unzureichende Berücksichtigung der Prozesshaftigkeit von Stadtentwicklung inklusive der Auseinandersetzung mit potenziellen Entwicklungsalternativen. Die Beschäftigung mit dem Local Development Framework zeigt, dass von einer Übertragbarkeit von Elementen auf das deutsche System auszugehen ist. Die erarbeiteten Vorschläge zu den Anpassungen am Modell des Flächennutzungsplanes eröffnen insgesamt die Möglichkeit, den Flächennutzungsplan zum modularen, dynamischen und strategischen Instrument gesamtstädtischer Planung weiterzuentwickeln. Im Fokus der Anpassungen stehen die neue Gesamtstruktur als Portfolio aus zeichnerischen und textlichen, formellen und informellen Bestandteilen, die Integration des Faktors „Zeit“ sowie sonstiger strategischer Aspekte von Stadtentwicklung – begleitet von einem neuen Verständnis vom Ergebnis gesamtstädtischer Planung, nach dem der Flächennutzungsplan nicht mehr als der eine Plan das kanonische Endprodukt darstellt, sondern kontinuierlich und mit seinen diversen Bestandteilen überprüft und fortentwickelt wird.
Im Bereich der Expertensysteme ist das Problemlösen auf der Basis von Fallbeispielen ein derzeit sehr aktuelles Thema. Da sich sehr unterschiedliche Fachgebiete und Disziplinen hiermit auseinandersetzen, existiert allerdings eine entsprechende Vielfalt an Begriffen und Sichten auf fallbasiertes Problemlösen. In diesem Beitrag werden wir einige für das fallbasierte Problemlösen wichtige Begriffe präzisieren bzw. begriffliche Zusammenhänge aufdecken. Die dabei verfolgte Leitlinie ist weniger die, ein vollständiges Begriffsgebäude zu entwickeln, sondern einen ersten Schritt in Richtung eines einfachen Beschreibungsrahmens zu gehen, um damit den Vergleich verschiedener Ansätze und Systeme zu ermöglichen. Auf dieser Basis wird dann der derzeitige Stand der Forschung am Beispiel konkreter Systeme zur fallbasierten Diagnose dargelegt. Den Abschluss bildet eine Darstellung bislang offener Fragen und interessanter Forschungsziele.
Fallbasiertes Schliessen ist ein derzeit viel diskutierter Problemlösesansatz. Dieser Beitrag gibt einen Überblick über den aktuellen Stand der Forschung auf diesem Gebiet, insbesondere im Hinblick auf die Entwicklung von Expertensystemen (einen ersten Schritt in diese Richtung stellte bereits der Beitrag von Bartsch-Spörl, [BS87] dar). Dazu stellen wir die dem fallbasierten Schliessen zugrundeliegenden Mechanismen vor. Ergänzt wird dies durch den Vergleich mit alternativen Verfahren wie z.B. regelbasiertes, analoges und induktives Schliessen sowie eine ausführliche Literaturübersicht.
Die Trends und Entwicklungen, mit denen sich die Weinwirtschaft auf der Konsumentenseite konfrontiert sieht, sind vielfältig. Seit einigen Jahren lässt sich in Deutschland ein Rückgang des Pro-Kopf-Konsums alkoholischer Getränke beobachten. Ein weiterer Trend ist das zunehmende Gesundheitsbewusstsein in der Gesellschaft. Diese und weitere Entwicklungen treiben die Weinbranche an, alkoholfreie und alkoholreduzierte Weine als Produktinnovationen auf dem Markt zu positionieren. Die Dissertation widmet sich einer theoretischen und empirischen Analyse der Zielgruppen sowie der Einflussfaktoren der Innovationsadoption im Kontext alkoholfreier Weine. Sie ist thematisch in das Strukturförderungsprojekt „Weinnova: Innovative Produkte mit verringertem Alkoholgehalt im Segment Wein“ eingebettet, das durch die Europäische Innovationspartnerschaft für landwirtschaftliche Produktivität und Nachhaltigkeit (EIP-AGRI) als Teil des Maßnahmen- und Entwicklungsplans ländlicher Raum Baden-Württemberg (MEPL III) im Zeitraum 2019 bis 2022 gefördert wurde.
Weit ab von Wachstumskernen, raumordnerischen Entwicklungsachsen und ökonomi-scher Wettbewerbsfähigkeit befinden sich peripherisierte Räume in Nord-Thüringen bzw. im südlichen Sachsen-Anhalt. Der dort persistente Transformationsprozess ist durch Abwanderung, mangelnde Investitionen oder überdurchschnittlich hohe Arbeits-losenzahlen gekennzeichnet. Das Dilemma besteht darin, dass die durch nicht selbst verschuldete Abkopplung, Stigmatisierung und Abhängigkeiten gekennzeichneten Kommunen nicht in der Lage sind, durch endogene Kräfte sich neu zu erfinden, was eine Regenerierung möglich machte, um letztendlich in der Wertschöpfungskette den für Investoren derzeit unattraktiven Immobilienmarkt wieder zu beleben. Diese seit mehr als 20 Jahren durchlaufenen Entwicklungspfade wirken sich auf die Siedlungskör-per aus, die in vielen Orten zu perforieren drohen. Es ist festzustellen, dass der Prozess des Niedergangs längst noch nicht abgeschlossen ist.
Soziale Infrastrukturbauten, wie ehemaligen Schulen, Kitas und Krankenhäusern, sind im besonderen Maß von diesen Entwicklungen betroffen. Insbesondere durch den selbst verstärkenden Effekt des demografischen Wandels dienen sie als stadtplanerischer For-schungsgegenstand. Dies vor dem Hintergrund einer möglichen Inwertsetzung als städ-tebauliche Innenentwicklungsstrategie (Anpassung) nach dem diese Immobilien ihre ursprüngliche Nutzung verloren haben. Die Notwendigkeit zum stadtplanerischen Handeln ergibt sich u.a. aus der nicht selten städtebaulich exponierten Lage, als seltene bauliche Zeitzeugnisse auch als Teil eines Ensemble mit kulturhistorischem Wert sowie als Merkpunkte einer gesamtstädtischen bzw. dörflichen Ordnung.
Die Arbeit identifiziert die neuen Herausforderungen, die im Umgang mit leer stehen-den sozialen Infrastrukturbauten in peripherisierten Klein- und Mittelstädten durch die Eigentümer zu bewältigen sind und reflektiert kritisch die Wirksamkeit der informellen sowie formellen planerischen Instrumente. Es werden konkrete Vorschläge gemacht, wie das Immobilienmanagement sowie die Eigentümereinbindung bei sehr stark beru-higten Wohnimmobilienmärkten zu erfolgen hat. Weiterhin werden Strategieansätze des Verwaltungshandelns empfohlen, die auf die speziellen Marktbedingungen abge-stimmt sind.
Neben diesen aus der Theorie gewonnenen Analogieschlüssen zeigen die aus dem Feldexperiment in der o.g. Untersuchungsregion durch umfangreiche Erhebungen ope-rationalisierbare Daten. Aus dieser Dichte der Informationen entstanden valide Aussa-gen, deren Reliabilität in die Entwicklung einer Standortanalysedatenbank einflossen sind. Somit konnte nicht nur die Problemlage objektiv nachgewiesen werden, sondern es gelang auch in der Exploration ein für die Kommunen handhabbares Planungs-instrument zu entwickeln, das auch anderswohin übertragbar ist.
Der vorliegende Arbeits- und Forschungsbericht bietet eine Handreichung für Studiengangsentwickler_innen, um sie bei der Erstellung von Kompetenzprofilen zu unterstützen. Zu diesem Zweck werden drei verschiedene Tools der Kompetenzprofilerstellung vorgestellt. Diese umfassen die Stellenanzeigenanalyse, den Curriculumabgleich und Lehrendeninterviews. Diese Tools haben sich als sehr nützlich für die Entwicklung von kompetenzorientierten Studiengängen erwiesen. Die drei Verfahren werden einander gegenübergestellt und Implikationen für die Praxis abgeleitet. Dieser Bericht soll dazu beitragen, bedarfsorientierte Weiterbildungsangebote für die Region zu gestalten.
Continuous fibre reinforced thermoplastics are a high competitive material class for
diversified applications because of their inherent properties like light-weight construction
potential, integral design, corrosion resistance and high energy absorption level.
Using these materials, one approach towards a large volume scaled part production
rate is covered by an automated process line, consisting of a pressing process for
semi-finised sheet material production, a thermoforming step and some additional
joining technologies. To allow short cycle times in the thermoforming step, the utilised
semi-finished sheet materials, which are often referred to as “organic sheets”, have
to be fully impregnated and consolidated.
Nowadays even this combination of outstanding physical and chemical material
properties combined with the economic processing technology are no guarantee for
the break-through of continuous fibre reinforced thermoplastics, mainly because of
the high material costs for the semi-finished sheet materials. These costs can be attributed
to a non adapted material selection or choice of process parameters, as well
as by unfavourable pressing process type itself.
Therefore the aim of the present investigations was to generate some alternatives
regarding the choice of raw materials, the set-up or the selection of the pressing
process line and to provide some theoretical tools for the determination of process
parameters and dimensions.
Concerning raw material aspects, the use of the blending technology is one promising
approach towards cost reduction for the matrix component. Novel characteristics
related to the fibre structure are CF-yarns with high filament numbers (e.g. 6K or 12K instead of 3K) or multiaxial fibre orientations. These two approaches were both conducted
for sheet materials with carbon fibre reinforcement and high temperature
thermoplastics.
Two new developed ternary blend matrices consisting of PEEK and PEI as the main
ingredients were tested in comparison with neat PEEK. PES and PSU were used as
the third blend component, which provides a cost reduction potential of approximately
30 % compared to the basis PEEK polymer. The results of the static pressing experiments
pointed out that the processing behaviour of the new blends is similar to
the neat PEEK matrix. A maximum process temperature of 410 °C should not be surpassed, otherwise thermal degradation will occur and will have a negative influence
on mechanical laminat properties. To accelerate the impregnation progress a
process pressure of 25 bar in combination with a sidewise opened tooling concept is
helpful. No differences were identified if film-stacking technique was substituted by
powder-prepreg-technology or vice versa. By increasing the yarn filament number
from 3K over 6K to 12K, which is equal to an increase in bundle diameter and therefore
transverse flow distance, the impregnation time has to be extended. If unspread
yarns are used, the risk of void entrapment rises tremendously, especially with 12K
and UD-structures. To reach full impregnation with a woven 6K-fabric, an increase of
process time of 20 to 30 % compared to a 3K textile structure is required. Furthermore,
it was shown that if only transverse flow is used for the impregnation of a UDstructure,
a maximum area weight of 300-400 g/m² should not be exceeded. Additionally,
the transport of air is strictly affected by the fibre orientation, because the
main amount of displaced air runs in longitudinal fibre direction. These facts play an
important role in the design of a multaxial laminat or an impregnation process for
such a structure and have to be taken into account.
Apart from these static pressing experiments the semi-continuous (stepwise compression
moulding) and continuous (double belt press processing) processing technology
were investigated and compared to each other. The first basic processing
trails on the stepwise compression moulding equipment were carried out with the material
system GF/PA66. Whereas the processing behaviour of this material combination
in a double belt press is known quite well, there is only little information about
semi-continuous processing. The performed trials pointed out that the resulting laminate
quality for both technologies only differs in the achievable local surface quality.
Mechanical laminate properties like three point bending stiffness and strength are
directly comparable. Due to the fact that there is only small experience with the stepwise
compression moulding process, potential improvements regarding surface Quality are feasible by adapting the step procedure and the temperature distribution within
the tooling concept. If laminates, produced by semi-continuous processing, are deployed
in a thermoforming process or in a non visible structural application, the surface
appearance only plays an inferior role.
The present results with high temperature thermoplastic matrices and CF do confirm
the positive assessment for the stepwise compression moulding technology, even though the mechanical laminate values have only reached 90 % of the data received
by static press processing. In comparison to the data from literature, 90 % is already
a high mechanical performance level. The results are quite promising for the use of
the semi-continuous technology, despite the process set-up and processing parameters
not being optimised. Furthermore there are tremendous advantages in processing
equipment costs.
Finally a process model was developed based on the experimental data pool. This
model can be characterised as a tool, which provides useful boundary conditions and
dimension values for the selection of a certain pressing process depending on the
desired material combination, laminate thickness and production output. The applicability
and accuracy of the model was proofed by a direct comparison between experimental
and calculated data.
First of all the temperature profile of the pressing process was generalised by a very
common structure. This profile reflects the main characteristics for the processing of
a thermoplastic composite material. Depending on the material combination, the
laminate thickness and the occurring heat transfers, several process- and processing-
portfolios were calculated. For a defined combination of the aforementioned parameters,
these portfolios directly provide the periods of time for heating and cooling
of the laminate structure. The last step is to convert these information into an equipment
dimension and to decide which machinery configuration fulfils these requirements.
Im vorliegenden Bericht werden die Erfahrungen und Ergebnisse aus dem Projekt OptCast zusammengestellt. Das Ziel dieses Projekts bestand (a) in der Anpassung der Methodik der automatischen Strukturoptimierung für Gussteile und (b) in der Entwicklung und Bereitstellung von gießereispezifischen Optimierungstools für Gießereien und Ingenieurbüros. Gießtechnische Restriktionen lassen sich nicht vollständig auf geometrische Restriktionen reduzieren, da die lokalen Eigenschaften nicht nur von der geometrischen Form des Gussteils, sondern auch vom verwendeten Material abhängen. Sie sind jedoch über eine Gießsimulation (Erstarrungssimulation und Eigenspannungsanalyse) adäquat erfassbar. Wegen dieser Erkenntnis wurde ein neuartiges Topologieoptimierungsverfahren unter Verwendung der Level-Set-Technik entwickelt, bei dem keine variable Dichte des Materials eingeführt wird. In jeder Iteration wird ein scharfer Rand des Bauteils berechnet. Somit ist die Gießsimulation in den iterativen Optimierungsprozess integrierbar.
Beim Bauen im Bestand werden häufig neue Stahlbetonbauteile kraftschlüssig an bestehende Tragstrukturen angeschlossen. Dies wird bei Ortbetonbauteilen günstig mit dem Übergreifungsstoß realisiert.
Bis Ende der 1950-er Jahre wurden im Stahlbetonbau überwiegend glatte Betonstähle verwendet, bevor sie mit einer Übergangszeit bis Ende der 1970-er Jahre von den heute eingesetzten gerippten Betonstählen abgelöst wurden. Im Gegensatz zu den seit 1925 genormten Übergreifungsstößen mit Betonstählen gleicher Art und Güte sind kombinierte Übergreifungsstöße von Glatt- und Rippenstählen jedoch bis heute nicht geregelt.
Zur Beseitigung dieses Defizits wurden im Rahmen dieser Arbeit differenzierte Bewehrungsregeln hergeleitet, die wissenschaftlich abgesicherte und gleichzeitig wirtschaftliche Lösungen für kombinierte Übergreifungsstöße ermöglichen, denn unter Einbeziehung des Rückbaus bestehender Altbetonsubstanz verlangt eine ökonomische Bauweise für Übergreifungsstöße von freigelegten historischen Glattstählen mit aktuell verwendeten Rippenstählen nach Vollstößen mit kleinstmöglichen Übergreifungslängen. Dabei sind die Anforderungen nach heute gültigem Regelwerk an die Zuverlässigkeit gegen Versagen im Grenzzustand der Tragfähigkeit (GZT) und die Sicherstellung der vorgegebenen Nutzung durch Begrenzung der Rissbreiten im Grenzzustand der Gebrauchstauglichkeit (GZG) zu beachten.
Für verschiedene kombinierte Übergreifungsstöße von mit Endhaken versehenen glatten Betonstählen BStI und gerippten Betonstählen B500 mit geraden Stabenden oder Endhaken wurden die erforderlichen Übergreifungslängen anhand systematisch aufgebauter Versuchsreihen empirisch ermittelt. Dabei wurde ein grundlegendes Verständnis für die Tragwirkung kombinierter Übergreifungsstöße gewonnen und ein allgemeingültiges Lastübertragungsmodell erarbeitet.
Zur Bemessung kombinierter Übergreifungsstöße wurde weiter ein Ingenieurmodell abgeleitet, welches die Tragwirkung derartiger Stöße zuverlässig beschreibt und die experimentell ermittelten Übergreifungslängen bestätigt. Dabei wurde unter Berücksichtigung der für den Verbund maßgebenden Betonzugfestigkeit, der Stahlspannungen und den Stabdurchmessern auf Basis statistischer Methoden ein Bemessungsdiagramm für die erforderliche Übergreifungslänge bestimmter Stoßkombinationen erarbeitet und eine ergänzende FE-Modellierung durchgeführt.
Darauf aufbauend werden allgemeingültige Gleichungen zur Ermittlung der Bemessungswerte der Übergreifungslängen kombinierter Übergreifungsstöße mit Glattstahl BStI und Rippenstahl B500 angegeben und Konstruktionsregeln für in der Praxis regelmäßig vorkommende Kombinationen von Stabdurchmessern, Betongüten und Verbundbedingungen erarbeitet, die für Kombi-Stöße gleichwertig zu den Regeln des EC2 für den Neubaufall angewendet werden können.
Die vorliegende Masterarbeit befasst sich mit der kulturellen Partizipation der einwandernden Bewölkerung an kulturellen Entwicklungsprozessen in deutschen Städten. Zum
einen fokussiert sich die Masterarbeit auf die Kulturorganisationen des sogenannten Dritten Sektors und den Nutzen, den diese durch einen besseren Zugang Neuzugewanderter in der Stadt zum Kulturangebot ziehen können. Es wird der Frage nachgegangen, wie die Einbindung der Bevölkerung mit Zuwanderungsgeschichte in die Kulturarbeit optimiert werden kann. Das könnte für lokale Kulturanbieter den Anschluss
an ein neues Publikum bedeuten und sich also positiv auf die Einnahmen auswirken.
Ein weiterer bedeutender Faktor, der damit in Verbindung stehen kann, ist das künstlerische Potenzial, das einzelne der neuen Stadtbürger womöglich mitbringen. Ein besserer
Zugang zu dieser Zielgruppe könnte für Kulturorganisationen auch gleichzeitig ein Durchbruch zu anderen Kunst- und Kulturtraditionen bedeuten. Es könnten andere Themen herausgearbeitet werden und das Programmangebot innovativer ausfallen.
Die kulturelle Einbindung Neuzugewanderter setzt aber eine intensive Auseinandersetzung
mit der soeben skizzierten Thematik voraus, für die Ressourcen wie Zeit notwendig
sind, aber auch die Bereitschaft, neue Wege einzuschlagen. Insofern erscheint es als zwingend notwendig, die kulturellen Bedürfnisse dieser Bevölkerungsgruppe zu erkunden, was als eine zentrale Aufgabe dieser Arbeit angesehen wird.
Durch den kontinuierlichen Anstieg von aussortierten, nicht mehr verwendbaren Fast Fashion Produkten wird die Textilbranche zu einem allgegenwärtigen Problem in der heutigen Gesellschaft. Ein Bericht der Ellen MacArthur Foundation zeigte auf, dass bisher weniger als 1% des für die Herstellung von Kleidung verwendeten Materials recycelt wird. Um die Wiederverwendung und -verwertung von Kleidung zu ermöglichen, müssen weitreichende Veränderungen innerhalb der Textilindustrie stattfinden, aber sich auch das Verhalten von Konsumenten verändern.
Diese Arbeit soll deshalb die zentrale Fragestellung untersuchen, welche Maßnahmen unter Berücksichtigung des aktuellen Konsumentenverhaltens notwendig sind, um die Post-Verwendung von Kleidung nachhaltiger zu gestalten. In der vorliegenden Arbeit werden neue Erkenntnisse durch einen Mixed-Methods-Ansatz gewonnen. Um das Konsumentenverhalten hinsichtlich des Kleidungskonsums sowie der Verwendung und Verwertung von Gebrauchtkleidung beleuchten zu können, wird eine quantitative Online-Umfrage erstellt und durchgeführt. Im Zuge der Interpretation der quantitativen Forschung unterstützen zwei qualitative Experteninterviews den Erkenntnisgewinn. Darüber hinaus geben diese inhaltliche Unterstützung, um weitere Lösungsansätze für ein erfolgreiches Textilrecycling zu entwickeln. Der theoretische Rahmen der Arbeit wird durch eine Literaturrecherche unterstützt.
Die Zielsetzung dieser Arbeit bestand in der Entwicklung effizienter und nachhaltiger Verfahren zur Addition von N-H Nukleophilen an terminale Alkine und für die Insertion von CO2 in die C-H Bindung terminaler Alkine.
Im ersten Teil dieser Dissertation wurde der Mechanismus der Ruthenium-katalysierten Addition von Amiden an terminale Alkine eingehend durch eine Kombination von Kontrollexperimenten, kinetischen Studien, spektroskopischen Untersuchungen und theoretischen Berechnungen untersucht. Zunächst wurden vier literaturbekannte Katalysezyklen identifiziert, die plausible Mechanismen für die Hydroamidierung terminaler Alkine darstellen. Aufbauend auf nachgewiesenen Elementarschritten chemisch verwandter Reaktionen wurde zusätzlich ein weiterer Mechanismus für die Hydroamidierung abgeleitet. Anschließend wurde eine Reihe von Kontrollexperimenten durchgeführt, mit deren Hilfe einzelne Elementarschritte der Katalysezyklen falsifiziert und somit Mechanismen ausgeschlossen werden konnten. Um herauszufinden, ob die Hydroamidierung mit dem einzig verbliebenen Mechanismus zutreffend beschrieben werden kann, wurden spektroskopische Studien durchgeführt. Diese Untersuchungen wurden vor, während und nach Hydroamidierungstestreaktionen durchgeführt, und auf diese Weise konnten zahlreiche postulierte Intermediate nachgewiesen und der verbleibende Katalysezyklus bekräftigt werden. Die in diesen mechanistischen Studien gewonnenen Erkenntnisse wurden zur Entwicklung einer neuen Katalysatorgeneration mit ausgesprochen hoher Selektivität für die Bildung wertvoller Z-Enamide und Z-Enimide genutzt. Das synthetische Potential wurde zudem durch die Darstellung der biologisch aktiven Naturstoffe Lansiumamid A und B, Lansamid I sowie Botryllamid C und E demonstriert.
Im zweiten Teil dieser Arbeit gelang es, hocheffiziente Silber(I)/DMSO-katalysierte Methoden zur Carboxylierung terminaler Alkine mit CO2 bei Normaldruck zu entwickeln.
Der vorliegende Bericht stellt zunächst die Ausgangslage, die Bedarfe für eine erweiterte gemeindenahe Pflege und allgemeine Überlegungen zu einem partizipativen Forschungsprojekt in der Region Westpfalz im Kontext des Projektes E-hoch-B – Pflege und Gesundheit dar. Daran anschließend wird die Konzeption des partizipativen Forschungsprojekts präsentiert. Diese umfasst Überlegungen zur Bildung von Forschungsgruppen lokaler Akteure und einer Beratungsgruppe, sowie die Beschreibung der jeweiligen Rollen der beteiligten Personen, Vorstellungen zum zeitlichen Ablauf und mögliche zu bearbeitende Fragestellungen.
Das Problem der Integration heterogener Softwaresysteme stellt sich auch auf dem Gebiet der CAx-Systeme, wie sie in vielfältigen Ausprägungen etwa in der Automobilbranche für die Fahrzeugentwicklung eingesetzt werden. Zunächst werden die heute in diesem Bereich
praktizierten Lösungen und die dabei auftretenden Probleme kurz dargestellt. Danach werden der neue Standard für Produktdaten, STEP, und der Standard für die Interoperabilität heterogener Softwaresysteme, CORBA, sowie einige CORBA-Entwurfsmuster erläutert. Als nächstes wird eine auf diesen beiden Standards basierende CAx-Integrationsarchitektur, die im Projekt ANICA entwickelt wurde, vorgestellt und die prinzipielle Vorgehensweise bei
ihrer Realisierung beschrieben. Daran anschließend wird über eine erste Umsetzung dieser Architektur in die Praxis berichtet. Zum Abschluß wird kurz auf die gewonnenen Erfahrungen eingegangen und ein Ausblick auf zukünftige Entwicklungen gegeben.
Der Trend der letzten Jahre im CAx-Bereich geht eindeutig in Richtung 3D-Modellierung. Der Einsatz dieser Technologie ist jedoch erst dann wirtschaftlich sinnvoll, wenn die generierten Daten nicht ausschließlich als Ersatz für 2D-Zeichnungen dienen, sondern während des gesamten Produkt-entstehungsprozesses eingesetzt werden und auf diese Weise Datendurchgängigkeit gewährleistet wird. Mittlerweile wird ein umfangreiches Spektrum von Anwendungen eingesetzt. Beispielhaft sei-en hier Berechnungs- und Simulationsprogramme oder die 3D-Produktvisualisierung in nicht-technischen Bereichen (z. B. Marketing, Vertrieb) genannt. Viele CA-Systeme bieten zwar eine große Auswahl an Modulen für nahezu alle Bereiche der Produktentwicklung, allerdings ist kein System, unabhängig von seiner Komplexität, in der Lage, alle Anforderungen seiner Anwender zu erfüllen. Deshalb kommen in immer größerem Umfang spezielle Programme für individuelle Probleme zum Einsatz. Der Anwender sieht sich jedoch mit Schwierigkeiten konfrontiert, wenn er versucht, für spezielle Probleme spezielle Anwendungen unterschiedlicher Systemhersteller einzusetzen. Um die Integrati-on der verschiedenen Programme zu ermöglichen, muß er sich auf neutrale Standardschnittstellen für den Produktdatenaustausch (IGES, VDAFS, STEP) verlassen, wobei hier mit Informationsverlusten zu rechnen ist. Außerdem muß er sich mit differierenden Benutzerführungen vertraut machen. Im Bewußtsein dieser Probleme entwickelte die Arbeitsgruppe "CAD/CAM-Strategien der deut-schen Automobilindustrie" einen Vorschlag für eine offene CAx-Systemarchitektur /1/, /2/, /3/. Diese sollte in der Lage sein, alle CAx-Komponenten, die im Laufe des Produktent-stehungsprozesses verwendet werden, zu integrieren. Es sollte unter anderem die folgenden Anforderungen erfüllen: ° Offenheit ° Interoperabilität ° Investitionssicherheit ° Aufhebung der Zwangsbindung des Anwenders an einen Systemhersteller ° Vermeidung redundanter Systeme Die Berücksichtigung der internationalen Standards STEP für den Bereich der Produktdatenmo-dellierung und CORBA für den Bereich der verteilten objektorientierten Systeme, die in den folgen-den Abschnitten kurz dargestellt sind, war für die Erfüllung dieser Anforderungen eine wichtige Voraussetzung
Die virtuelle Produktentwicklung in verteilter Umgebung erfordert eine intensive Kommunika-tion zwischen den beteiligten CAx-Systemen. Diese findet bisher in Form des dateibasierten Datenaustausches mit Hilfe von Direktkonvertern oder neutralen Schnittstellen statt. Der Datenaustausch wird hierbei meist in mehreren Iterationsschleifen durchgeführt und ist oft mit Datenverlusten sowie Unterbrechungen der Entwicklungsaktivitäten verbunden. Demgegenüber steht als neuer Ansatz für die Interoperabilität zwischen CAx-Systemen das Konzept eines CAx-Objektbusses auf Basis von CORBA und STEP. Dieser Ansatz ermög-licht eine plattformübergreifende Online-Kopplung heterogener CAx-Systeme. Im Gegensatz zum dateibasierten Datenaustausch ist hierbei ein transparenter Zugriff sowohl auf Daten als auch auf Funktionen der angebundenen Systeme möglich. Dadurch kann die Durchgängigkeit der Produktdaten in der Prozeßkette deutlich erhöht werden. Zur Beurteilung der Praxistauglichkeit wird dieser neue Ansatz dem dateibasierten Daten-austausch am Beispiel virtueller Einbauuntersuchungen gegenübergestellt. Dabei werden für unterschiedliche praxisrelevante Modellgrößen die für die Übertragung von Geometrie und Topologie erforderlichen Zeiten analysiert und verglichen. Weiterhin werden die generellen Vor- und Nachteile der beiden Lösungen dargestellt. Abschließend wird auf die Potentiale des neuen Ansatzes für den Einsatz in anderen Bereichen eingegangen.
Einfluss verschiedener Angussszenarien auf den Harzinjektionsprozess und dessen simulative Abbildung
(2014)
Die Herstellung von hochleistungs Kunststoff Verbunden für Strukturbauteile erfolgt
in der Automobilindustrie mittels Resin Transfer Molding (RTM), wobei die Kosten für
die Bauteile sehr hoch sind. Die Kosten müssen durch Prozessoptimierungen deutlich
reduziert werden, um eine breite Anwendung von faserverstärkten Kunststoff
Verbunde zu ermöglichen. Prozesssimulationen spielen hierbei eine entscheidende
Rolle, da zeitaufwendige und kostspielige Praxisversuche ersetzt werden können.
Aus diesem Grund wurden in dieser Arbeit die Potentiale der simulativen Abbbildung
des RTM-Prozesses untersucht. Basis der Simulationen bildete eine umfangreiche
Materialparameterstudie bei der die Permeabilität, von für die Automobilindustrie relevanten
Textilhalbzeugen im ungescherten und gescherten Zustand, untersucht
wurde. Somit konnte der Einfluss von Drapierung bei der Fließsimulation evaluiert
werden. Zudem wurde eine neue Methode zur Ermittlung der zeit-, vernetzungs- und
temperaturabhängigen Viskositätsverläufe von hochreaktiven Harzsystemen entwickelt
und angewendet. Die Fließsimulationsmethode wurde zunächst erfolgreich an
einem ebenen Plattenwerkzeug validiert, um zu zeigen, dass die ermittelten Materialparameter
korrekt bestimmt wurden.
Zur Validierung der Simulation wurde ein komplexes Technologieträgerwerkzeug
(TTW) entwickelt. Die Auslegung der Temperierung wurde mittels Temperiersimulationen
unterstützt. Untersuchungen an markanten Kantenbereichen, wie sie bei Automobilbauteilen
häufig auftreten, haben gezeigt, dass bei Kantenradien < 5 mm ein
Voreilen des Harzsystem zu beachten ist. Zudem konnte mittels verschiedener Angussleisten,
der Einfluss verschiedener Angussszenarien untersucht werden.
Mit Hilfe von Sensoren im TTW wurden die Prozessdaten protokolliert und anschließend
mit den Simulationen verglichen. Die Ergebnisse zeigen, dass die simulative
Abbildung des Füllprozesses bei einem komplexen RTM-Werkzeug, trotz einer Vielzahl
an Prozesseinflüssen, möglich ist. Die Abweichungen zwischen der Simulation
und dem Versuch lagen teilweise unter 15 %. Die Belastbarkeit der ermittelten Permeabilitäts-
und Viskositätswerte wurde dadurch nochmals bestätigt. Zudem zeigte
sich, dass die Angussleistenlänge einen signifikanten Einfluss auf die Prozesszeit
hat, wohingegen der Angussleistenquerschnitt eine untergeordnete Rolle spielt.
Die Versorgungsaufgaben für Niederspannungsnetze werden sich in den kommenden Jahrzehnten durch die weitere Verbreitung von Photovoltaikanlagen, Wärmepumpenheizungen und Elektroautomobilen gegenüber denen des Jahres 2018 voraussichtlich stark ändern. In der Praxis verbreitete Planungsgrundsätze für den Neubau von Niederspannungsnetzen sind veraltet, denn sie stammen vielfach in ihren Grundzügen aus Zeiten, in denen die neuen Lasten und Einspeisungen nicht erwartet und dementsprechend nicht berücksichtigt wurden. Der Bedarf für neue Planungsgrundsätze fällt zeitlich mit der Verfügbarkeit regelbarer Ortsnetztransformatoren (rONT) zusammen, die zur Verbesserung der Spannungsverhältnisse im Netz eingesetzt werden können. Die hier entwickelten neuen Planungsgrundsätze erfordern für ländliche und vorstädtische Versorgungsaufgaben (nicht jedoch für städtische Versorgungsaufgaben) den rONT-Einsatz, um die hohen erwarteten Leistungen des Jahres 2040 zu geringen Kosten beherrschen zu können. Eine geeignete rONT-Standardregelkennlinie wird angegeben. In allen Fällen werden abschnittsweise parallelverlegte Kabel mit dem Querschnitt 240 mm² empfohlen.
Kulturpolitik erlebt einen Aufschwung in Deutschland – steigende Etats, eine zugebilligte Funktion als Allheilmittel eine wachsende Relevanz in der Wissenschaft sowie eine Charakterisierung als wirtschafts- und arbeitsmarktpolitischer Faktor sind Ausdruck einer zunehmenden Bedeutsamkeit.
Gleichzeitig steht die Kulturpolitik vor wachsenden Herausforderungen in der Ausfinanzierung eines Kulturbetriebs, der Bewältigung eines digitalen und demografischen Wandels, einer sich verstetigenden Teilhabe-Ungerechtigkeit sowie einer sich in einem Rechtfertigungskonsens ausdrückenden Legitimationskrise.
Diese Kontroverse begünstigt den Einsatz konzeptbasierter Kulturpolitik als Qualitätsmerkmal der Kulturpolitik zu deren renommiertesten Komponenten ein Kulturentwicklungsplan (KEP) zählt.
Die Messung und Deutung der kommunalen Unterschiede in der Intensität konzeptbasierter Kulturpolitik, die empirische Erforschung der für die Intensitätsunterschiede verantwortlichen Ursachen sowie die Untersuchung der Wirkung konzeptbasierter Kulturpolitik sind Gegenstand der Dissertation.
Insbesondere bei der industriellen Nutzung tiefer geothermischer Systeme gibt es Risiken, die im Hinblick auf eine zukunftsträchtige Rolle der Ressource "Geothermie" innerhalb der Energiebranche eingeschätzt und minimiert werden müssen. Zur Förderung und Unterstützung dieses Prozesses kann die Mathematik einen entscheidenden Beitrag leisten. Um dies voranzutreiben haben wir zur Charakterisierung tiefer geothermischer Systeme ein Säulenmodell entwickelt, das die Bereiche Exploration, Bau und Produktion näher beleuchtet. Im Speziellen beinhalten die Säulen: Seismische Erkundung, Gravimetrie/Geomagnetik, Transportprozesse, Spannungsfeld.
Im Rahmen dieser Arbeit wird gezeigt, daß Frauen sowohl durch die Gesetzgebung als auch durch arbeitsmarktpolitische und steuerliche Rahmenbedingungen benachteiligt werden. Es stellt sich die Frage, inwieweit eine Verbesserung der Altersversorgung für die Frau vorgenommen werden kann. Dabei muß eine verbesserte und an die Bedürfnisse der Frauen angepaßte Altersvorsorge nicht unbedingt auf die bestehende gesetzliche Rentenversicherung (GRV) aufbauen.
Die Bestanderhaltung historischer Bauwerke bedarf gründlicher Voruntersuchung, Qualitätskontrolle und Bauwerksüberwachung, um die Eingriffe in die Denkmalsubstanz zu minimieren und Folgeschäden zu vermeiden. Zerstörungsfreie Prüfmethoden und numerische Modellierungsverfahren bieten heute bewährte und neue Möglichkeiten, gesicherte Kenntnisse über die Bauwerke und die altersbedingten Veränderungen ihrer Baumaterialien zu erzielen und gleichzeitig die Eingriffe für Materialentnahmen und Bauwerksöffnungen zu minimieren. Anhand von Fallbeispielen werden aktuelle Forschungsergebnisse präsentiert. Georadarmessungen werden mit theoretischen Modellierungen kombiniert, um gemessene Anomalien in Materialparametern zu begründen. Moderne Anforderungen wie die energetische Sanierung historischer Gebäude werfen neue Problemfelder auf, für die anhand von Modellierungen des Wärme- und Feuchtetransports Antworten gefunden werden. Die Weiterentwicklung von Ultraschallmesstechnik und Signalauswertung ermöglicht neue Anwendungen bei der Untersuchung verwitterter Sandsteinoberflächen mittels Rayleighwellen.
Das primäre Ziel der vorliegenden Dissertation war es, vertiefte Kenntnisse über die Luftpermeabilität von ultrahochfesten Betonen (engl. UHPC) zu erlangen. Auf Grundlage von experimentellen Untersuchungen wurden herstellungsbedingte sowie lagerungsbedingte Parameter erforscht, welche die Luftpermeabilität beeinflussen können. Von einem großen Interesse bei diesen Untersuchungen war die Beobachtung der Permeabilitätsänderung über die Zeit an drei UHPC-Mischungen mit verschiedenen Zusammensetzungen bei unterschiedlichem Betonalter (28, 90, 180 und 365 Tage). Darüber hinaus wurden potenzielle Korrelationen zwischen der Permeabilität und anderen Kennwerten des UHPC untersucht. Für die experimentellen Untersuchungen wurde ein neu an der Technischen Universität Kaiserslautern entwickeltes und validiertes Messverfahren zur Bestimmung des Permeabilitätskoeffizienten ultrahochfester Betone verwendet.
Insgesamt zeigten die Untersuchungsergebnisse, dass sowohl die Wärmebehandlung als auch die Wasserlagerung effiziente Maßnahmen zur Permeabilitätsreduktion sind. Die Untersuchungen zum Langzeitverhalten (bis 365 Tagen) deuteten auf einen wesentlichen Zusammenhang zwischen der Permeabilität und der vorgenommenen Nachbehandlung im jungen Betonalter (28 Tage) hin. Darüber hinaus nahm die Permeabilität unter Frost-Tau-Beanspruchung ab, was den hohen Widerstand von UHPC gegenüber solchen Expositionen erklärt.
Die hervorragenden Eigenschaften von UHPC eröffnen ein breites Spektrum neuer Anwendungsgebiete. Die sehr niedrige Luftdurchlässigkeit von UHPC ermöglicht dessen Verwendung im Bereich der Vakuumisolationspaneele (VIP). Diese Art der Vakuumdämmung weist ca. 1/5 bis 1/10 der Wärmeleitfähigkeit im Vergleich zu konventionellen Dämmungen auf, bei gleichzeitig sehr geringer Dicke (2 – 3 cm). Infolge des im Paneel erzeugten Vakuums wird der Wärmetransport durch Strahlung, Konvektion und Wärmeleitung wesentlich behindert. Auf der Grundlage der aus den experimentellen Untersuchungen gewonnenen Permeabilitätswerte wurde eine kritische Beurteilung der Anwendbarkeit von UHPC als vakuumisoliertes Element vorgenommen.
Nachhaltige Chemie beinhaltet die Nutzung stofflicher Ressourcen und deren Umwandlung ohne Schaden für zukünftige Generationen. Dabei hat sich insbesondere die Katalyse als nützliche Technologie etabliert, durch die Syntheserouten zu hochwertigen Produkten abgekürzt und dabei die CO2-Bilanz des Gesamtprozesses verbessert wird. Im Rahmen dieser Dissertation wurden nachhaltige, homogen-katalytische Prozesse zur Einbindung nachwachsender Rohstoffe in die chemische Wertschöpfungskette und zur abfallminimierten Synthese von Amiden und Peptiden entwickelt.
Im ersten Teil dieser Arbeit wurde die isomerisierende Metathese als Methode zur Valorisierung nachwachsender Rohstoffe etabliert. Mit einem bimetallischen Katalysatorsystem, bestehend aus dem Isomerisierungskatalysator [Pd(µ-Br)(tBu3P)]2 und NHC-basierten Ruthenium-Metathesekatalysatoren, werden Doppelbindungen ungesättigter Verbindungen kontinuierlich entlang der Kohlenwasserstoffkette verschoben und können gleichzeitig, ungeachtet ihrer Position, eine Metathese durchlaufen. Dies erlaubt die Umwandlung von zwei unterschiedlichen Olefinen in ein Gemisch mit homogener Produktverteilung und einstellbarer mittlerer Kettenlänge. Das synthetische Potential dieser Transformation wurde anhand der Darstellung von Dieselersatzkraftstoffen demonstriert, die vollständig auf erneuerbaren Ressourcen basieren und aufgrund ihres Siedeverhaltens in modernen Motoren in unverdünnter Form eingesetzt werden können. Der neu entwickelte Tandemprozess ermöglicht weiterhin die gezielte Kürzung olefinischer Seitenketten in Gegenwart von Ethen. Die isomerisierende Ethenolyse der natürlich vorkommenden Allylbenzole Eugenol, Allylanisol, Safrol und Methyleugenol wurde zur Synthese wertvoller Styrole mit komplexen Substitutionsmustern eingesetzt. Die isomerisierende Ethenolyse stellt außerdem die Schlüsseltechnologie zur Valorisierung von Cashew-Nussschalenöl dar. Ausgehend von dem bisher ungenutzten Abfallstoff wurde die Synthese der Tsetsefliegen-Lockstoffe 3-Ethyl- und 3-Propylphenol sowie des Polymervorläufers 3,3’-Hydroxystilben demonstriert.
Der zweite Teil dieser Doktorarbeit umfasste die rationale Entwicklung einer abfallminimierten und umweltfreundlichen Methode zur Synthese von Amiden aus Carbonsäuren und Aminen. Dazu wurde ein hocheffektives, luft- und wasserstabiles Ru(IV)-Katalysatorsystem identifiziert, das die Addition von Carbonsäuren an Alkine unter Bildung von Enolestern sowie die weitere Umsetzung dieser Aktivester mit Aminen zu Amiden vermittelt. Ein einstufiges Eintopf-Verfahren zur Synthese von Amiden, bei dem alle Reagenzien zu Beginn der Reaktion zugegeben werden, wurde unter Verwendung von Ethoxyacetylen als Aktivierungsreagenz entwickelt. Hierbei werden die Carbonsäuren in Gegenwart eines Amins intermediär in hochreaktive Ketenacetale überführt, die nach Aminolyse die entsprechenden Amide in sehr guten Ausbeuten liefern. Die Anwendungsbreite dieses milden Reaktionsprotokolls umfasst aliphatische und aromatische Carbonsäuren sowie N- und C terminal geschützten Aminosäuren.
In diesem technischen Bericht werden drei Aufgaben zur Prüfung bzw. zur Beanspruchung unterschiedlicher Facetten der Arbeitsgedächtniskapazität beschrieben. Die Aufgaben beruhen zum Teil auf Material von Oberauer (1993) sowie Oberauer et al. (2000, 2003). Sie wurden in RSVP programmiert und sind auf Apple-Macintosh-Rechnern lauffähig. Die Aufgaben eignen sich zur computerunterstützten Erfassung oder Beanspruchung der Arbeitsgedächtniskapazität im Einzelversuch, teilweise auch im Gruppenversuch und werden hauptsächlich in Forschungskontexten benutzt. Für jede Aufgabe werden das Konzept, die Durchführung, Auswertungs- und Anwendungsmöglichkeiten sowie gegebenenfalls Vergleichsdaten geschildert.
Die Aufgabe dieses Projektes ist die Untersuchung des Schallfeldes, das sich in einem geschlossenen Quader bei Erregung durch eine punktförmige Schallquelle einstellt. Eine zentrale Rolle spielt hierbei die Wechselwirkung zwischen dem Schallfeld und den Quaderplatten, die zu Schwingungen angeregt werden und so dem Schallfeld Energie entziehen. Der Zweck dieser Untersuchung ist, Erkenntnisse für die Berechnung des Innendrucks zu Fahrzeugkarosserien zu gewinnen. Dies muß bei der Dimensionierung des Quaders und bei der Wahl des Plattenmaterials berücksichtigt werden. Numerische Berechnungen des Schalldrucks in einem Quader wurden beispielsweise in [1] durchgeführt. Das Ergebnis zeigt, daß zwei Arten von Resonanzen auftreten: Zum einen Strukturresonanzen, die durch Eigenschwingungen der Wände hervorgerufen werden und die von den Wandabmessungen und dem Plattenmaterial abhängen, zum anderen Hohlraumresonanzen, die auftreten, wenn die Luftwellenlänge in einem geeigneten Verhältnis zu den Abmessungen des Hohlraums steht. Es ist sehr zweifelhaft, welche Rückschlüsse gezogen werden können von den numerischen Resultaten in [1] auf kompliziertere Geometrien, wie sie bei Fahrzeugkarosserien vorliegen. Eine tiefere Einsicht in die Kopplung zwischen Schallfeld und Plattenschwingungen vor allem in den Resonanzbereichen ist nur zu erwarten, wenn die Berechnung dieser Wechselwirkung weitgehend analytisch durchgeführt wird. Eine solche analytische Berechnung ist das Ziel dieses Projektes.
Liquid Composite Molding (LCM) processes, like Resin Transfer Molding (RTM) and Vacuum Assisted Resin Infusion (VARI), are gaining increasing interest for the cost-efficient production of fiber reinforced polymer matrix composites, e. g. Airbus A380 rear bulkhead. Meanwhile, purpose-built thermoset resin systems with adequately low processing viscosities are available. Although showing a better fatigue resistance composites from epoxy resins (EP) tend to be expensive while vinylester resin (VE) composites are more brittle and, hence, less fatigue resistant but attract due to their lower material costs. Following research on the toughness improvement of vinylester based resin systems, one subject of this thesis was the broad experimental characterization of the static and cyclic behavior of carbon fiber reinforced composites from resin systems which were toughened by either the generation of interpenetrating networks with aliphatic (Al-EP) and cyclo-aliphatic epoxy resins (Cal-EP) or by addition of a liquid, epoxy-terminated butadiene-nitrile rubber (ETBN). While quasi-static in-plane tension, compression and shear testing of [0°]8 and [±45°]3S laminates resulted in an unclear picture with regard to the mechanical performance of the investigated resin systems, R = -1 cyclic step loading provided a definite indication of the considerably higher cyclic fatigue strength of the modified carbon fiber reinforced vinylester-urethane (CF/VEUH:ETBN) composite which, consequently, was selected for detailed mechanical testing. To provide experimental input for subsequent fatigue life simulations applying the Critical Element Concept of Reifsnider et al. [76] the study included the determination of ultimate in-plane tension, compression and shear properties as well as the characterization of the cyclic fatigue behavior under constant amplitude loading. Different descriptions of S-N curves of the [0°]8-, [0°/90°]2S- and [+45°/0°/-45°/90°]S-laminates for R = +0.1, -1 and +10 were determined to derive constant fatigue life diagrams applying methods of Goodman or Harris et al. Furthermore the residual strength degradation model for the critical element (0° ply) and the residual stiffness degradation models for the sub-critical elements have been derived by experimental determination on [0°]8-, [0°/90°]2S- and [+45°/0°/-45°/90°]S-(CF/VEUH:ETBN)-laminates. Deficiencies in current fatigue life time prediction modeling for carbon fiber reinforced materials nowadays results in large factors of safety to be adopted. As a consequence composite structures are often overdesigned and expensive proto-type testing is required for life time prediction. Therefore, in this thesis standardized random-ordered miniTWIST (minimized transport wing standard) spectrum loading was used to understand improvements in fatigue life modeling so that fatigue life prediction results in a more efficient use of these materials. In particular the influence of constant amplitude cyclic fatigue modeling as well as constant fatigue life modeling itself on the results of the fatigue life analysis of random loading sequences have been investigated. Finally the bearing of residual strength or residual stiffness degradation modeling and the effect of filtering and counting methods on the fatigue life time prediction was determined in a sensitivity analysis. The fatigue life models were validated by experimental results using the random miniTWIST-loading on [0°]8-, [0°/90°]2S- and [+45°/0°/-45°/90°]S-(CF/VEUH:ETBN)-laminates.
Der flächendeckende Ausbau der Kläranlagen in Deutschland hat in den letzten Jahrzehnten zu einer deutlichen Verbesserung der Gewässerqualität geführt. Dennoch ist der ökologische Zustand vieler Gewässer immer noch unbefriedigend. Einen negativen Einfluss auf den Gewässerzustand haben Stoßbelastungen aus Mischwassereinleitungen, die empfindliche aquatische Ökosysteme aufgrund von hydraulischem Stress und stofflichen Belastungen nachhaltig schädigen können.
Diese Arbeit liefert einen Beitrag dazu, wie hoch aufgelöste Online-Messdaten zur Optimierung des Kanalnetzbetriebs genutzt werden können. Hierfür wurden zwei reale Regenüberlaufbecken (RÜB) im Mischsystem in Süddeutschland für zwei Jahre mit Online-Spektrometersonden zur Erfassung von Äquivalenzkonzentrationen von abfiltrierbaren Stoffen (AFS), chemischem Sauerstoffbedarf (CSB, gesamt und gelöst) und Nitrat ausgestattet. Zusätzlich wurden hydrometrische Messdaten an den RÜB vom Betreiber des Entwässerungssystems bereitgestellt.
Den ersten Teil der Arbeit bilden Fracht- und Volumenauswertungen der Einstauereignisse an den beiden RÜB. Die Untersuchungen sollen zum besseren Verständnis der stoffspezifischen und hydraulischen Vorgänge im Mischsystem beitragen. Im zweiten Teil der Arbeit wird ein neuer Ansatz zur Verbesserung des Kanalnetzbetriebes unter direkter Verwendung von Messdaten erprobt. Für diese messdatenbasierte Simulation werden gemessene Ganglinien von Abflussmenge und Feststoffkonzentration direkt als Systeminput eines Transportmodells verwendet. Anhand dieses Modells werden verschiedene Kanalnetzbewirtschaftungsstrategien untersucht. Die folgenden Erkenntnisse lassen sich anhand der durchgeführten Auswertungen ableiten:
Eine Vorhersage der Spülstoßintensitäten anhand der Charakteristiken der Trockenphasen vor den Ereignissen oder der Eigenschaften der Niederschlagsereignisse selbst ist im Untersuchungsgebiet nicht möglich. Eine konstante Akkumulation der Schmutzstoffe auf der Gebietsoberfläche, wie sie in gängigen Qualitätsmodellen angesetzt wird, ist in den Untersuchungsgebieten ebenso wenig vorhanden. Somit kann die Abflussqualität im Untersuchungsgebiet nicht zuverlässig simuliert werden. Betriebsentscheidungen, die auf Basis von Schmutzfrachtmodellen getroffen werden, sind demnach höchst unsicher.
Die in dieser Arbeit neu vorgestellte messdatenbasierte Simulation umgeht diese Unsicherheiten und ersetzt sie durch die Messunsicherheiten selbst. Sie kann die Effizienz verschiedener Bewirtschaftungsstrategien, wie die Verwendung statisch optimierter Drosselabflüsse oder die dynamische Echtzeit-Steuerung von Speicherräumen, zuverlässig bewerten. Eine Dauer der zugrunde liegenden Messdatenzeitreihe von etwa vier Monaten mit mittlerer Niederschlagscharakteristik und etwa 10 Niederschlagsereignissen ist im untersuchten fiktiven System ausreichend für verlässliche Ergebnisse der messdatenbasierten Simulation. In komplexeren Gebieten kann der Datenbedarf höher sein. Die Methodik liefert unter Berücksichtigung der üblichen Messunsicherheiten robuste Ergebnisse.
Die Verwendung der Fest-Flüssig Extraktion zur Gewinnung von Wirkstoffen aus
Pflanzenmaterial ist so alt wie die Menschheit. Es sind daher angereicherte Extrakte oder
aufgereinigte Wirkstoffe in der Lebensmitteltechnologie, Biotechnologie und Pharmakologie
alltäglich vorzufinden. Die Diffusion sowie der Stofftransport der Wirkstoffe werden durch die
biologischen, chemischen, physikalischen Charakteristika des Pflanzenmaterials und durch die
Betriebsführung des Extraktionsvorgangs beeinflusst. Diese Dissertation analysiert das
Diffusionsverhalten diverser Wirkstoffe aus unterschiedlichen Pflanzenmaterialien mit einer
Unterstützung des Extraktionsvorgangs durch Mikrowellen, Ultraschallwellen oder Hochspannungsimpulse. Der Stofftransport wird bei festgesetzter Temperatur mit verfahrenstechnischen Modellen einstufig und mehrstufig beschrieben.
Im Gegensatz zu vorangegangenen Studien werden mannigfaltige Pflanzenstrukturen in
Kombination mit alternativen Prozesskonzepte beruhend auf den verschiedenen
Wirkmechanismen ausgewählt. Diese Modellierungen sind durch die vielfältigen Pflanzenmaterialien wie Blätter, Blüten, Nadeln, Samen, Rinde, Wurzeln und Kräuter unter der Einwirkung
der Mikrowellen, Ultraschallwellen sowie Hochspannungsimpulse, die zur Erhöhung der Ausbeute
an den Wirkstoffen im Extrakt beitragen, inspiriert. Zuerst wurden die Eigenschaften wie die
Schüttgutdichte, der Anteil an flüchtigen Bestandteilen, Partikelgrößenverteilung, der Lösungsmittel- und Phasenverhältniseinfluss der ausgewählten Pflanzenmaterialien untersucht. Wie
erwartet zeigt jede Pflanze und deren Wirkstoffe verschiedene Merkmale, die sich auf den
Extraktionsvorgang mit alternativen Prozesskonzepte auswirken.
Entgegen den Vermutungen, erreicht die Mikrowellen-unterstützende Extraktion mittels
dielektrischer Erwärmung nach Optimierung der Leistung die höchste Ausbeute für alle ausgewählten Pflanzenmaterialien, wenn diese getrocknet vorliegen. Mit der Ultraschall-unterstützenden Extraktionstechnologie wird bei festgesetzter Extraktionstemperatur eine
größere Quantität der Wirkstoffe im Extrakt im Vergleich zu einem gerührten Batch gemessen.
Die Hochspannungsimpuls-unterstützende Extraktionstechnologie mit einem einfachen
Pulsprotokoll und einer moderaten elektrischen Feldstärke zeigt bei frisch geernteten bzw. nicht
getrockneten Pflanzenmaterialien und wässrigen Extraktionsmilieu mit maximal 20 Vol% Ethanol
eine hohe Ausbeute an Wirkstoffen und eine milde Erwärmung des Extraktionsmittels.
Die Berechnungen der Geschwindigkeitskonstanten, der daraus resultierenden
Aktivierungsenergien und der effektiven Diffusionskoeffizienten, die auf der analytischen Lösung
des 2. Fick‘schen Gesetz basieren, korrelieren mit den festgestellten Makro- und Mikroeigenschaften der Pflanzenmaterialien. Schließlich werden mit einem automatisierten Hochdurchsatzsystem durchgeführte, dreistufige Kreuzstromextraktionen auf Grundlage der
Massenbilanzen modelliert und die tatsächlich eingesetzten mit den berechneten
Extraktionsmittelmengen bei unterschiedlichen Pflanzenmaterialien verglichen. Die Wirkstoffe in
holzartigen Strukturen und in Kräuter zeigen aufgrund ihres Quellverhalten eine abgeschwächte
Diffusion im Vergleich zum Herauslösen der Wirkstoffe aus blättrigem Rohstoff oder
Gewürzsamen.
Schnelligkeit und Explosivität sind prägende Bestandteile des Fußballspiels und die Bedeutung dieser Fähigkeiten ist in den vergangenen Jahren deutlich gestiegen. Infolgedessen erscheint die Berücksichtigung der Schnellkraft von prognostischer Relevanz für das komplexe Feld der Talentidentifikation und die damit verbundenen Selektionsprozesse im leistungsorientierten Jugendfußball. Allerdings gibt es nur wenige publizierte Daten die unter methodischen Standards erhoben wurden. Aus diesem Grund absolvierten im Rahmen dieser Arbeit 822 aktive, männliche Vereinsfußballer im Alter zwischen 10 und 19 Jahren eine leistungsdiagnostische Schnellkrafttestbatterie. Die Ergebnisse der Untersuchung zeigen, dass die Leistungsfähigkeit der Spieler über die komplette Altersspanne von 10-19 Jahren ansteigt. Dabei steht die Leistungsentwicklung in engem Zusammenhang mit der Reifeentwicklung der Jugendlichen. Des Weiteren zeigt sich, dass Spieler aus Nachwuchsleistungszentren bessere Werte aufweisen, als Spieler die nicht in einem Nachwuchsleistungszentrum Fußball spielen. Darüber hinaus wird deutlich, dass sich die Testleistungen von Spielern verschiedener Spielpositionen teilweise erheblich unterscheiden. Durch Folgeuntersuchungen soll die Datenbank zukünftig weiter ausgebaut werden, um auf diese Weise detailliertere Vergleiche in den unterschiedlichen Subgruppen zu ermöglichen.
Die Realisierung zunehmend komplexer Softwareprojekte erfordert das direkte und indirekteZusammenwirken einer immer größer werdenden Zahl von Personen. Die dafür benötigte Infrastrukturist mit der zunehmenden globalen Rechner-Vernetzung bereits vorhanden, doch wird ihr Potential vonherkömmlichen Werkzeugen in der Regel bei weitem nicht ausgeschöpft. Das in diesem Artikelvorgestellte Rahmenmodell für Softwareentwicklung wurde explizit im Hinblick auf die globaleKooperation von Entwicklern entworfen. WebMake, eine auf diesem Modell basierende Software-entwicklungsumgebung, adressiert das Ziel seiner Einsetzbarkeit im globalen Maßstab durch dieVerwendung des World-Wide Web als Datenspeicherungs- und Kommunikationsinfrastruktur.
Wissenschaftliche Studien deuten auf eine gesundheitsförderndes und gewichtsregulierendes Potential des Kaffees hin, welches vor allem mit dem hohen Gehalt an Antioxidantien in Verbindung gebracht wird. In dieser Arbeit wurden Kaffeeextrakte, -inhaltsstoffe sowie Kaffeegetränke hinsichtlich ihrer antioxidativen Wirksamkeit untersucht. In-vitro wurde die präventive Wirkung von Extrakten aus leicht (AB1), mittel (RI, AC, AB) und stark (AB 2) gerösteten Kaffees mit Markern oxidativer Zellschädigung und Zellantwort in den Kolonkarzinomzelllinien HT-29 und Caco-2 charakterisiert. Vergleichend wurden die ausgewählten originären Kaffeeinhaltstoffe 5-Caffeoylchinasäure (5-CQA) und Trigonellin (TRIG) sowie die Röstprodukte Kaffeesäure (CA), Catechol (Cat), 1,2,4-Trihydroxybenzol (THB), N-Methylpyridinium (NMP) und methylierte NMP-Analoga untersucht. Erfasste Parameter waren zellulärer ROS-Level, (oxidative) DNA-Schädigung und Proteinexpression der ARE-abhängigen Enzyme NQO1, g-GCL und GSR. Zusätzlich wurde die direkte antioxidative Aktivität mittels TEAC- und ORAC-Assay gemessen. Die Ergebnisse zeigten eine radikalabfangende Eigenschaft aller Kaffeeextrakte mit Werten von 0,9-1,5 mM Trolox (TEAC) bzw. 2,5-2,8 mM Trolox (ORAC). Der zelluläre ROS-Level wurde in HT-29 Zellen durch die Extrakte AB, AC, RI und stark gerösteten AB 2 signifikant verringert. Eine konzentrationsabhängige und signifikante Induktion ARE- abhängiger Enzyme (NQO1, g-GCL und GSR) in HT-29 Zellen wurde durch den CQA-reichen AB 1 beobachtet, der NMP-reiche AB 2 war dagegen unwirksam. Von den untersuchten Kaffeeinhaltsstoffen zeigten nur die phenolischen Verbindungen 5-CQA und CA eine ausgeprägte zellfreie antioxidative Aktivität. Der zelluläre ROS-Level konnte durch 5-CQA verringert werden, dagegen waren methylierte NMP-Analoga in der Lage (oxidative) DNA-Schäden in Caco-2 Zellen zu reduzieren. 5-CQA induzierte wie leicht gerösteter AB 1 die Proteinexpression alle untersuchten Enzyme in HT-29 Zellen. Weiterhin wurde in zwei aufeinander folgenden humanen Interventionsstudien das antioxidative Potential unterschiedlicher Kaffeegetränke mit hohem Anteil an Antioxidantien charakterisiert; in der zweiten Studie wurde zusätzlich auf gewichtsregulierende Wirkung des Studienkaffees geprüft. Im Rahmen der ersten Pilotstudie, durchgeführt durch AG. Somoza (DFA Garching) wurde die Modulation von DNA-Schäden im Blut von Probanden nach Konsum zweier Kaffeegetränke erfasst, die reich an Chlorogensäuren oder an N-Methylpyridinium waren (Kaffeekonsum: 0,5 L pro Tag, 4 Wochen). Beide Kaffeegetränke bewirkten im Blut gesunder Probanden eine deutliche Abnahme oxidativer DNA-Schäden. In der zweiten Interventionsstudie nahmen 35 männliche Probanden nach einer vierwöchigen Wash-out Phase über vier Wochen täglich 750 ml eines Antioxidantien reichen Kaffees (580 mg/l CQAs; 71,7 mg/l NMP) auf, anschließend folgte eine vierwöchige Wash-out Phase. Zu Beginn der Studie und am Ende jeder Phase wurden Blutentnahmen zur Bestimmung der Biomarker (oxidative) DNA-Schäden, Glutathion (Gesamtglutathion tGSH, oxidiertes Glutathion GSSG) sowie Bioimpedanzanalysen zur Bestimmung der Körperzusammensetzung durchgeführt. Zusätzlich wurden Energie und Nährstoffaufnahme der Probanden erfasst. Die Ergebnisse zeigten eine signifikante Abnahme (oxidativer) DNA-Schäden (p < 0,001), Anstieg des tGSH-Spiegels (p<0,05) und des GSH-Status (Trend) und eine Erniedrigung des GSSG-Spiegels. Weiterhin wurde eine signifikante Abnahme von Körpergewicht und Körperfett der Probanden während der Kaffeeintervention im Vergleich zur beiden Wash-out Phasen beobachtet, welche vor allem bei Probanden mit BMI < 25 stärker ausgeprägt war. Die Verringerung der Energie- und Nährstoffaufnahme während der Kaffeephase weist auf eine Kaffeeabhängige beeinflussung der Sättigungsregulation hin. Zusammenfassend besitzt der Antioxidantien reiche Studienkaffee ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung sowie gewichtsregulierende Wirkung in gesunden Probanden. Aufgrund der von uns erhaltenen in vitro Daten kann die antioxidative Wirksamkeit zum Teil auf die untersuchten originären Kaffeeinhaltsstoffen (vor allem CQAs) und Röstprodukte zurückgeführt werden. Andere bisher nicht charakterisierte Sustanzen/Stoffgruppen tragen vermutlich ebenfalls zu der beobachteten Wirkung bei.
Große Stegöffnungen werden in Stahlverbundträgern immer dann erforderlich, wenn in Trägerebene Leitungen quer zur Trägerachse geführt werden sollen. Die Attraktivität der Stahlverbundbauweise steigt mit der Möglichkeit, die Tragfähigkeit im Bereich großer Stegöffnungen rechnerisch nachweisen zu können. Bisher war es aber nicht möglich, eine Verstärkung des Betongurtes durch Einbau von Dübelleisten in einem Nachweiskonzept nutzbar zu machen. Bei Dübelleisten handelt es sich um Doppelkopfanker, die in einer Reihe meist auf ein Lochblech aufgeschweißt werden. Sie werden von mehreren Herstellern als Querkraft- und Durchstanzbewehrungselemente vertrieben.
In der vorliegenden Arbeit wird der Einfluss von Dübelleisten auf das Querkrafttragverhalten
des Stahlbetongurts von Verbundträgern im Bereich von großen Stegöffnungen untersucht. Dazu wurden 28 Versuche sowie rechnerische Untersuchungen durchgeführt.
Dabei konnte in einzelnen Versuchen durch den Einsatz von Dübelleisten eine Traglaststeigerung von mehr als 50 % erzielt werden. Unter anderem wurde der Effekt der Querbiegung untersucht, bei dem durch die vertikale Belastung des Betongurts außerhalb der Verbundträgerachse ein negatives Biegemoment in Querrichtung entsteht.
Es wurde ein Nachweiskonzept erarbeitet, mit dem die Querkrafttragfähigkeit eines Betongurts unter Berücksichtigung von im Betongurt angeordneten Dübelleisten wirklichkeitsnah
bestimmt werden kann. Das erstellte Konzept ermöglicht es, bei der Bemessung von Verbundträgern, die durch Stegöffnungen geschwächt sind, durch einen geringen Mehreinsatz von Bewehrung in Form von Dübelleisten eine deutliche Traglaststeigerung zu erzielen. Der Einfluss von Querbiegemomenten wird durch eine konservative Abschätzung der Lasteinzugsfläche berücksichtigt.
Das Ziel der Studie war es, die Reaktionen der Protagonisten an den Kinder-und Ju-gendsportschulen der DDR auf die gesellschaftlichen Veränderungen der Wendejahre zu eruieren. Es sollte herausgefunden werden, inwieweit diese Ereignisse die Bildungs-merkmale beeinflussten. Dazu wurden historische Archivdokumente analysiert und in 28 qualitativen Interviews 33 Zeitzeugen befragt. Eine wesentliche Erkenntnis war, dass die Arbeit an den KJS bis in das Jahr 1991 hinein nahezu unverändert fortgeführt wur-de. Durch eine partielle Ausdehnung der Thematik auf die heutigen Eliteschulen des Sports leistet der Text einen Beitrag zur Diskussion über den Leistungssport in Deutsch-land und dessen Spezialschulen.
Die Arbeit richtet sich neben Wissenschaftlern an leistungssportlich und bildungspoli-tisch interessierte Eltern, Pädagogen, Trainer und Verantwortungsträger.
Das homotetramere, cytosolische Chaperon SecB spielt eine entscheidende Rolle in der Proteintranslokation von Escherichia coli beim Transport von Proteinen über die Cytoplasmamembran in den periplasmatischen Raum der Zelle. Es bindet währenddessen naszierende Polypeptide, hält diese in einem entfalteten, translokationskompeteten Zustand und transportiert sie zur Translokationsmaschinerie an die Cytoplasmamembran. In vitro wechselwirkt SecB mit einer Reihe von entfalteten Proteinen, beispielsweise dem Bovine Pancreatic Trypsin Inhibitor (BPTI) oder in vivo mit dem Vorläuferprotein des Maltosebindungsproteins (preMBP). Frühere Untersuchungen lieferten Hinweise auf eine Konformationsänderung des Chaperons hervorgerufen durch eine Substratbindung des Modellsubstrats BPTI. Der Fokus der vorliegenden Arbeit liegt auf Untersuchungen zur Komplexbildung zwischen dem natürlichen Substrat preMBP und SecB sowie auf weiteren Untersuchungen zur Konformationsänderung hervorgerufen durch die Substratbindung.
Um die Aufreinigung der Chaperone zeiteffizienter zu gestalten und die Reinheit weiter zu steigern, erfolgte eine Umklonierung der verschiedenen SecB-Gene in pET20b(+)-Expressionsvektoren. Im Zuge dieser Einklonierung wurden die SecB-Sequenzen mit einer Thrombinschnittstelle und einem His-Tag fusioniert. Weiterhin wurden zwei neue SecB-Mutanten (C109 und C113) generiert.
Die Untersuchung des preMBP-SecB-Komplexes mit Hilfe der HPLC zeigte, dass 2 M GdnHCl ausreichend ist, um das preMBP zu entfalten und entfaltetes preMBP schneller von der Säule eluiert als rückgefaltetes. Weiterhin konnte nachgewiesen werden, dass die Rückfaltung von preMBP durch Verringerung der GdnHCl-Konzentration von 3 M auf 0,1 M innerhalb weniger Sekunden abgeschlossen ist. Die Komplexbildung erfolgte nur, wenn das Chaperon vorlegt wurde und preMBP anschließend hinzugegeben wurde. Die anschließende Analyse zeigte eine Koelution beider Proteine.
Für die EPR-spektroskopischen Untersuchungen wurden die SecB-Mutanten mit den Spinlabeln MTS und IOPI gelabelt. Die cw-EPR-Messungen bei Raumtemperatur zeigten, dass die Beweglichkeit des Spinlabels am Wildtyp-Protein deutlich stärker eingeschränkt ist als an Aminosäureposition 90. Die cw-EPR-Messungen am Wildtyp-Chaperon bei 180 K gaben erste Hinweise darauf, dass sich benachbarte Spinlabel in einem Abstand von weniger als 20 Å befinden. Der Vergleich mit den berechneten Abstandsdaten aus dem Molecular Modeling zeigte, dass es sich bei den gemessenen Entfernungen um die kurzen Abstände zwischen den Cysteinen benachbarter Untereinheiten handeln muss. Weiterhin konnte nachgewiesen werden, dass sich das Spinlabel an Aminosäureposition 312 des preMBPs in einer Entfernung von maximal 20 Å befindet.
Die DEER-Messungen ergaben Abstände zwischen den Aminosäurepositionen 97 am SecB von 19,3 Å für die kurzen Entfernungen zwischen direkt benachbarten Untereinheiten und 51,2 Å für die langen Entfernungen. Durch die Substratbindung von BPTI an das Chaperon konnte eine doppelscherenartige Aufweitung zwischen den Dimeren im Bereich der Substratbindungstasche belegt werden. Auch die Abstandsdaten von Aminosäureposition 90 bestätigten die Aufweitung der Bindungstasche.
Die kollaborative Mobilität, unter der sinngemäß das Teilen von Mobilitätsangeboten („Nutzen statt Besitzen“) mit Unterstützung durch Location-Based-Services verstanden wird, stellt den theoretischen Überbau dieser Arbeit dar. Hierunter fallen auch bereits bekannte Mobilitätskonzepte, z. B. Fahrgemeinschaften, Mitfahrerparkplätze und Carsharing. Der Begriff Location-Based-Services umfasst zeit-räumliche Dienstleistungen auf Basis der Informations- und Kommunikationstechnologie (IKT).
Die Berufspendler mit Wohnort in ländlichen Räumen sind mit zunehmenden Mobilitätsproblemen, z. B. steigenden Mobilitätskosten und einem zunehmend unattraktiveren ÖPNV-Angebot konfrontiert. Gleichwohl sind soziale und berufliche Gründe sowie der Besitz von Immobilien die größten Hemmnisse, den Wohn- oder Arbeitsort zu wechseln. Die Koordination solcher Berufspendler stellt wegen des Wunsches nach Flexibilität und den zeitlich-räumlichen Gegebenheiten eine große Herausforderung dar.
Mit der Verbreitung von Smartphones, dem einhergehenden Mobilitätswandel im Sinne der kollaborativen Mobilität und den hiermit verknüpften Entwicklungen der Sharing-Economy liegen mithilfe von Location-Based-Services technische Rahmenbedingungen vor, mit denen auch eine spontane Koordination von Fahrgemeinschaften möglich ist („Fahrgemeinschaftsbörsen der dritten Generation“).
In der vorliegenden Arbeit werden daher die Potenziale und Ansatzpunkte für eine kollaborative Alltagsmobilität der PKW-Pendler am Beispiel von Mitfahrerparkplätzen, Fahrgemeinschaften und Location-Based-Services sowie die Wirkung der betrachteten Beispiele untersucht (Ziele).
Zur Eingrenzung werden als Untersuchungsgruppe die täglichen, berufsbedingten Autopendler im Bundesland Rheinland-Pfalz, das stark ländlich geprägt ist, herangezogen.
Hierzu werden Datengrundlagen zur Abschätzung eines Fahrgemeinschaftspotenzials der täglichen Autopendler in Rheinland-Pfalz geschaffen, ein zugehöriges Analysewerkzeug auf Basis einer GIS-Datenbank entwickelt und angewendet sowie eine Wirkungsanalyse von Mitfahrerparkplätzen und Location-Based-Services durchgeführt. Dazu werden auch eigene empirische Grundlagen mithilfe einer Internet-Befragung zur Exploration des Themenfeldes Pendlerverkehr sowie durch Pendlerinterviews und Verkehrsmengenerhebungen auf ausgewählten Mitfahrerparkplätzen in Rheinland-Pfalz erarbeitet.
Hiermit wird erstmals die Wirkung von Mitfahrerparkplätzen seit ihrer Einführung in Rheinland-Pfalz untersucht. Im Mittel weisen Mitfahrerparkplätze einen Einzugsbereich von rund 10 km auf, im Median von rund 7,4 km. Fahrgemeinschaften, die Mitfahrerparkplätze in Rheinland-Pfalz benutzen, umfassen im Mittel 3,15 Personen je PKW. Mitfahrerparkplätze und Fahrgemeinschaften werden bei langen Arbeitswegen im Bereich von 50 km (für den einfachen Weg) überdurchschnittlich genutzt. Dabei liegen die Mitfahrerparkplätze in der Regel innerhalb des ersten Fünftels der einfachen Fahrtstrecke.
Eine Anpassung von Wasserversorgungs- und Abwasserentsorgungssystemen im ländlichen Raum kann aufgrund vielfältiger Herausforderungen wie demografischen, siedlungsstrukturellen und klimatischen Veränderungen erforderlich werden. Im Zuge dessen können auch die Nachhaltigkeit und Ressourceneffizienz der bestehenden Systeme gesteigert werden. Das Ziel dieser Arbeit ist die Ableitung von Handlungsempfehlungen zur Unterstützung der notwendigen Anpassungsprozesse der Abwasserentsorgung ländlicher Gemeinden. Dazu werden verschiedene Transformationspfade für Abwassersysteme aufgezeigt und analysiert.
In dieser Arbeit wird ein softwaregestütztes Entscheidungs- und Optimierungssystem angewendet und evaluiert, dass optimale Anpassungsmöglichkeiten aufgezeigt. Das gemischt-ganzzahlige lineare Optimierungsmodell berechnet für jede Gemeinde in Abhängigkeit von dem ausgewählten Szenario und vorgegebenen Zielen den optimalen Transformationspfad mit seiner zeitlichen und räumlichen Umsetzung. In den Szenarien werden zukünftige Entwicklungen der Bevölkerung, der Siedlungsstruktur, des Wasserbedarfs, der Kosten technischer Anlagen und des Klimawandels berücksichtigt. Die Zielfunktion bildet sich aus der gewichteten Summe ökonomischer, ökologischer und sozialer Bewertungskriterien. Die beispielhafte Anwendung des Modells erfolgt für zwei repräsentative ländliche Modellkommunen in Rheinland-Pfalz.
Durch eine detaillierte Auswertung und Evaluierung von ausgewählten Kombinationen von Szenarien und Bewertungskriterien kann das Spektrum an möglichen Transformationspfaden von der Erhaltung des zentralen Systems bis hin zu dezentralen und ressourcenorientierten Systemen aufgezeigt werden. Sensitivitätsbetrachtungen zeigen, dass die Auswahl und Gewichtung der Bewertungskriterien und die lokalen Randbedingungen der Gemeinde einen größeren Einfluss auf die resultierende Transformationspfade haben als die Auswahl der Szenarien.
Der Zustand des Entwässerungssystems wie der Anteil alter Kanäle, ein großer Anteil Mischsystem, große Durchmesser und eine große Kanallänge pro Einwohner sowie eine niedrige Siedlungsdichte fördern dezentrale Strukturen und sind geeignete Voraussetzungen für einen Systemwechsel. Bei der Priorisierung der Ziele Flexibilität, Wasserbilanz und Wasserrecycling wird die Dezentralisierung eines Systems mit Kleinkläranlagen favorisiert. Ein ressourcenorientiertes System mit einer Grau- und Schwarzwassertrennung ist nur zukünftig vorteilhaft, wenn die Ziele Wasserrecycling, Nährstoffrecycling und/oder Energieeffizienz priorisiert werden. Wenn ein Systemwechsel vollzogen werden soll, müssen auch die Auswirkungen auf die Wasserversorgung und Abwasserreinigung untersucht werden.
Es kann gezeigt werden, dass bei einer abnehmenden Bevölkerung dezentrale und ressourcenorientierte Systeme im ländlichen Raum eine Alternative darstellen. Zur Begleitung von Transformationsprozessen ist die Verwendung einer adäquaten Methodik zum Aufzeigen von verschiedenen Systemalternativen (z.B. mathematische Optimierung) zielführend.
Cyclo-(PhAs)6 als Edukt für Übergangsmetallcyclopentadienyl-Komplexe mit Asn- und (PhAs)n-Liganden
(2002)
In der Chemie der (RAs)n-Heterocyclen, R = Alkyl, Aryl, hat sich cyclo-(PhAs)6 als besonders wertvolles Ausgangsmaterial für Komplexe mit Asn- bzw. (PhAs)n-Liganden bewährt. Die Cothermolyse von Hexaphenylcyclohexaarsan mit verschiedenen Übergangsmetallcyclopentadienyl-Komplexen liefert eine Reihe von neuartigen Verbindungen mit substituentenfreien As-Liganden und substituentenhaltigen As-Liganden, welche zum Teil in guten Ausbeuten hergestellt und in einigen Fällen durch eine Röntgenstrukturanalyse charakterisiert wurden. Bei den Komplexen mit As1- und As2-Liganden verdienen besondere Beachtung das dreiecksdodekaedrische [{Cp=Fe}4As4] sowie das aus der trigonalen Bipyramide bestehende [{CpRCo}3(µ3-As)2], dessen Spitzen von jeweils einem dreibindigen Arsenatom besetzt sind. Bei [{Cp-Co}3(µ3-As)2] ist das freie Elektronenpaar am Arsen noch zusätzlich durch ein {M(CO)5}-Fragment (M = Mo, W) komplexierbar ([{Cp-Co}3{(µ4-As)M(CO)5}2]). Verbindungen mit substituentenhaltigen As-Liganden sind in der Literatur nur vereinzelt beschrieben. Bei [{Cp=Rh}3(µ-CO)(AsPh2)As] wurde offensichtlich eine PhAs-Gruppe unter Ph-Wanderung in einen Ph2As-Liganden umgewandelt. Bemerkenswert ist der PhAs-Ligand in [{Cp=Rh(CO)}2(AsPh)W(CO)5], dessen freies Elektronenpaar noch zusätzlich an ein {W(CO)5}-Fragment koordiniert ist. In [{Cp=Rh}3(Rh(CO)2)(AsPh)(AsO)] sind ein PhAs- und AsO-Ligand realisiert.
Im Rahmen der Promotion wurden zwei Projekte bearbeitet, die sich mit der Darstellung und Untersuchung Cyclopeptid-basierter Derivate zur Erkennung von Anionen beschäftigten.
Dabei wurde im ersten Projekt der Arbeit eine neue, modulare Synthesestrategie zur Darstellung von dreifach verbrückten Bis(cyclopeptiden) entwickelt, die auf der Verwendung eines Templats und der Ausbildung von Amidbindungen zwischen den Untereinheiten basiert. Mit Hilfe dieser Methode gelang es ein Käfig-artiges Bis(cyclopeptid) mit Diglycolsäure als Linker zwischen den beiden Cyclopeptidringen darzustellen und dieses hinsichtlich seiner Anionenaffinität zu untersuchen. Dabei zeigte sich, dass Sulfat von diesem Rezeptor mit der höchsten bisher gemessenen Bindungskonstante Amid-verbrückter Bis(cyclopeptide) in kompetitiven, wässrigen Lösungsmittelgemischen gebunden wird. Ein Vergleich mit dem ebenfalls synthetisierten einfach verbrückten Analogon und weiteren, bekannten Vertretern dieser Rezeptorklasse erlaubte darüber hinaus eine Korrelation zwischen der Anzahl und Struktur der Linker und der daraus resultierenden Anionenaffinität. Dabei wurde deutlich, dass eine Erhöhung der Linkeranzahl einen signifikanten Anstieg der Anionenaffinität bewirkte, wenngleich diese durch weitere Optimierung der Linkerstruktur potenziell noch weiter verbessert werden kann. Dies sollte im Fokus zukünftiger Arbeiten stehen, wobei auf Basis der erarbeiteten Synthesestrategie weitere Derivate dreifach verbrückter Bis(cyclopeptide) einfach zugänglich sein sollten.
Im zweiten Projekt der Arbeit wurde eine optische Sonde entwickelt, die einen einfachen Nachweis von Anionen in Wasser ermöglicht. Dazu wurde mittels eines zweistufigen Verfahrens ein gemischt-funktionalisierter Goldnanopartikel dargestellt, auf dessen Oberfläche solubilisierende Triethylengycol-haltige Liganden und funktionelle Cyclopeptid-haltige Liganden immobilisiert wurden. Die so erhaltenen Goldnanopartikel waren homogen und in Wasser löslich, aggregierten aber, sobald der Lösung Natriumsulfat zugesetzt wurde. Sie erlaubten entsprechend den Sulfat-Nachweis mit bloßem Auge, da die Nanopartikel-Aggregation zu einer Entfärbung der ursprünglich roten Lösung und der Bildung eines Niederschlags führte. Keines von acht weiteren getesteten Anionen hatte einen analogen Effekt, sodass sich der Nachweis von Sulfat als überaus selektiv erwies. Somit wurde ein vielversprechendes Konzept für die Entwicklung optischer Sonden für Anionen entwickelt, das in zukünftigen Arbeiten auf den Nachweis anderer Anionen übertragen werden sollte.
Sub-zero Kühlschmierstoffe: Wirkmechanismen und Einsatzverhalten am Beispiel der Drehbearbeitung
(2023)
Die für die Kühlung und Schmierung eingesetzte Technologie ist für die Leistungsfähigkeit fertigungstechnischer Prozesse von hoher Bedeutung, sowohl für die Produktivität und Prozessstabilität als auch hinsichtlich der Qualität gefertigter Werkstücke. Beim Drehen werden dazu üblicherweise Emulsionen eingesetzt. Der Einsatz kryogener Medien weist zwar ein hohes Verbesserungspotential auf, wird aber bislang nur selten industriell eingesetzt. In dieser Arbeit wird auf Basis einer umfangreichen Analyse der strömungsmechanischen, thermodynamischen und tribologischen Vorgänge verschiedener Kühlschmierstrategien eine neuartige sub-zero Kühlschmierstrategie motiviert und entwickelt. Zu diesem Zweck werden sub-zero Kühlschmierstoffe formuliert, die einen Gefrierpunkt von weit unter 0 °C aufweisen und dadurch unter geringen Zufuhrtemperaturen in einem flüssigen stabilen Zustand eingesetzt werden können. In dieser Arbeit wird die sub-zero Kühlschmierstrategie ganzheitlich mit Blick auf die Strahlerzeugung, die Zufuhrmethodik sowie hinsichtlich der Kühl- und Schmierwirkung erforscht. Auf Basis dieser Erkenntnisse wird eine optimierte sub-zero Kühlschmierstrategie am Beispiel der Drehbearbeitung von Titanlegierungen und Stahlwerkstoffen analysiert. Im Vergleich zur Trockenzerspanung sowie der Verwendung kryogener und herkömmlicher KSS weist der neuartige sub-zero Ansatz ein hohes Potenzial auf. Die sub-zero Kühlschmierstrategie ist eine universell einsetzbare Kühlschmierstrategie, mit der die Vorteile der kryogenen Zerspanung mit den Vorteilen herkömmlicher Emulsion kombiniert werden können. Weitgehend unabhängig von dem zerspanten Werkstoff, der Werkstückgeometrie, den Zerspanungswerkzeugen oder den Stellgrößen wird der Drehprozess durch die Kombination aus hoher Kühl- und Schmierwirkung verbessert.
In dieser Arbeit wurden auf der Basis des felinen Foamyvirus (FFV) bzw. Spumaretrovirus diverse replikationsdefiziente Vektoren entwickelt und deren Tranduktionseffizienz, Stabilität, Markergenexpression und biologische Sicherheit unter Zellkulturbedingungen charakterisiert. Ausgehend von replikationskompetenten FFV-Vektoren wurden zunächst so genannte selbst-inaktivierende (SIN) Vektoren, in welchen die LTR-Promotoraktivität inhibiert ist, konstruiert. Diese FFV-SIN-Vektoren erlaubten eine stabile Transduktion und Markergenexpression, entwickelten jedoch nach einer begrenzten Zeit replikationskompetente Revertanten und waren daher nicht zur Transduktion langlebiger Zellen geeignet. In Analogie zu humanen Foamyvirus-basierenden Vektoren wurde anschließend ein Großteil der env-Sequenz aus den SIN-Vektoren deletiert, um die biologische Sicherheit der Vektoren zu erhöhen. Diese Env-deletierten und FFV-Promotor-abhängigen Vektoren waren allerdings aufgrund eines schwachen und schnell abklingenden Markergentransfers nicht zur effizienten und stabilen Markergentransduktion geeignet. Zur Entwicklung replikationsdefizienter Vektoren mit einem starken heterologen Promotor zur Markergenexpression wurden verschiedene Deletionen in das Vektorgenom eingeführt und Helferplasmide für die Strukturgene bzw. viralen Enzyme kloniert. Hiermit wurde ein transientes Transfektionssystem zur Produktion von Vektorpartikeln etabliert, wobei die für den Markergentransfer essentiellen cis-agierenden Sequenzen auf dem FFV-Genom identifiziert wurden. Die Lokalisation zweier essentieller cis-agierender Sequenzen am 5’-Ende des Genoms und in pol ermöglichte die anschließende Konstruktion replikationsdefizienter Bel1-unabhängiger Vektoren, in denen die 3’ von pol liegenden Gene fast vollständig deletiert und durch eine Expressionskassette, bestehend aus dem humanen Ubiquitin C-Promotor und dem lacZ-Gen, ersetzt wurden. Diese neuen FFV-basierenden Vektoren erlauben einen effizienten Markergentransfer und ermöglichen eine stabile Transduktion diverser Zielzellen bei gleichzeitiger nicht nachweisbarer viraler Genexpression und replikationskompetenter Revertanten. Daher sind diese Vektoren biologisch sicher, zur Transduktion langlebiger Zellen geeignet und können daher für gentherapeutische Untersuchungen in tierexperimentellen Modellen verwendet werden.
Zunehmend strengere Regulierungen der CO2-Emissionen von Neuwagen seitens
der europäischen Union erfordern den Einsatz von Leichtbaukonzepten, welche für
die Massenproduktion geeignet sind. Dies erfordert den Einsatz leistungsstarker und
zugleich kostengünstiger Werkstoffe. Für den breiten Einsatz im Transportbereich
werden daher vermehrt kurzglasfaserverstärkte Thermoplaste zur Substitution
klassischer Metallkomponenten eingesetzt. Die geringen Werkstoffkosten, die stetig
weiterentwickelten mechanischen Eigenschaften sowie die Möglichkeit zur
Funktionsintegration aufgrund der hohen Formgebungsfreiheit des Spritzgussprozesses
sind entscheidende Vorteile dieser Werkstoffgruppe. Der Spritzgussprozess
führt zu einer lokal stark variierenden Faserorientierung. Die Werkstoffeigenschaften
hängen dabei entscheidend von der Faserorientierung ab. Besitzt der
Werkstoff parallel zur Faserrichtung seine höchste Steifig- und Festigkeit, sind diese
quer zur Faserorientierung am niedrigsten. Zusätzlich besitzt die thermoplastische
Matrix ein ausgeprägt nichtlineares Werkstoffverhalten, wodurch die strukturmechanische
Berechnung kurzfaserverstärkter Bauteile deutlich erschwert wird. Eine
geeignete Methodik zur Charakterisierung und numerischen Abbildung des
nichtlinearen anisotropen Werkstoffverhaltens mit anschließender Lebensdaueranalyse
ist zurzeit nicht vorhanden und bildet das Ziel dieser Arbeit.
Der untersuchte Werkstoff findet häufig Einsatz in strukturellen Komponenten im
Fahrwerks- und Motorbereich. In diesen Einsatzgebieten ist er zusätzlich zu den
mechanischen Lasten auch Umwelteinflüssen, wie beispielsweise Feuchtigkeit oder
Steinschlägen, ausgesetzt. Im Rahmen der durchgeführten experimentellen Arbeiten
wird der Einfluss dieser zusätzlichen einsatzbedingten Lasten auf die statischen
Eigenschaften und das Lebensdauerverhalten untersucht. Ist ein Fahrwerksbauteil
ganzjährig Wasser und Feuchtigkeit ausgesetzt, kann es in Winterzeiten auch zu
Kontakt mit Tausalzlösungen kommen. In Auslagerungsversuchen über einen
Zeitraum von etwa einem Jahr wird der Werkstoff folgenden Medien ausgesetzt:
Wasser, wässrigem Natriumchlorid und wässrigem Calciumchlorid. Zu verschiedenen
Expositionszeiten werden Proben entnommen und statischen Zugversuchen
unterzogen. Die Auslagerung bewirkt eine deutliche Verschlechterung der Werkstoffeigenschaften,
welche jedoch durch eine Rücktrocknung im Vakuumofen wieder
vollständig hergestellt werden kann.
Mithilfe eines speziell entwickelten Prüfstandes wird der Einfluss von Wasser und Calciumchlorid auf das zyklische Werkstoffverhalten untersucht. Dieser Prüfstand
erlaubt das Besprühen der Proben während eines Dauerschwingversuches. Eine
Reduktion der Lebensdauer aufgrund einer Exposition mit Calciumchlorid kann nicht
nachgewiesen werden. Zur Simulation von dauerhaften Mikro-Steinschlägen wird die
Oberflächenrauheit von Probekörpern künstlich mittels Sandstrahlen erhöht. Sowohl
in den statischen als auch zyklischen Versuchen unter Medieneinfluss kann nur eine
geringe Festigkeitsreduktion ermittelt werden. Dies ist auf die Duktilität des Werkstoffes
und der damit einhergehenden Unempfindlichkeit gegenüber Kerben
zurückzuführen.
Moderne Prozesssimulationen können die Faserverteilung in Bauteilen komplexer
Geometrie noch nicht realitätsnah abbilden, weshalb in dieser Arbeit die
experimentelle Orientierungsanalyse im Mikro-Computertomographen verwendet
wird. Neben Probekörpern wird auch eine komplette Fahrwerkskomponente im
Mikro-Computertomographen analysiert. Die Orientierungsinformationen finden zur
numerischen Beschreibung des Werkstoffverhaltens in der Finite-Elemente-Methode
Verwendung. Eine vollständige statische Werkstoffcharakterisierung dient als
Grundlage für die komplexe Werkstoffmodellierung. Zur Beschreibung des
Lebensdauerverhaltens werden umfangreiche Dauerschwing- und Restfestigkeitsversuche
für unterschiedliche Faserorientierungen und Spannungsverhältnisse
durchgeführt.
Selbstentwickelte Programmroutinen importieren den Faserorientierungstensor jedes
FE-Elementes und definieren in Abhängigkeit der Faserrichtung sowie der
Faseranteile in die jeweilige Richtung das Werkstoffmodell. Eine inkrementelle
Lebensdaueranalyse greift ebenfalls auf selbstentwickelte Routinen zurück und
berechnet die ertragbare Schwingspielzahl unter Berücksichtigung einer zyklischen
Steifigkeitsdegradation hochbelasteter Elemente und damit einhergehenden
Spannungsumlagerungen. Die Routine wird an den zyklisch geprüften Standard-
Probekörpern kalibriert und an der bereits erwähnten Fahrwerkskomponente
validiert. Für unterschiedliche Lastniveaus und Spannungsverhältnisse werden die
Versuchsergebnisse sehr gut durch die entwickelte Berechnungsmethodik
abgebildet. Sowohl die ertragbare Schwingspielzahl als auch das Schadensbild der
Simulation stimmen mit den Versuchen überein.
Im Rahmen dieser Arbeit wurde erstmals die Eignung funktionalisierter acyclischer Cucurbiturile (aCB) als niedermolekulare Scavenger für V-Stoffe evaluiert. Hierfür wurden Synthesen erarbeitet, die drei funktionalisierbare Naphthalin-basierte aCB-Diazide zugänglich machen. Diese wurden mithilfe von CuAAC-Reaktionen in dreizehn neue potentielle V-Stoff-Scavenger überführt, deren Hydroxamsäuregruppen die Entgiftung eines im Hohlraum des betreffenden aCB gebundenen V-Stoffs induzieren sollen, wobei das aktivste aCB Derivat den Kampfstoff VX mit einer Halbwertszeit von t1/2 = 31 min entgiftet und damit eine 10fach geringere Aktivität als der bisher aktivste VX-Scavenger besitzt. Untersuchungen deuten darauf hin, dass eine unvorteilhafte Einlagerungsgeometrie der V Stoffe im Hohlraum der aCB maßgeblich für die geringen Entgiftungsaktivitäten verantwortlich sein könnte. Diese führt dazu, dass das in der Kavität befindliche Phosphoratom des V-Stoffs nicht gut mit der Hydroxamsäuregruppe reagieren kann.
Außerdem wurde die Synthese Triptycen-basierter aCB verfolgt, die vier Sulfonatgruppen und eine näher am Hohlraum angeordnete funktionelle Gruppe enthalten. In diesem Zusammenhang wurden vier neue, in 9-Position funktionalisierte Triptycenderivate ausgehend von substituierten Anthracenderivaten dargestellt. Versuche, ausgehend von diesen Triptycenen aCB darzustellen, blieben erfolglos. Das Ausbleiben der Reaktion ist wahrscheinlich auf den sterischen Anspruch und die Reaktivität der Substituenten an den Brückenkopfatomen zurückzuführen. Unter den für die Kupplung benötigten Reaktionsbedingungen wurde außerdem die Acylierung in den für die aCB-Bildung benötigten Positionen beobachtet, die die Bildung des gewünschten Produkts verhindert.
Diese Ergebnisse legen nahe, dass Cucurbiturile wahrscheinlich keine geeignete Basis für V-Stoff-Scavenger darstellen. Neben den Schwierigkeiten bei der Synthese Triptycen-basierter potentieller Scavenger zeigt sich, dass die Komplexbildung durch aCB den gebundenen V-Stoff eher schützt als ihn für die Reaktion mit einer nucleophilen Gruppe vorzuorganisieren. Die Resultate dieser Arbeiten verdeutlichen, wie wichtig die richtige Positionierung des Phosphorrests des OPs für eine effektive Entgiftung ist.
Lithiumphenylacetylid führte zu einem Halbsandwichkomplex unter Austausch der beiden verbrückenden Bromide gegen Phenylacetylide. Diese neue Halbsandwichverbindung wurde mit Röntgenabsorptionsspektroskopie untersucht und charakterisiert.
Um substituierte Cyclopentadienylliganden anhand ihrer Sperrigkeit charakterisieren zu können, wurden als Maß für den sterischen Anspruch die beiden Kegelwinkel Θ und Ω in Anlehnung an Tolman eingeführt. Als Modellsystem wurden in einer Zusammenarbeit mit der Arbeitsgruppe von Tamm (TU Braunschweig) Cycloheptatrienyl-Zirconium-Komplexe des Typs \([(η^7-C_7H_7)Zr(C_5R_5)]\) ausgewählt, da diese die an ein Modellsystem gestellten Anforderungen erfüllen. Dadurch konnten etwa 20 neue Cycloheptatrienyl-Cyclopentadienyl-Zirconium-Komplexe erhalten werden, bei welchen anhand von Festkörperstrukturen oder DFT-Berechnungen der sterische Anspruch der substituierten Cyclopentadienylliganden ermittelt wurde.
Basierend auf sehr reaktiven Cyclopentadienyl-Eisen-σ-Arylkomplexen konnten zwei unterschiedliche Reaktionen untersucht werden. Zum einen wurde die von Wallasch beobachtete Oxidation von \(Cp'''Fe(II)(σ-Mes)\) \((Cp''' = C_5H_2tBu_3; Mes = C_6H_3-2,4,6-Me_3)\) mit \(PdCl_2\) zu dem neuartigen Komplex \(Cp'''Fe(III)(σ-Mes)Cl\) weiter untersucht, um diese Substanzklasse kennenzulernen. Dabei erwies sich Hexachlorethan als wesentlich günstigeres Oxidationsmittel, mit dessen Hilfe die Verbindungen \(^4CpFe(III)(σ-Mes)Cl,\) \(^4CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) und \(^5CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) synthetisiert und charakterisiert werden konnten.
Auch die von Weismann beobachtete σ/π-Umlagerungsreaktion von \(^5CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Trimethylaluminium zu \(^5CpFe(π-C_6H_3-2,6-iPr_2-AlMe_3)\) wurde näher untersucht. Dazu wurde \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlR_3\) (R = Me, Et, Pr) umgesetzt, um die entsprechenden Umlagerungsprodukte herzustellen. Diese konnten bei der Umsetzung mit \(AlMe_3\) auch erhalten werden, allerdings zeigten sich bei der Reaktion mit \(AlEt_3\) und \(AlPr_3\) unerwartete Reaktionsprodukte. Durch einen Bromid-Alkyl-Austausch wurden die Komplexe \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlEt_2Br)\) und \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlPr_2Br)\) gebildet. Zusätzlich konnten bei der Umlagerung mit \(AlEt_3\) vier weitere Neben- bzw. Folgeprodukte beobachtet werden. Eines der Folgeprodukte ist der Butinkomplex \((^4CpFe)_2(μ,η^2:η^2-but-2-in)\), der vermutlich durch eine Kupplung zweier Ethylgruppen und Dehydrierung gebildet wird. Reaktionen von \([^4CpFe(μ-Br)]_2\) oder \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Ethylmagnesiumbromid ergaben den gleichen Komplex. Für die Entstehung der unterschiedlichen Produkte bei der Reaktion von \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlEt_3\) wurde ein Mechanismus entwickelt und dieser anhand der gewonnenen Erkenntnisse belegt.
Beste mechanische Eigenschaften werden bei Faser-Kunststoff-Verbunden mit Hilfe von Endlosfaserverstärkungen erreicht. Die Fertigung von komplexen Strukturbauteilen mit Endlosfaserverstärkung ist jedoch ein aufwendiger Prozess, welcher zum Teil immer noch händisch erfolgt. In den bekannten automatisierten Prozessen werden die Endlosfasern für komplexe Bauteile häufig nicht optimal entlang der Lastpfade ausgerichtet und somit nicht effizient eingesetzt.
Im Rahmen dieser Arbeit wird ein neuartiges Verfahren vorgestellt, welches unter effizienter Ausnutzung der Endlosfasern eine automatisierte Fertigung von hochbelastbaren Strukturbauteilen ermöglicht. Dafür wird das roboterbasierte 3D-Faserwickeln mit vorimprägniertem, epoxidharzbasiertem und endloskohlenstofffaserverstärktem TowPreg, mit dem thermoplastischen, kurzglasfaserverstärkten Spritzgussverfahren kombiniert. Neben den Eigenschaften des zu bewickelnden Fadenträgers und eines eigens entwickelten Wickelkopfes, wird der Einfluss unterschiedlicher Fadenspannungen im Wickelprozess, mit Hilfe der roboterbasierten Fertigung von Druckprobekörpern in einem neuartigen Werkzeug, auf die mechanischen Eigenschaften untersucht. Dieser Einfluss konnte nicht nachgewiesen werden. Es wird des Weiteren, anhand eines Demonstrators (Brakebooster), die computerbasierte Erzeugung von Wickelmustern, sowie die Berechnung der optimalen Zusammensetzung dieser, für fachwerkartige Strukturen, entwickelt. Die Hybridisierung der duroplastischen (Epoxidharz), endlosfaserverstärkten Struktur mit kurzglasfaserverstärktem, thermoplastischem (Polyamid 6) Material wird über unterschiedliche Vorbehandlungsmethoden der gewickelten Struktur untersucht. Der Fokus wird hier vor allem auf die Behandlung im Niederdruckplasmaverfahren gelegt. Es wird ein Versuch entwickelt, mit dem die gewickelten und hybridisierten Proben im Bereich der Interface-Festigkeit charakterisiert werden können. Bei diesem Versuch konnte eine Interface-Festigkeiten von bis zu 𝜏 = 15,1 ± 1,1 MPa durch eine Vorbehandlung mit 45-minütigem Luftplasma nachgewiesen werden.
Die Ergebnisse werden abschließend an topologieoptimierten Demonstratoren angewendet. Diese werden als Wickelstruktur, in einer plasmabehandelten und nicht-vorbehandelten hybriden Variante und einer spritzgegossenen Variante getestet. Die spezifische Steifigkeit der plasmabehandelten, hybriden Brakebooster lag dabei auf dem Niveau der gewickelten Brakebooster und war mehr als doppelt so hoch, wie bei spritzgegossenen Brakeboostern. Auch konnte eine 23 % höher spezifische Steifigkeit durch die Niederdruckplasmabehandlung erreicht werden, als ohne Vorbehandlung.
Polycyclische aromatische Kohlenwasserstoffe (PAK) stellen eine Gruppe von möglichen Kanzerogenen dar, die ihre mutagene und kanzerogene Wirkung erst nach einer zweistufigen biologischen Aktivierung zum Dihydrodiolepoxid entfalten. Der ubiquitär in der Umwelt vorkommende PAK Benzo[c]phenanthren ist in Nagersystemen in vitro und in vivo nur schwach biologisch aktiv, während die korrespondierenden Fjord-Region-B[c]PH-3,4-Dihydrodiol-1,2-Epoxide zu den am stärksten kanzerogenen PAK-Dihydrodiolepoxiden gehören. Die geringe Bildung von B[c]PH-3,4-DH als Vorstufe der B[c]PH-3,4-DH-1,2-Epoxide im Nager wird für die geringe biologische Aktivität von B[c]PH verantwortlich gemacht. Bisher waren nur wenige Daten zur Beurteilung der Aktivierungskapazität in menschlichem Gewebe verfügbar. In dieser Studie konnte erstmals eindeutig gezeigt werden, daß Gewebepräparationen aus Humanleber B[c]PH effizient zu genotoxischen und mutagenen Metaboliten aktivieren. Im Gegensatz zu Leberpräparationen von Ratte und Schwein, in denen mit der bevorzugten Bildung des B[c]PH-5,6-DH detoxifizierende Metabolismuswege dominieren, wird in humanen Leberpräparationen bevorzugt B[c]PH-3,4-DH als Vorläuferverbindung der ultimal kanzerogenen B[c]PH-3,4-DH-1,2-Epoxide gebildet. Von den in der menschlichen Leber vorhandenen Cytochrom P450-Enzymen erwies sich CYP 1A2 als hauptverantwortlich für die metabolische Aktivierung von B[c]PH. CYP 3A4 scheint für die Bildung von B[c]PH-5,6-DH mitverantwortlich zu sein. Beide Isoenzyme werden in der Leber stark exprimiert und besitzen eine Schlüsselfunktion bei der PAK-Aktivierung. Im Gegensatz zu humanen Lebermikrosomen erwiesen sich humane Lungenmikrosomen im wesentlichen als inaktiv. Die einzige aktive humane Lungenprobe generierte neben dem überwiegenden Metaboliten B[c]PH-5,6-DH auch bedeutende Anteile B[c]PH-3,4-DH. Studien mit CYP 450-Inhibitoren belegen eine Bedeutung von CYP 1A1 für die Aktivierung in der menschlichen Lunge, welches durch Zigarettenrauch induzierbar ist. Auch das extrahepatisch vorkommende CYP 1B1, welches vor allem in der Niere, dem Uterus und der Brustdrüse vorkommt, metabolisierte B[c]PH effektiv. Auch der zweite Schritt der Aktivierungskaskade wurde untersucht. B[c]PH-3,4-DH konnte durch humane Lebergewebepräparationen zu genotoxischen Metaboliten aktiviert werden. Die induzierte Genotoxizität war vergleichbar mit der des kanzerogenen B[a]P-7,8-DH. CYP 3A4 konnte als hauptverantwortlich für die Aktivierung identifiziert werden. Auch für humanes CYP 1B1 ist B[c]PH-3,4-DH ein gutes Substrat. Im Gegensatz dazu induzierte B[c]PH-5,6-DH nur geringe Genotoxizität. Nach Aktivierung in V79-Säugerzellen, die humanes CYP 3A4 exprimieren, wirkte B[c]PH-3,4-DH mutagen, vergleichbar mit B[a]P-7,8-DH. Schwache Mutagenität konnte auch für B[c]PH-5,6-DH nachgewiesen werden. Zusätzlich wurden die Fjord-Region-Verbindung Dibenzo[a,l]pyren-11,12-Dihydrodiol (DB[a,l]P-11,12-DH), Benzo[j]fluoranthen-9,10-Dihydrodiol (B[j]F-9,10-DH), und Fluoranthen-2,3-Dihydrodiol (FLU-2,3-DH) untersucht. DB[a,l]P-11,12-DH war im Genotoxizitäts- sowie Mutagenitätstest am stärksten aktiv und induzierte 10-fach mehr HPRT-Mutationen als B[c]PH-3,4-DH und B[a]P-7,8-DH. B[j]F-9,10-DH zeigte nur im Genotoxizitätstest schwache Aktivität, während FLU-2,3-DH in beiden Systemen inaktiv war. Humanes CYP 3A4 und zu geringerem Ausmaß CYP 1A2 konnten als hauptverantwortlich für die Aktivierung von DB[a,l]P-11,12-DH identifiziert werden. Somit konnte diese Studie zeigen, daß B[c]PH durch CYP 450-Enzyme in humanem Gewebe zu genotoxischen und mutagenen Verbindungen aktiviert werden kann. Im Tierexperiment ermittelte Daten haben dagegen eine vorrangige Metabolisierung zu wenig mutagenen Metaboliten ergeben. Sie korrelieren mit dem Befund des geringen kanzerogenen Potentials im Tierexperiment. Im Gegensatz dazu wird B[c]PH in humanen Gewebepräparationen effizient zu mutagenen Endprodukten aktiviert. Die Ergebnisse zeigen, daß für die Risikobewertung wesentliche Unterschiede beim B[c]PH-Metabolismus zwischen Mensch und Nager bestehen und die Ratte im Falle von B[c]PH kein prädiktives Modell für die Biotransformation beim Menschen darstellt. Es konnte gezeigt werden, daß für die Aktivierung von B[c]PH in menschlichem Lebergewebe eine Kombination des induzierbaren CYP 1A2 (1. Aktivierungsschritt) und des Hauptenzyms der Humanleber CYP 3A4 (2. Aktivierungsschritt) für eine effiziente Aktivierung verantwortlich ist. Die Ergebnisse dieser Studie legen nahe, daß B[c]PH eine Bedeutung für die Entstehung von Krebs beim Menschen besitzt.
Der `aryl hydrocarbon´-Rezeptor (AhR) ist ein Ligand aktivierter Transkriptionsfaktor, der durch Bindung an spezifische DNA-Elemente (`xenobiotic responsive elements´ (XREs)) Einfluss auf die Expression einer Vielzahl von Genen u.a. Cytochrom P450 (CYP) 1A hat. Liganden des AhR sind unter anderem aromatische halogenierte Kohlenwasserstoffe (z.B: 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD)), polyzyklische aromatische Kohlenwasserstoffe und Pharmazeutika. Natürliche Liganden wie Indolderivate sind ebenfalls bekannte AhR-Liganden. In dieser Arbeit sollte im ersten Teil geklärt werden, inwieweit die in pflanzlichen Lebensmitteln vorkommende Furocumarine Angelicin, Bergamottin, Isopimpinellin und 8-Methoxypsoralen (8-MOP) den AhR-Signaltransduktionsweg und das CYP1A Enzym in Abhänigkeit von den Lichtverhältnissen beeinflussen. Hierbei zeigen alle untersuchten Furocumarine einen Licht- und konzentrationsabhängigen inhibitorischen Effekt auf die CYP1A-vermittelte EROD-Aktivität sowohl in mit TCDD koinkubierten Rattenhepatozyten in Primarkultur als auch in Mikrosomen aus mit TCDD inkubierten primären Rattenhepatozyten, die mit dem Furocumarin präinkubiert wurden. Bergamottin ist der potenteste Inhibitor mit einem IC50-Wert von 0,01 µM in Mikrosomen bei Licht. Angelicin, Isopimpinellin und 8-MOP sind unter Lichtausschluss im XRE-gesteuerten Reportergen-Assay in der Lage, den AhR zu aktivieren. Western Blot Analysen zeigen eine Induktion der CYP1A1 Proteinexpression unter den gleichen Bedingungen. Bergamottin ist in keinem untersuchten System in der Lage, den AhR zu aktivieren, steigert aber die CYP1A1 Proteinexpression, was für einen unterschiedlichen mechanistischen Verlauf im Vergleich mit den anderen untersuchten Furocumarinen spricht. Die CYP1A1 mRNA korreliert nur teilweise mit diesen Daten, was unter anderem mit der Zeitabhängigkeit der durchgeführten Untersuchungen begründet werden kann. Die hier verwendeten Substanzen sind somit unter Lichtausschluss `Suizid´Inaktivatoren des CYP1A1, indem sie ihren eigenen Metabolimus durch Aktivierung des AhR-Signalweges katalysieren. Im zweiten Teil dieser Arbeit wurden Tryptophan-Metabolite durch Fermentation von Rattenfeces mit Tryptophan generiert und die Methodik zur Anreicherung und Charakterisierung optimiert. Trotz der Optimierung der einzelnen Verfahrensschritte konnte aufgrund der geringen zur Verfügung stehenden Menge und der starken Matrix-bedingten Verunreinigungen der EROD-aktiven Substanzen keine Charakterisierung vorgenommen werden. Die optimierte HPLC-Analyse ermöglicht die Abtrennung anteilsmäßig großer Verunreinigungen. Außerdem kann durch die hier entwickelte Selektion von Bakterienkulturen aus Rattenfeces auf den Einsatz frischer Feces verzichtet werden. Des Weiteren lässt sich die Ausbeute an dem gewünschten Produkten erhöhen, indem Kulturen eingesetzt werden, die zu einer Steigerung an gebildeten EROD-aktiven Verbindungen führte, was eine Charakterisierung vereinfachen könnte.
Die Arbeit analysiert die rechtlichen Rahmenbedingungen für Enthärtungsanlagen in der Trinkwasserinstallation. Neben der generellen Zulässigkeit werden auch potenzielle Einbauorte der Anlage diskutiert. Weiterhin wird untersucht, welche Anforderungen und Qualifikationen für den Einbau von Enthärtungsanlagen erforderlich sind. Abschließend wird das Wohnungseigentumsgesetz bezüglich möglicher Grenzen für den Einbau und Betrieb von Enthärtungsanlagen in Wohnungseigentumsgemeinschaften betrachtet.
Im Rahmen dieser Arbeit konnten neue Konzepte zur regioselektiven Einführung von CF3, SCF3, und SCF2H-Gruppen entwickelt und neue konzeptionelle Perspektiven für die Entwicklung nachhaltiger Fluoralkylierungsreaktionen und Reagenzien eröffnet werden.
Im ersten Teilprojekt gelang es, praktische Eintopfverfahren zu entwickeln, mit denen Trifluormethyl- und Trifluormethylthiolgruppen selektiv in organische Moleküle eingeführt werden. Der maßgebliche Vorteil dieser Methoden ist, dass breit verfügbare aromatische Amine in situ diazotiert und ohne weitere Aufarbeitung weiter umgesetzt werden. Die vorteilhaften Reaktionsbedingungen wie z.B. Katalysatorbeladung, Raumtemperatur, und die hohe Toleranz gegenüber funktionellen Gruppen konnten beibehalten werden.
Im nächsten Teilprojekt wurde aufbauend auf dem Konzept der nukleophilen Difluormethylierung der Organothiocyanate Zugang zu wertvollen Difluormethylthioethern ermöglicht. Dabei werden die Organothiocyanate in situ in Reaktionslösung aus diversen Aryl- und Alkylhalogeniden und –pseudohalogeniden erzeugt, welche anschließend unter Einsatz von TMSCF2H difluormethyliert werden konnten. Der entscheidende Vorteil dieser Methode ist der Einsatz der nachhaltigen CF2H-Quelle, welche aus Fluoroform herstellbar ist.
In einem weiteren Teilpojekt erfolgte die Entwicklung eines Verfahrens zur Synthese von Trifluormethylthioethern. Dabei können Organothiocyanate unter Decarboxylierung von Trifluoracetaten in Anwesenheit von Eisenkatalysatoren leicht zu den korrespondierenden, wertvollen Trifluormethylthioethern umgesetzt werden. Die Anwendungsbreite konnte an zahlreichen aromatischen, heteroaromatischen und aliphatischen Organothiocyanaten demonstriert werden. In weiterführenden Arbeiten konnte dieses Reaktionskonzepts auf längerkettige perfluorierte Carboxylate erweitert werden.
In einem weiteren Teilprojekt wurde die Sandmeyer Pentafluorethylthiolierung mit Aryldiazoniumsalzen ermöglicht. Sie stellt einen weiteren alternativen Zugang zu den pentafluorethylierten Aromaten dar.
Im darauffolgenden Teilprojekt wurden alternative, nachhaltigere Synthesewege zu den gängigen elektrophilen SCF3-Reagenzien ausgehend von Me4NSCF3 mittels einfacher Salzmetatese realisiert. Besonders erwähnenswert hierbei ist, dass eine in situ Generierung dieser sensiblen Reagenzien die komplizierte Handhabung vereinfacht.
Im letzten Teilprojekt wurden sowohl elektrophile als auch nukleophile Reagenzien zur regioselektiven Einführung von Phosphorothioat-Gruppen entwickelt. Die Anwendungsmöglichkeiten wurden anhand kupferkatalysierten Sandmeyer Reaktion von Aryldiazoniumsalzen, einer palladiumkatalysierten Umsetzung von Aryliodiden und einer kupferkatalysierten Umsetzung von Arylboronsäuren gezeigt.
Zusammengefassend wurden in dieser Arbeit nachhaltige Methoden zur regioselektiven Einführung von CF3, SCF3, SCF2H und SP(O)(OMe)2-Gruppen entwickelt. Dabei wurde das Reaktionskonzept der Sandmeyer Reaktion angewandt. Die wesentlichen Vorteile dabei sind der Einsatz geringer Mengen der Kupferkatalysatoren, die milden Reaktionsbedingungen, sowie die hohe Toleranz gegenüber funktioneller Gruppen, wodurch sich diese Verfahren auch besonders in späten Synthesestufen anbietet.
Untersuchungen zu Raum und Abschirmung am Beispiel der privaten Wohnhäuser von Philip Johnson
(2009)
Architektur ist geprägt vom Wandel. Auch wenn viele Architekten den daraus resultierenden Verlust von Konstanz in der Architektur bemängeln, lohnt sich die Auseinandersetzung mit dem Wandel. Er beinhaltet Entwicklungsmöglichkeiten der Architektur, aus denen wiederum Rückschlüsse für das eigene Entwerfen gewonnen werden können. Da sich die Gründe des Wandels selten eindeutig bestimmen lassen, liegt der Interessensschwerpunkt der Dissertation auf dessen Erscheinungen. Die Aufmerksamkeit wird deshalb auf die wesentlichen Elemente der Architektur, nämlich Raum und Abschirmung, gerichtet. An ihnen werden die Prinzipien des Wandels beschrieben. Dazu werden die Veränderungen von Raum und Abschirmung exemplarisch an den privaten Wohnhäusern von Philip Johnson untersucht. Diese Analyse ergibt, dass sich der Wandel in der Transformation von Raumtyp und Abschirmung bzw. im Wechsel zwischen Raumtypen manifestiert. Während durch die Transformation ein Raumtyp weiterentwickelt wird - Mittel der Transformation sind z.B. die Verformung oder die Verselbständigung von Elementen-, steht der Wechsel von einem Raumtyp zu einem anderen für den fundamentalen Wandel eines Raum- und Gestaltungskonzeptes. Die Wohnhäuser von Philip Johnson können in Bezug auf den Wandel nicht als inhaltlich abschließend bezeichnet werden. Zum einen arbeitet Johnson bei den Wohnhäusern nur mit den vier Raumtypen „Das klar definierte Innen“, „Das Ineinanderfließen von Innen und Außen“, „Innen und Außen als Raumeinheiten“ und „Das Innen im Außen“, zum anderen blendet er z.B. konstruktive Aspekte, wie Bauteilstärken aus. Dennoch können aus der Untersuchung allgemeingültige Rückschlüsse gewonnen werden. Zunächst ist festzustellen, dass der Wandel nicht so komplex ist, wie er durch die Masse diffuser Erscheinungsformen der Architektur erscheint. Er ist rückführbar auf die Veränderungen von Raum und Abschirmung. Sie bilden gemeinsam ein gedankliches und gebautes System, innerhalb dessen sich Architektur bewegt. Dieses System ist offen für potentielle Entwicklungen, d.h. es lässt neue Raumtypen oder aber Veränderungen des Raumtyps und der Abschirmung zu. Darüber hinaus ermöglicht es ein systematisches Vorgehen beim Entwerfen. Entwurfsalternativen und -varianten können aufbauend auf diesen Erkenntnissen aus Raum und Abschirmung gezielt entwickelt werden.
Wir beschreiben eine Methode zur Approximation von Spannungsgradienten aus diskreten Spannungsdaten. Eine herkömmliche Diskretisierung der Ableitungen aus Funktionswerten führt zu Stabilitätsproblemen, weswegen eine Möglichkeit zur Kontrolle der Ableitungen notwendig ist (Regularisierung). Wir bestimmen zunächst das Funktional der potentiellen Energie und führen zusätzlich ein Fehlerfunktional ein, das die Anpassung an die vorgegebenen diskreten Werte ermöglicht. Durch Gewichtung der beiden Funktionale und Minimierung des Gesamtfunktionals erhält man den gewünschten Ausgleich zwischen der Fehlerkontrolle beim Ableiten einerseits und Kontrolle der Fehler bei den Randwerten andererseits.
Die Arbeit behandelt neuartige und gängige Methoden der Baugrundertüchtigung. Die Notwendigkeit einer Baugrundertüchtigung ergibt sich, wenn der anstehende Baugrund nicht in der Lage ist, den beabsichtigten Einwirkungen einen ausreichenden Widerstand entgegenzusetzen. Hierbei kann es sich um Einwirkungen einer geplanten Baumaßnahme handeln, wobei diese Lasten statischer oder auch dynamischer Natur sein können. Auch wenn es sich um Hilfsmaßnahmen handelt, beispielsweise an Baustraßen, so müssen diese während der geplanten Bauzeit ihre Funktion sicher erfüllen. Als weiteres Beispiel sei die Verarbeitbarkeit eines Bodens genannt, wenn dieser als Baustoff bei der Errichtung eines Dammbauwerkes verwendet wird. Letztendlich unterliegen Erdbauwerke nicht nur mechanischen Belastungen, sondern können auch durch Erosionsvorgänge einer Beanspruchung ausgesetzt sein. Wird der Baustoff Boden diesen Anforderungen nicht in ausreichendem Maße gerecht, so muss er entweder gegen ein geeignetes Material ausgetauscht werden oder es werden beispielsweise aufwändige Ergänzungsmaßnahmen erforderlich.
Um diese Maßnahmen zu umgehen, bieten sich in geeigneten Situationen die Ertüchtigung der vorgefundenen Böden an. Hierbei handelt es sich nicht nur um eine ressourcenschonende Vorgehensweise, oftmals ist diese Vorgehensweise auch die wirtschaftlichere. Der anstehende Boden muss nicht verfrachtet, möglicherweise deponiert und ein neues Material beigefahren werden. Die in situ Bearbeitung erfordert lediglich die Beistellung entsprechender Bauhilfsstoffe zur Ertüchtigung.
Welche Art an Bauhilfsstoffen zum Einsatz kommt, richtet sich vorrangig nach den vorgefundenen Bodenverhältnissen. Als traditionelles und längst etabliertes Verfahren hat sich die Beimischung geeigneter Bindemittel hervorgetan. Zu nennen sind hier die beiden hydraulischen Bindemittel Kalk und Zement. Für die Anwendung dieser Stoffe existieren Regelwerke, die Prüfungs- und Kontrollmethoden vor und während des Einbaus solcher Boden-Bindemittel-Mischungen beschreiben.
Trotz des seit langer Zeit bewährten Einsatzes, ist auch bei den beiden genannten Bauhilfsstoffen zu berücksichtigen, dass es sich letztendlich um Rohstoffe handelt, obwohl auch hier insbesondere bei den Kompositzementen bereits ein erhebliches Recyclingpotential genutzt wird. Jedoch fällt ins Gewicht, dass bei der Herstellung der Produkte klimaschädliches Kohlendioxid freigesetzt wird. Unter diesen Gesichtspunkten stellt die Verwendung von Industrieabfällen, die in gleichbleibender Güte anfallen, eine interessante Alternative dar. Neben diesen sogenannten by-products können auch recyclingfähige Materialien verwendet werden, sofern deren Eignung nachgewiesen werden kann. Eine gewisse Hürde bei der Verwendung der letztgenannten Alternativen stellen umweltrechtliche Fragestellungen dar. Zum einen handelt es sich um Abfälle und damit um Produkte, die rechtlich einer gänzlich anderen Würdigung und Bewertung unterliegen. Zum anderen müssen entsprechende Wechselwirkungen zwischen den Stoffen und der umgebenden Biosphäre berücksichtigt und bewertet werden.
In der vorliegenden Habilitationsarbeit werden im ersten Kapitel zunächst als Ausgangspunkt die wesentlichen Merkmale und Eigenschaften beim Einsatz traditioneller Kalk- und Zementbeimischungen untersucht. Das Kapitel 2 schließt an mit Betrachtungen zu dem Baustoff Tonbeton. Hierbei handelt es sich um einen ebenfalls schon lange Zeit bekannten Baustoff, der zwar aufgrund seines eng begrenzten Anwendungsspektrums nur wenig verbreitet ist. Aufgrund seiner Ähnlichkeit zu aktuellen Baustoffen, den zeitweise fließfähigen, selbstverdichtenden Verfüllbaustoffen, gewinnt das Produkt jedoch an Bedeutung. Dies gilt umso mehr, als Prüf- und Kontrollmethoden aufgrund des ähnlichen rheologischen Verhaltens im frühen Zustand derzeit nur ansatzweise vorliegen.
Die Kapitel 3 bis 5 umfassen neuartige Methoden der Bodenertüchtigung. Zu allen Verfahren liegen bereits Erfahrungen aus mehr als zwei Jahrzehnten vor. Diese Erfahrung beruht jedoch vorrangig auf exemplarischen Laborstudien.
Zu nennen sind hier zunächst die Epoxidharze in Kapitel 3. Epoxide werden im Konstruktiven Ingenieurbau vermehrt eingesetzt. Auch in der Geotechnik finden sich neben Laboruntersuchungen bereits praktische Anwendungsfälle, die eine wirksame Ertüchtigung von Festgestein dokumentiert. Eigene Untersuchungen bestätigen die Wirksamkeit dieser Methode.
Mit den Untersuchungen zu Boden-Gummi-Mischungen in Kapitel 4 werden Recyclingprodukte in die Ertüchtigungsmethoden mit einbezogen. Recyclinggummi steht in den unterschiedlichsten Formen zur Verfügung. Je nach Aufwand werden entweder komplette Reifen verbaut, zu Paketen verschnürt oder als Schreddergut in unterschiedlichen Siebfraktionen bis hin zu Pulver verbaut. Dementsprechend vielfältig ist auch das Anwendungsspektrum. Während insbesondere in den USA und einigen europäischen Ländern dieser „Baustoff“ bereits eine gewisse Akzeptanz besitzt, führen in Deutschland rechtliche und umwelttechnische Belange dazu, dass dieses Produkt derzeit nicht vermehrt eingesetzt wird.
In dem letzten Kapitel 5 wird als Ertüchtigungsmethode die Verwendung von Enzymen vorgestellt. Die Untersuchungen belegen, dass dieses biologische Verfahren für bestimmte Anwendungen durchaus seine Berechtigung hat und auch konkurrenzfähig zu bestehenden Methoden auftreten kann.
Die Regulation des Glucosestoffwechsels und damit einhergehend die Aufrechterhaltung der
Glucosehomöostase sind essenzielle Prozesse des menschlichen Körpers zur
Energiegewinnung. Ein dauerhaft erhöhter Blutglucosespiegel ist pathologisch und gilt als
Symptom der Krankheit Diabetes mellitus. Seine steigende Inzidenz sowie Prävalenz weltweit
[Magliano und Boyko, 2021], zeigen die Notwendigkeit der Suche nach Medikamenten auf,
wobei Pflanzenextrakten eine tragende Rolle zukommen kann [Alam et al., 2022]. Die Nutzung
von Nebenprodukten greift zusätzlich den Nachhaltigkeitsaspekt auf, was Biertreber (BSG) als
Ausgangsmaterial entsprechender Untersuchungen interessant macht. Mit über 39 Millionen
Tonnen weltweit pro Jahr stellt er das Hauptnebenprodukt der Bierindustrie dar und wird
bislang vordergründig als Futtermittel verwendet [Mussatto, 2014]. Aktuelle Studien zeigten
seinen Nutzen zur Erhöhung des Nährwertes von Lebensmitteln auf [Sahin et al., 2021; Pratap
Singh et al., 2020]. Zudem wurden bioaktive Inhaltsstoffe wie Flavonoide oder
Hydroxyzimtsäuren (HCA) aus BSG extrahiert, wobei letztere Bestandteil der Arabinoxylane
sind [Stefanello et al., 2018]. Neben antioxidativen Wirkungen sind HCA als Inhibitoren einiger
Enzyme des Glucosestoffwechsels beschrieben. Ferula- (FA) und Kaffeesäure (CA) erwiesen
sich als potente α-Glucosidase-Inhibitoren in vitro [Adisakwattana et al., 2009], FA zeigte
zudem einen starken Einfluss auf Enzyme des Glykogenstoffwechsels [Narasimhan et al.,
2015a; Narasimhan et al., 2015b]. Mittels verschiedener Methoden wie Fest-Flüssig-
Extraktion (SLE) oder alkalischer Hydrolysen wurden verschiedene Extraktgruppen (HA, HE, A)
aus drei BSG-Chargen (BSG 1–3) hergestellt, charakterisiert und in vitro auf ihren Einfluss
gegenüber α-Glucosidase, α-Amylase, Dipeptidylpeptidase IV und Glykogenphosphorylase α
(GPα) untersucht. Die Extrakte aus alkalischer Hydrolyse (HE) wiesen einen deutlich höheren
Gesamtphenol (TPC)- und Gesamtflavonoidgehalt (TFC) auf als die A- (SLE) und HA-Extrakte
(SLE aus Rückstand der alkalischen Hydrolyse). Potente Inhibition wurde v.a. durch die
A-Extrakte gegenüber α-Glucosidase und GPα beobachtet. Eine Korrelation der Inhibition mit
dem TPC und TFC konnte nicht festgestellt werden. HPLC-ESI-MS/MS- Experimente zeigten
zudem die deutlichen Unterschiede der Extraktgruppen, wobei HCA-Derivate als
Leitsubstanzen der HE- und HA-Extrakte und Hordatine als Hauptkomponenten der A-Extrakte
nachgewiesen wurden. Die Hordatin- wie auch HCA-Gehalte wurden semiquantitativ
bestimmt, wobei letztere signifikant geringer in HA- als HE-Extrakten war. Sowohl die FA-
Dehydrodimere (DiFA) als auch Hordatine waren kommerziell nicht erhältlich, weshalb sie aus
BSG isoliert wurden. In beiden Isolierungen wurden Fraktionen erhalten (37 F-Fraktionen aus
DiFA-Isolierung, zehn H-Fraktionen aus Hordatin-Isolierung), welche charakterisiert und im
α-Glucosidase- und GPα-Inhibitionsassay untersucht wurden. Zwei H-Fraktionen hemmten
α-Glucosidase und deuteten auf Hordatin-Glykoside oder den Präkursor p-Coumaroylagmatin
als möglichen Inhibitor hin. Zahlreiche F-Fraktionen hemmten GPα, wobei trimere
Ferulasäurederivate als Inhibitoren postuliert wurden. Eindeutige Rückschlüsse auf die
inhibierenden Komponenten der Extrakte waren aufgrund der geringen Ausbeuten und damit
kleinen Stichprobenzahl sowie den semiquantitativen Bestimmungen schwierig. Zudem
rückten Oxylipine als Inhaltsstoffe fast aller Extrakte sowie der F-Fraktionen in den Fokus. Ein
GPα- und α-Glucosidase-hemmendes Potential von BSG-Extrakten bzw. isolierter
Phytochemikalien konnte im Rahmen der vorliegenden Arbeit nachgewiesen werden.
Mit Durchführung des Instandsetzungsverfahrens 8.3 nach der Technischen Regel Instandhaltung, kurz TR-IH; wird zunächst keine direkte Repassivierung des Bewehrungsstahls angestrebt. Der Instandsetzungserfolg ist vielmehr an die zeitliche Änderung der korrosionsrelevanten Kenngrößen gekoppelt. Hierzu zählen die Erhöhung des spezifischen Elektrolytwiderstands des Betons infolge von Austrocknung sowie die Abnahme der Korrosionsströme und Treibspannungen am Bewehrungsstahl.
Im Rahmen dieser Arbeit wurden grundlegende Untersuchungen zur Wirkungsweise und zu den Anwendungsgrenzen des Instandsetzungsverfahrens 8.3 durchgeführt. Zur Beschreibung der Feuchteaufnahme und Feuchtespeicherung von chloridbelastetem Beton im Vergleich zu chloridfreiem Beton erfolgte die Untersuchung der Sorptionsisotherme an Betonen mit unterschiedlichen Chloridgehalten. Im Weiteren erfolgte die Untersuchung des Austrocknungsverhaltens von chloridbelasteten Betonproben unter eher diffusionsoffenen und stark diffusionsbremsenden Beschichtungen. Zusammen mit dem Austrocknungsverhalten wurde auch die Korrosionsaktivität der Bewehrung mittels elektrochemischer Messmethoden untersucht.
Die korrosionsbremsende Wirkungsweise des Verfahrens 8.3 wird bei niedrigen Wassergehalten primär durch eine anodische Steuerung der Korrosion als maßgeblicher Faktor beeinflusst. Der spezifische Elektrolytwiderstand hat als Systembestandteil im untersuchten Aufbau einen wichtigen, aber für den Nachweis des Instandsetzungserfolgs nicht hinreichenden Anteil, wenngleich er eine gute Korrelation mit der Austrocknung des Betons besitzt. Zur Bewertung der Korrosionskinetik ist die alleinige Betrachtung des spezifischen Elektrolytwiderstands daher ungeeignet.
Im Hinblick auf die Anwendungsgrenze des Verfahrens 8.3 zeigt sich der auf Höhe des Betonstahls im Beton vorhandene Chloridgehalt als ein maßgebliches Kriterium. Während die Korrosionsaktivität selbst bei moderat austrocknenden Proben unter stark diffusionsbremsenden Beschichtungen bei Chloridgehalten von 1 M.-% Cl-/z im Bereich der Passivstromdichte liegt, ist eine vergleichbare Reduktion der Stromdichten bei Chloridgehalten von 2 M.-% Cl-/z von weiteren Randparametern abhängig. Die Art der Beschichtung beeinflusst die Austrocknung des Betons entscheidend. So kann ein weniger dichter Beton unter einer diffusionsoffenen Beschichtung (OS 4) so weit austrocknen, dass die Passivstromdichte erreicht wird. Bei eher diffusionsdichten Beschichtungen und Vorhandensein hoher Chloridgehalte von 2 M.-% Cl-/z führte das Instandsetzungsverfahren 8.3 bei dem gewählten Versuchsaufbau innerhalb üblicher Zeiträume (hier 1,5 Jahre) nachweislich nicht zum Erfolg (unschädliche Korrosionsraten).
Das Ziel der vorliegenden Dissertation war die Herstellung eines Immunotoxins das in der Transplantationsmedizin eingesetzt werden soll. Hierbei wurde das Ribosomen-inaktivierende Protein Gelonin als Toxinkomponente eingesetzt. Die Besonderheit von Gelonin ist, dass es für intakte Zellen nicht toxisch ist, weil es nicht in die Zellen gelangen kann. Um es in die Zelle zu bringen wird eine Ligandenkomponente, in dieser Arbeit der monoklonale anti-PD-1-Antikörper, der an PD-1 auf der Oberfläche von alloreaktiven T-Zellen bindet, benötigt. Gelonin könnte somit durch die Aufnahme über den anti-PD-1-Antikörper in diese Zellen gelangen und sie selektiv zerstören, bevor sie zur Abstoßung des Transplantats führen. Mittels chemischer Kopplung wurden Gelonin und der anti-PD-1-Antikörper miteinander verknüpft, indem sie zunächst mit 2-Iminothiolan modifiziert wurden, um freie Thiolgruppen in die Proteine einzuführen. Nach der weiteren Modifizierung von Gelonin mit Bis-(maleimido)-methylether zur Einführung von Maleimidgruppen erfolgte die Kopplung der beiden Proteine durch Ausbildung einer Thioetherbrücke. Nach der Optimierung war die Herstellung des Konjugats erfolgreich und es erfolgte die Aufreinigung mittels verschiedener chromatographischer Methoden, wie HPLC, ÄKTA und Affinitätschromatographie. Nach der immunologischen Charakterisierung mittels ELISA und Western-Blot wurden Untersuchungen zur Wirksamkeit des Konjugats durchgeführt. Es ergab sich keine signifikante Wirkung des Konjugats auf HEK293T Zellen. Der Grund hierfür könnte sein, dass das Konjugat nicht über Endozytose in die Zelle aufgenommen werden kann.
Zur besseren Charakterisierung und Aufreinigung des Konjugats war ein weiteres Ziel dieser Arbeit die Herstellung eines monoklonalen anti-Gelonin-Antikörpers. Hierzu wurden BALB/c Mäuse erfolgreich mit Gelonin immunisiert und im Anschluss die Milzzellen mit der Myelomzelllinie (X63Ag8.653) fusioniert. Nach zweifacher Klonierung und Expansion wurden mittels Protein-G-Affinitätschromatographie zwei unterschiedliche anti-Gelonin-Antikörper isoliert. Auf Grund ihrer niedrigen Affinität konnten sie aber nicht zur Aufreinigung, sondern nur zur Charakterisierung des Konjugats eingesetzt werden.
Die Aufgabenstellung dieser Arbeit betraf die kinetische Charakterisierung des Wildtyps sowie der Mutanten E und G der Glucose-Dye-Oxidoreductase (GlucDOR) mit den N-substituierten p-Nitrosoanilinen BM-53.0861, BM-31.1008 und BM.31.1144 (firmeninterne Bezeichnungen) und den Zuckern Glucose, Maltose und Galaktose als Zweitsubstrate. Diese Mediatoren finden bei der Firma Roche Diagnostics GmbH ihre praktische Anwendung und befinden sich unter anderem auf dem Testsreifensystem, welches zur Blutzuckerbestimmung bei Diabetikern benutzt wird. Mit Hilfe der in dieser Arbeit gewonnenen Daten bezüglich z.B. der Substratspezifität, Stabilität der drei Enzyme sollte abgeschätzt werden, in wie weit eine praktische Anwendung der Mutanten E und G möglich und auch sinnvoll wäre. Die Charakterisierungen mit den Zuckern Glucose, Maltose und Galaktose und Mediator BM-53.0861 als Zweitsubstrat zeigten, dass beide Mutanten eine bessere Spezifität für die Glucose gegenüber der Maltose aufwiesen. Dabei war die Mutante G mit einem Quotienten vmaxMaltose/vmaxGlucose von 0,018 wesentlich spezifischer als die Mutante E, bei der der Quotient 0,10 betrug. Ein Vergleich der Spezifität für Glucose gegenüber der Galaktose zeigte, dass beide Mutanten eine schlechtere Spezifität als der Wildtyp hatten. Die Berechnungen der 3D-Struktur der Mutanten E und G brachten einige strukturelle Hinweise, durch die die veränderten Substratspezifitäten gegenüber dem WT, besonders im Fall der Maltose, erklärt werden konnten. So ragt z.B. Tyrosin 343 bei den Mutanten weiter in das aktive Zentrum als beim WT und kommt so der Maltose ziemlich nahe. Dadurch könnte es zu sterischer Hinderung kommen. Beim Vergleich der kinetischen Parameter der Mutanten E und G für die Glucose mit den Zweitsubstraten BM-53.0861, BM-31.1008 und BM-31.1144 mit denen des WTs, sprechen die Ergebnisse nicht gegen eine Anwendung der Mutanten auf den Teststreifen. Weder die leicht niedrigeren Hemmkonstanten der Mediatoren, noch die höheren kM-Werte für die Glucose bei den Mutanten sollten ein Hindernis darstellen, da das Enzym auf den Teststreifen in großem Überschuss vorliegt. Ein Aspekt, der bei der praktischen Anwendung zu Problemen führen kann, ist die verringerte Thermostabilität beider Mutanten. Sie zeigten bei 60 °C einen erheblichen Stabilitätsverlust gegenüber dem WT der GlucDOR. Nach einer halben Stunde Inkubationzeit hatten sie weniger als 10 % Restaktivität. Im Falle der Mediatoren BM-31.1008 und BM-31.1144 konnte durch ESR-Untersuchungen festgestellt werden, dass das Phenylendiaminradkal, welches sich im nichtenzymatischen Gleichgewicht zwischen den entsprechenden Chinondiiminen und Phenylendiaminen befindet, nicht für die auftretende Hemmung verantwortlich ist. Mit einem Abnehmen der Umsatzraten sank auch die Konzentration an Phenylendiaminradikal, was im Falle einer durch das Radikal verursachten Hemmung nicht sein dürfte. Ebenfalls konnte durch die ESR-Untersuchungen gezeigt werden, dass während einer konstanten enzymatischen Umsetzung auch die Konzentration des Phenylendiaminradikals konstant blieb. Das spricht für ein konstantes Redoxpotential des Testsystems während der Umsetzung. Das Radikal kann als eine Art Marker für die Gesamtkonzentration an Chinondiimin und Phenylendiamin angesehen werden. Insgesamt zeigt die Arbeit, dass die beiden Mutanten E und G der GlucDOR für die Anwendung auf Teststreifen zur Blutzuckerbestimmung geeignet sind, wenngleich sie eine gewisse Thermoinstabilität im Vergleich zum Wildtyp aufweisen. Diesbezüglich sollten noch Verbesserungen vorgenommen werden.
Im Rahmen der vorliegenden Arbeit wurden Übergänge in kondensierter Phase mit verschiedenen Messtechniken an zwei Fachbereichen untersucht. Im Fachbereich Chemie handelt es sich um zeitaufgelöste IR-Messungen zur Verfolgung von Reaktionskinetiken. Am Fachbereich Physik wurden STM-basierte Strukturanalysen von Molekülen auf Edelmetalloberflächen vorgenommen. Die Projekte werden im Folgenden genauer beschrieben.
Während meiner Arbeit lag ein Fokus auf der Verfolgung von Reaktionskinetiken mittels FT-IR-Spektroskopie. Hierzu wurde ein neues System installiert, das die Kopplung von (Cryo-) Stopped-Flow und Rapid-Scan FT-IR-Spektroskopie erlaubt.
Ziel war die Analyse der Reaktionskinetik der oxidativen Addition von Carbonsäurechloriden (Acetylchlorid, Benzoylchlorid und Trichloracetylchlorid) an einkernige Platinkomplexe. Diese wurden von Marko Leist und Yanik Becker im AK Thiel (Anorganische Chemie, TUK) synthetisiert und im Hinblick auf die Untersuchung von kooperativen Effekten im Schwerpunktprogramm „SFB/TRR 88 - Cooperative Effects in Homo- and Heterometallic Complexes (3MET)“[1] ausgewählt. Sie dienen als Vorstufe zu weiteren, zweikernigen Komplexen, die dann auf ihre kooperativen Effekte[1] untersucht werden sollen. Der im Rahmen dieser Arbeit genauer untersuchte Komplex ist also als Modellsystem anzusehen, das eine Reaktionsgeschwindigkeit von ca. einer Sekunde aufweist. Dies macht eine herkömmliche Untersuchung unmöglich. Daher wurde der Komplex mittels Stopped-Flow Technik im Rapid-Scan Verfahren untersucht. Des Weiteren wurde die Temperatur im Bereich von Raumtemperatur bis 213K variiert, um die Reaktion zu verlangsamen und so eine Ableitung der Geschwindigkeitskonstante der Reaktion und eine Überprüfung auf möglicherweise vorliegende Zwischenstufen zu ermöglichen.
Parallel dazu wurden von mir am Fachbereich Physik Untersuchungen der Strukturen, die sich bei Aufdampfen des Moleküls C8-BTBT auf einer Cu(111)-Oberfläche bilden, mittels STM durchgeführt. Diese Strukturen wurden bei verschiedenen Temperaturen und in Abhängigkeit der Bedeckung systematisch untersucht, um die räumliche Anordnung beeinflussen zu können.
Die induktive Erwärmung stellt insbesondere aufgrund der schnellen intrinsischen Erwärmung eine Schlüsseltechnologie für die zunehmende industrielle Anwendung von textilverstärkten CFK-Organoblechen dar. Allerdings kann deren großes Potenti-al nicht vollständig ausgeschöpft werden, da sich bei konventionellen CFK-Organoblechen über der Laminatdicke physikalisch bedingt eine mit zunehmendem Abstand zum Induktor abfallende Temperaturkurve ergibt. Speziell für CFK-Organobleche bestehend aus textilen Verstärkungshalbzeugen wurde im Rahmen dieser Arbeit zunächst der Einfluss der Textil- und Laminatparameter grundlegend untersucht. Zusätzlich wurde ein analytisches Modell in Form eines elektrischen Er-satzschaubilds einer im CFK-Organoblech vorliegenden Leiterschleife entwickelt, an-hand dessen der dominierende Heizmechanismus identifiziert werden kann. Ab-schließend wurde basierend auf den zuvor gewonnenen Erkenntnissen ein speziell für das kontinuierliche Induktionsschweißen angepasster Laminataufbau entwickelt und validiert.
Für einen teilgesättigten Modellboden sind experimentelle Untersuchungen ausgeführt, die sowohl die Teilsättigung des Bodens während der Belastung als auch die zyklischen Einwirkungen unter drainierten Randbedingungen berücksichtigen. Die Teilsättigung ist durch eine Saugspannungsmessung mittels Miniaturtensiometer in einer zyklischen Triaxialzelle und einem statischen Ödometer erfasst. In zahlreichen Laboruntersuchungen konnte eine reproduzierbare Probenaufbereitung nachgewiesen werden. Insbesondere konnte gezeigt werden, dass im Probeninnern des Modellbodens gegenüber den Probenendflächen keine signifikant abweichenden Wassergehalte und somit konstante Anfangssaugspannungen vorliegen. Vor allem bei der Applikation von zyklischen Beanspruchungen zur Ermittlung und numerischen Beschreibung des Materialverhaltens ist dieser Umstand von Bedeutung. Die Messergebnisse sind anschließend zur Modifikation eines elastoplastischen Stoffmodellansatzes herangezogen.
Mit den erzielten Untersuchungsergebnissen konnten die Parameterfunktionen eines elastoplastischen Stoffgesetzansatzes in Abhängigkeit von der Anfangsporenzahl, des Anfangssättigungsgrades sowie des Isotopen Spannungszustandes unter Berücksichtigung der Einflussgrößen aus der zyklischen Beanspruchung, dieses sind die axiale deviatorische Spannungsamplitude und die Lastzyklenzahl, für einen Frequenzbereich von 0,005 - 0,01 Hz über einen Separationsansatz aufgestellt werden. Die Kopplung der Teilsättigung erfolgt dabei über den Sättigungsgrad bzw. den Wassergehalt des Bodens anhand der porenzahlabhängigen Saugspannungscharakteristik (SWCC).
Es konnte gezeigt werden, dass alle untersuchten teilgesättigten Böden in der zyklischen Lastphase durchgehend eine zyklisch-deviatorische Dehnungsverfestigung aufweisen. Ab einer Lastzyklenzahl größer 560 stagnieren die zyklisch bedingten Verformungen und es entsteht ein quasi-stationärer Verformungs- und Porendruckzustand. Dabei zeigen die sogenannten Wechselversuche eine signifikante höhere Verformungs- und Saugspannungsamplitude als die sogenannten Schwellversuche.
Die aufgestellten Beziehungen gelten für einen Wertebereich der Anfangssättigungsgrade größer 82% und der Anfangsporenzahl zwischen 0,52 und 0,64.
Sekretionssysteme ermöglichen Bakterien nicht nur die Kommunikation mit ihrer Umwelt, sie spielen auch eine große Rolle in der Virulenz. Mit Virulenz werden auch Typ VII-Sekretionssysteme in Verbindung gebracht, die ausschließlich in Gram-positiven Bakterien vorkommen. Substrate dieser Systeme sind u.a. kleine Proteine mit einem zentralen WXG-Motiv, die sogenannten WXG-100 Proteine, die im gleichen Locus kodiert werden. Das ESX-1 System, das u.a. in M. tuberculosis und S. aureus vorkommt, ist ein bisher vor allem in diesen Organismen untersuchtes Typ VII-Sekretionssystem.
Im Gegensatz zu seinem pathogenen Verwandten S. pneumoniae besitzt S. oralis Uo5 Gene, die für ein ESX-1 Sekretionssystem kodieren. Bislang wurde ein solches System in Strepto-kokken nicht untersucht und es war unklar, ob dieses exprimiert wird und welche Funktion es in diesen Bakterien erfüllt.
Im Fokus dieser Arbeit stand nun die Charakterisierung des ESX-1 Sekretionssystems von S. oralis Uo5 und dessen Verbreitung in anderen Streptokokken. Dabei belegten Transkrip-tionsstudien, dass ein interner Terminator zwischen dem ersten und zweiten Gen (esxA und esaA) die Transkription negativ beeinflusst. Trotz der niedrigen Transkriptmenge der downstream des Terminators gelegenen Gene konnte die Funktionalität des Systems durch den Nachweis der beiden WXG-100 Proteine EsxA und EsxB im Cytoplasma und im Kultur-medium bestätigt werden. Der Nachweis der WXG-100 Proteine erfolgte mit Antiseren, die im Rahmen dieser Arbeit gegen die rekombinant hergestellten und aus E. coli isolierten WXG-100 Proteine generiert worden waren. Durch eine Deletion des Gens, das in anderen Organismen für eine FtsK/SpoIIIE-ATPase kodiert, wurde gezeigt, dass auch dieses Protein in S. oralis Uo5 für die Sekretion der WXG-100 Proteine essentiell ist.
Die Daten von CD-spektroskopischen Analysen lassen vermuten, dass EsxA und EsxB, wie in anderen Organismen bereits gezeigt, als lineare Proteine vorliegen, die hauptsächlich aus α-Helices bestehen. Diese Daten zeigen auch, dass EsxA im Gegensatz zu EsxB eine höhere Stabilität besitzt. Durch die Kombination von Gelfiltration und Crosslinking-Experimenten mittels Glutaraldehyd konnte die Bildung von EsxA-Homodimeren bestätigt werden.
Mit Hilfe von Antikörpern konnte EsxA in einer Reihe von S. oralis Stämmen nachgewiesen werden; die Verbreitung des ESX-1 Systems konnte durch PCR-Analysen bestätigt werden. Eine vergleichende Analyse bekannter Genomdaten in silico bestätigt, dass dieses Cluster in verschiedenen Streptokokken-Spezies vorkommt. Eine phylogenetische Analyse der Gene esxA und essC im Vergleich mit dem in allen Bakterien konservierten Gen gyrA verdeutlicht, dass das ESX-1 System als Teil des akzessorischen Genoms angesehen werden kann, das sich über horizontalen Gentransfer verbreiten kann.
In dieser Arbeit wird somit zum ersten Mal ein Typ VII-Sekretionssystem in Streptokokken untersucht. Die Charakterisierung auf molekularer Ebene legt einen Grundstein für die Erforschung der Rolle des ESX-1 Systems in vivo.
Im Rahmen dieser Arbeit wurden Liganden des Typs 2-(2‘-Pyridinyl)pyrimidin untersucht, funktionalisiert und in Folgereaktionen eingesetzt. Dabei wurden verschiedene Substituenten in 4- und 6-Position der Pyridineinheit eingeführt, sowie die daraus resultierenden Liganden mit verschiedenen Metallen insbesondere Iridium und Palladium umgesetzt. Erhaltene N,N-koordinierte Komplexe konnten in der Gasphase hinsichtlich ihrer Aktivierungsbarriere für eine sogenannte roll-over Cyclometallierung untersucht werden. Mit Hilfe der Ergebnisse dieser Untersuchungen konnte identifiziert werden konnte, dass stark elektronenschiebende Substituenten den roll-over Prozess erleichtern. Die Schlussfolgerungen der Voruntersuchungen konnten anschließend in die Praxis umgesetzt werden und in der Folge stabile roll-over cyclometallierte Iridium(III)komplexe in Lösung erhalten werden. Diese C,N-koordinierten Komplexe wurden in Folgereaktionen intensiv weitererforscht. Beispielsweise wurden mehrere bimetallische Komplexe synthetisiert, charakterisiert und für den Einsatz in Katalyse und Photochemie untersucht. Neben den Umsetzungen der Liganden mit Iridium(III), zeigte ein Palladium(II)komplex äußert interessante Eigenschaften. Beim Vergleich mit ähnlichen Liganden, die unter den gleichen Bedingungen umgesetzt wurden, konnte beim erwähnten Komplex ein deutlicher Unterschied der Bindung zwischen Palladium(II)zentrum und Ligand festgestellt werden. Während andere Komplexe ebenfalls eine roll-over Cyclometallierung durchlaufen, wird beim genannten Komplex ein sp3-hybridisiertes Wasserstoffatom substituiert und eine C,N,N-Koordination erhalten. Die Schlussfolgerungen aus beiden Bereichen brachten die interessante Erkenntnis, dass für den untersuchten Typ Ligand die benötigte Elektronendichte innerhalb eines engen Fensters liegen muss, was die Entwicklung eines Pyrimidinylpyrimidinliganden zur Folge hatte.
In einem gesonderten Teilbereich wurden außerdem Platin(II)komplexe für die Etablierung einer stopped-flow Messzelle an der Technischen Universität Kaiserslautern entwickelt. Dazu wurde die sehr elektronenreiche Vorstufe Bis(dimethylsulfoxid)dimethylplatin(II) mit einer Reihe verschieden konfigurierter Bipyridine umgesetzt. Die erhaltenen Komplexe wurden durch den Arbeitskreis Gerhards der physikalischen Chemie mit Acetylchlorid zur Reaktion gebracht und die unterschiedlichen Reaktionsgeschwindigkeiten IR-spektroskopisch untersucht.
Im Fokus der Arbeit steht die Frage, ob mehr demokratische Beteiligung von Mitarbeiter*innen in Organisationen gelingen kann und wie diese Form der Mitbestimmung strukturiert werden kann.
Zunächst werden dazu die Begriffe Organisation und Demokratie wissenschaftlich betrachtet, in einem weiteren Schritt wird ein theoretischer Zusammenhang zwischen beiden Aspekten hergestellt.
Auf Basis der Theorie wird folgend ein Konzept zur Demokratisierung einer Organisation dargestellt und mit konkreten Methoden und Handlungsansätzen untermauert.
Es ist bekannt, dass die Genese von Darmerkrankungen von der aufgenommenen Nahrung beeinflusst wird. Der Genuss von Apfelprodukten mit hoher antioxidativer Wirksamkeit könnte daher zur Prävention ROS-assoziierter Erkrankungen beitragen. Ziel der vorliegenden Arbeit war die Untersuchung von polyphenolreichen Extrakte aus Apfelsaft (AE01–AE07), Tresterextraktionssaft (AE03B, AE06B) und Apfelschalen (GS, PE) sowie von Polyphenolen auf ihr Potenzial zur Verringerung oxidativer Zellschäden in Caco-2 Zellen. Zur Annäherung an die in vivo-Situation wurden mit Darmbakterien fermentierte Apfelsaftextrakte/Trub in die Untersuchungen einbezogen, dabei entstehende Abbauprodukte wurden charakterisiert und ebenfalls geprüft. Untersuchte Parameter waren (oxidative) DNA-Schädigung, zellulärer ROS-Level, GSH-Spiegel und SOD1-Expression. Zusätzlich wurde die zellfreie antioxidative Kapazität (ORAC/TEAC) erfasst. Die antioxidative Kapazität aller Extrakte war hoch und korrelierte mit dem Gehalt an Polyphenolen bzw. Procyanidinen. Der zelluläre ROS-Level wurde am effektivsten durch AE07 und GS reduziert, während AE05, AE06B und GS den besten Schutz vor oxidativen DNA-Schäden boten. Eine Erhöhung des tGSH-Spiegels konnte durch Inkubation mit AE06, AE07, GS und PE erreicht werden. Die Ergebnisse legen nahe, dass vor allem Flavonol/Procyanidin-reiche Extrakte eine gute protektive Wirksamkeit aufweisen. Die fermentierten Extrakte zeigten eine deutliche antioxidative Wirksamkeit, was vor allem den identifizierten phenolischen Abbauprodukten zugeschrieben werden konnte, die fast alle eine ausgeprägte Wirksamkeit im zellfreien und zellulären System zeigten. Es ist nicht auszuschließen, dass auch andere Komponenten (wie z.B. SCFA) zur protektiven Wirksamkeit fermentierter Extrakte beitragen könnten. Der fermentierte Trub erwies sich in den Untersuchungen als unwirksam, da in ihm keine Polyphenole identifiziert werden konnten. Weiterhin wurden auch Polyphenol-vermittelte prooxidative Effekte untersucht, für die sich neben einer starken Strukturabhängigkeit die Wahl des verwendeten Mediums als entscheidender Faktor für die beobachtete H2O2-Bildung erwies. Es wurden keine adversen Effekte auf zelluläre Marker beobachtet, vielmehr könnte die Wirksamkeit der Polyphenole durch geringe Mengen an ROS unterstützt werden, da diese die antioxidative Abwehr der Zellen aktivieren. Insgesamt erwiesen sich phenolische Extrakte aus Apfelbestandteilen als wirksame Antioxidanzien mit hohem Potenzial zur Verringerung oxidativer Zellschäden in humanen Kolonzellen. In begleitenden Untersuchungen mit Einzelstoffen wurden Polyphenole identifiziert, die wesentlich zur protektiven Wirkung der Extrakte beitragen. Es konnte gezeigt werden, dass die protektive Wirksamkeit von Extrakten und Inhaltsstoffen trotz intestinalen Abbaus persistiert und dass eine moderate prooxidative Wirksamkeit der Polyphenole in Zellen einen günstigen Einfluss auf deren antioxidative Abwehr ausüben kann.
Erst durch die Corona Pandemie ist die Arbeits- und Gesundheitssituation der Mitarbeitenden im Gesundheits- und Sozialwesen verstärkt als eine belastete Branche in den Fokus der allgemeinen gesellschaftlichen Aufmerksamkeit gerückt. Diese Branche zeichnet sich teilweise durch prekäre Beschäftigungsverhältnisse aus und ist durch einen überdurchschnittlich hohen Anteil an Teilzeitbeschäftigung geprägt (vgl. Gregersen 2017, S.79). Durch die demographische Entwicklung in Bezug auf die Renteneintritte der „Baby Boomer“ wird sich die ohnehin schwierige Lage massiv verstärken. Auch die gesundheitliche Situation der Beschäftigten zeichnet sich mittlerweile als prekär aus. Im Jahr 2000 betrugen die Fehltage wegen psychischer Erkrankungen 229 Tage pro 100 AOK-Mitglieder in dieser Branche. Bis in das Jahr 2020 hat sich dieser Wert mit 507,2 Fehltagen pro Jahr mehr als verdoppelt (vgl. Fehlzeitenreport 2021, S.643). Dies macht den Handlungsbedarf in Bezug auf die gesundheitliche Situation mehr als deutlich. Allerdings wird Gesundheit durch die Verantwortlichen oft nicht als betriebliches Thema wahrgenommen und erhält dementsprechend wenig Platz im alltäglichen Verhalten und Verstehen zwischen Führungskräften und Mitarbeitenden (Ulich & Wülser 2018, S.133). Den Verantwortlichen in den Organisationen kommt aber für die Gestaltung gesundheitsorientierter Arbeitsbedingungen eine Schlüsselrolle in Bezug auf die Erhaltung und Verbesserung der gesundheitlichen Situation der Beschäftigten zu. Diese Verantwortung kann nicht allein durch die Anschaffung ergonomischer Hilfsmittel und der Installation von Fitnesskursen wahrgenommen werden. Sie muss an den grundlegenden Strukturen und Zielen der Führung ansetzen, damit nachhaltige Veränderung und Verbesserung der gesundheitlichen Situation realisiert werden können.
Zielsetzung dieser Arbeit ist die Entwicklung eines beispielhaften Handlungskonzeptes im Gesundheits- und Sozialwesen, mit welchem eine Transformation hin zu einer gesundheitsförderlichen Führungskultur und einer gesundheitsorientierten Organisation gelingen kann. Um Lösungen auf die eingangs beschriebener Ausgangslage aufzuzeigen, wird im Rahmen dieser wissenschaftlichen Arbeit folgende Forschungsfrage gestellt und bearbeitet: Welche Aspekte und Handlungsansätze unterstützen eine nachhaltige gesundheitsorientierte Transformation der Führungskultur im Gesundheits- und Sozialwesen? Diese Arbeit bildet eine erweiterte Perspektive zu den durch Sabine Gregersen (2017) gewonnen Erkenntnissen bezüglich des Führungsverhaltens und der Gesundheit der Mitarbeitenden im Gesundheits- und Sozialwesen, da insbesondere die Transformation der Führungskultur im Fokus der vorliegenden Arbeit steht.Das im Rahmen dieser Arbeit entwickelte beispielhafte Handlungskonzept stellt hier-für einen Orientierungsrahmen dar, damit welchem der Wandel hin zu mehr Gesund-heitsorientierung nicht losgelöst von den aktuellen Belastungen und Stressoren erfolgt. Schlüsselelement des Konzeptes ist die persistierende Bearbeitung im Sinne der korrektiven und präventiven Maßnahmen und sich gleichzeitig im Sinne der Transformation prospektiv in die Zukunft auszurichten. Durch diese duale Vorgehensweise kann es gelingen, die Revitalisierung und langfristig die Remodellierung in den Organisationen zu realisieren. Nur durch diese duale Strategie kann eine Transformation der Führungskultur aus der Sicht der Autorin gelingen. Hierfür bildet, dass in dieser Arbeit entwickelte beispielhafte Handlungskonzept einen geeigneten Rahmen, an welchem sich die Organisationen individuell ausrichten können und sollen.
Gegenstand der Forschungsfrage ist, wie Wasserprogramme gemanagt werden, um zu einer nachhaltigen Entwicklung sowie zur Umsetzung des Sustainable Development Goal 6 und anderen zentralen SDGs der Agenda 2030 beitragen zu können, die als Fortschreibung der Millennium Development Goals eine wirksamere internationale Nachhaltigkeitspolitik sicherstellen sollen. Seit der Agenda 2030 versehen Durchführungsorganisationen der Entwicklungszusammenarbeit ihre Vorhaben mit dem Prädikat „nachhaltig“. Hier stellt sich die Frage, ob die Nachhaltigkeit nur auf dem Papier existiert oder ob sich tatsächlich nachhaltigere Ansätze erkennen lassen.
Im Rahmen der deutschen Entwicklungszusammenarbeit implementiert die Gesellschaft für Internationale Zusammenarbeit in Sambia das Vorhaben "Wasser klimasensibel bewirtschaften", in dessen Rahmen nachhaltige Maßnahmen ergriffen werden, Menschen zu befähigen, mit den veränderten klimatischen Bedingungen zurechtzukommen. Darunter fallen unter anderem Sensibilisierungsmaßnahmen für Landwirte, die dazu dienen, die Ressource Wasser effektiv zu nutzen, oder technische Eingriffe, die den Zweck verfolgen, Niederschläge aus Starkregenereignissen abzufangen bzw. deren Zerstörungspotenzial zu lindern.
Obwohl Sambia eines der wasserreichsten Länder Afrikas ist, haben dort nicht alle Menschen Zugang zu Wasser. Auch in der Landwirtschaft sind Engpässe zu verzeichnen. Diese Problematik wird zusätzlich durch den Klimawandel verstärkt. Es kam in den letzten Jahren zunehmend einerseits zu Ausfällen ganzer Regenzeiten, aber andererseits auch zu extremen Niederschlagsereignissen jenseits gewohnter Regen- und Trockenzeiten. Für Landwirte, die ihre Produktion auf die saisonalen Witterungsverhältnisse abgestimmt haben, sind diese unberechenbaren klimatischen Veränderungen existenzbedrohend. Trotz des Wasserreichtums kommt es dann entweder zu Engpässen bei der Bewässerung der Felder oder zur Zerstörung von Ernteerträgen durch Extremwetter.
Das von dem in Sambia lebenden Verfasser gewählte Fallbeispiel, dessen Analyse der Klärung der oben angeführten Forschungsfrage dienen soll, ist das GIZ-Projekt „Nachhaltige Bewirtschaftung von Wasserressourcen und landwirtschaftlicher Wassernutzung in Sambia“. Im Rahmen dieses Fallbeispiels wird kontrovers diskutiert, ob und inwiefern sich das heutige Nachhaltigkeitskonzept von bisherigen Maßnahmen unterscheidet, die zu Zeiten der MDGs noch nicht explizit nachhaltig geprägt waren. Der Verfasser wird sich kritisch mit der Frage auseinandersetzen, ob die in der Fallstudie gewählte Maßnahme "Wasser klimasensibel bewirtschaften" geeignet ist, langfristig nachhaltige Wirkung zu erzielen. Anhand des Fallbeispiels sollen theoretische Ansätze der Nachhaltigkeit empirisch untersucht werden.
Durch Metathese gelang es aus Cadmiumiodid und zwei Äquivalenten Natrium-tetraisopropylcyclopentadienid bzw. Natrium-tri(tert.-butyl)cyclopentadienid die monomeren Metallocene Bis(tetraisopropylcyclopentadienyl)cadmium (4) und Bis[tri(tert.-butyl)cyclopentadienyl]cadmium (5) herzustellen, welche ohne koordinierte Lösungsmittel oder Alkalimetallsalze vorliegen. Zusätzlich zeichnen sie sich durch gute Sublimierbarkeit, Lichtbeständigkeit und Löslichkeit aus. Weiterhin ist es gelungen, durch die Umsetzung von Cadmiumiodid mit Natrium-tri(tert.-butyl)cyclopentadienid und Mestitylmagnesiumbromid den ersten kristallstrukturanalytisch charakterisierten Cyclopentadienylkomplex des Cadmiums herzustellen, der einen Aryl-Liganden trägt. Das durch Metathese von Zinkiodid und zwei Äquivalenten Natrium-tri(tert.-butyl)cyclopentadienid hergestellte Bis[tri(tert.-butyl)cyclopentadienyl]zink (2) liegt ebenfalls als Monomer vor. Komplex 2 zeigt zu den Liganden eine 1- / 5- Bindungssituation, wodurch am Zinkatom eine 18 Valenzelektronenkonfiguration erzeugt wird. Durch die Kombination von Phasentransferkatalyse und anschließender Metallierung/ Alkylierung, wurde eine Synthesevariante für Tetraisopropylcyclopentadien entwickelt, bei der unter nur geringer Ausbeuteeinbuße die Verwendung von flüssigem Ammoniak vermieden und eine deutliche Arbeitsersparnis erreicht werden konnte. Weiterhin wurde durch Behandlung von geminal dialkylierten Pentaisopropylcyclopentadien-Isomeren mit n-Butyllithium im Ultraschallbad ein neuer Zugang zu Lithiumpenta-isopropylcyclopentadienid durch die Verschiebung einer Alkylgruppe gefunden. Die Umsetzung von zwei Äquivalenten Natrium-tetraisopropylcyclopentadienid mit einem Äquivalent SmCl3  2 THF liefert mit dem Natrium-bis(tetra-isopropylcyclopentadienyl)-dichloro-bis(dimethoxyethan)-samarat (16) das erste kristallographisch charakterisierte Natriumsamarat mit sterisch aufwendig substituierten Cp-Liganden. Das monomere Bis[tri(tert.-butyl)cyclopentadienyl]samarium(III)iodid (17) dagegen wurde durch eine Oxidation von Hexa(tert.-butyl)samarocen mit CuI hergestellt. Das voluminöse Iodid im Zusammenspiel mit den sterisch aufwendigen Cyclopentadienylliganden bewirkt, dass weder eine Salzadduktbildung noch eine Koordination von Donorlösungsmitteln zu beobachten ist. Eine Umsetzung äquimolarer Mengen von Natrium-tetraisopropylcyclopentadienid mit CeCl3  1,5 THF und anschließende Kristallisation aus TMEDA ergab den polymeren Komplex [(4Cp2Ce)(μ-Cl)2Na(TMEDA)2] (18). Die Kristallstrukturanalyse zeigt, dass Komplex 18 in zick – zack – förmiger Kettenstruktur vorliegt, welche aus einzelnen [4Cp2CeCl2Na(TMEDA)2] – Einheiten zusammengesetzt ist. Die Metathese von LaI3  3,75 THF mit zwei Äquivalenten Natrium-tri(tert.-butyl)cyclopentadienid bzw. Natrium-tetraisopropylcyclopentadienid lieferte Bis[tri(tert.-butyl)cyclopenta-dienyl]lanthan(III)iodid (20) und Bis[tetraisopropyl-cyclopentadienyl]-lanthan(III)iodid) (21). Eine erste erfolgreiche Umsetzung von 20 mit einem Äquivalent Na2COT ergab Cyclooctatetraenyl-[tri(tert.-butyl)cyclopentadienyl]lanthan(III) (22).
Diese Dissertation ist ein Beitrag zur Untersuchung der Anwendbarkeit der Random-Matrix-Theorie (RMT) in der Quantenchromodynamik (QCD). Untersucht werden die Fluktuationen der kleinen Eigenwerte des Dirac-Operators mit Kogut-Susskind-Fermionen und SUc(2)-Eichfeldern. Diese werden mit Hilfe eines Hybrid-Monte-Carlo-Algorithmus erzeugt. Die Universalität der Fluktuationen kleiner Eigenwerte, das heisst die Übereinstimmung der numerisch berechneten Spektren mit den Vorhersagen des chiralen Random-Matrix-Modells wird in dieser Arbeit nachgewiesen. Die Bedeutung dieses Resultats liegt in der Allgemeinheit des Ansatzes, die QCD-Zustandssumme für ein endliches Volumen durch ein Random-Matrix-Modell zu approximieren.
In dieser Masterarbeit wird der Status Quo von Nachhaltigkeitsberichterstattung (NBE) an deutschen Hochschulen aufgezeigt, sowie aktuell bestehende mögliche Ansätze zur Standardisierung in Bezug zueinander gesetzt. Die Ansätze sind gegliedert in die Standardisierung von oben (qua Gesetz) und die Standardisierung von unten (qua Einzelinitiativen). Die Arbeit schließt mit den daraus resultierenden Handlungsempfehlungen für eine erfolgreiche Standardisierung von NBE an deutschen Hochschulen.
The tape placement technique is of particular importance for the production of large
and weight optimized structural components especially in the aeronautic industry.
The components are produced independently of size and load directions by placing
single unidirectional fiber reinforced tapes automatically. Moreover, very large component
dimensions enable a reduction of joining processes.
In comparison to the thermoset tape placement, additional potentials can be set up
through the usage of thermoplastic semi-finished materials, as beside the high degree
of integration und the defined laminate construction less material specific problems
and a non-autoclave production can be realized. This thesis follows an allembracing
analyses and development of the thermoplastic tape placement process
to provide knowledge to overcome the deficits concerning semi-finished materials,
systems engineering and available models for the process description.
First, the process is described and differentiated. Within the scope of a strategic
process analyses, the potentials and strength of this process are worked out.
Through a succeeding operational process analyses, the process is pictured in detail
and further developments of the process and the control are made possible.
All aspects of the process in terms of quality of the semi-finished material, systems
engineering, process control, and quality assurance are considered for the process
development. Innovative concepts to solve the first layer problem and a new tape
placement head are worked out.
A new model is developed to support strategic decisions on basis of component specific
cycle times. A measure for the component shape complexity is derived and integrated
into a continuous approach. The model is based on the process physics and
can be applied to any component without a need for empiric data.
Finally, new process potentials are presented through a combination of thermoforming
and thermoplastic tape placement.
α-, β- und γ-Asaron gehören zur Gruppe der Phenylpropanoide und kommen überwiegend in Pflanzen der Familien Aristolochiaceae, Acoraceae und Lauraceae vor. Asarone sind im etherischen Öl dieser Pflanzen enthalten, welches hauptsächlich als Aromastoff in
alkoholischen Getränken wie Bitterlikören oder in der traditionellen Pflanzenmedizin
eingesetzt wird. α- und β-Asaron besitzen pharmakologische Eigenschaften und könnten potentiell in der Therapie von verschiedenen Krankheiten eingesetzt werden, jedoch haben Studien gezeigt, dass diese Verbindungen sowie indisches Kalmusöl im Tierversuch im Nager
krebserregend sind (Dünndarm und Leber). Der Mechanismus dieser kanzerogenen Wirkung ist derzeit noch unklar, wobei ein gentoxischer Weg nicht ausgeschlossen werden kann. Studien zur Gentoxizität der propenylischen Verbindungen α- und β-Asaron sind bislang uneinheitlich. Daten zur Kanzerogenität und Gentoxizität des allylischen γ-Asarons fehlen
gänzlich. Basierend auf der aktuellen Datenlage ist eine Risikobewertung für Zubereitungen, die Asarone enthalten, nicht möglich. Im Rahmen der vorliegenden Dissertation sollte daher
mithilfe von verschiedenen in vitro Testsystemen ein Beitrag zur Aufklärung des Wirkmechanismus der Kanzerogenität geleistet und die Frage nach der Gentoxizität der Asarone geklärt werden. Dazu wurde zunächst ein bakterieller Mutagenitätstest (Ames-Fluktuationstest) mit und ohne exogene metabolische Aktivierung (S9-Mix) in den Salmonella
typhimurium-Stämmen TA97a, TA98, TA100 und TA102 eingesetzt. Zusätzlich wurden Untersuchungen zur Zytotoxizität und Gentoxizität in Säugerzellen durchgeführt. Zur Überprüfung der Mutagenität diente der Hypoxanthinphosphoribosyltransferase (HPRT)-Test in V79-Zellen und gentechnisch veränderten V79-Zellen (V79-hCYP1A2-hSULT1A1*1 und V79-
rCYP1A2-rSULT1C1) und zur Bestimmung des gentoxischen Potentials wurde der
Mikrokerntest in V79-Zellen und metabolisch kompetenten HepG2-Zellen herangezogen. α- und β-Asaron zeigten im Ames-Fluktuationstest nur nach metabolischer Aktivierung ein mutagenes Potential. Diese Ergebnisse deuten auf die wichtige Rolle des Metabolismus in der
Toxizität der propenylischen Asarone hin. Deshalb wurden neben den drei Asaron-Isomeren auch ausgewählte oxidative Metaboliten ((E/Z)-Asaron-1',2'-epoxid, γ-Asaron-2',3'-epoxid, erythro- und threo-1',2'-Dihydro-1',2'-dihydroxyasaron, (E/Z)-3'-Oxoasaron und 2,4,5-Trimethoxyphenyl-2-propanon) auf Mutagenität getestet. Dabei konnte festgestellt werden, dass die mutagene Wirkung von α- und β-Asaron auf die Epoxidierung der Seitenkette
zurückzuführen ist, da die entsprechenden Epoxide im Ames-Fluktuationstest ebenfalls mutagen waren. Außerdem führte der HPRT-Test in den gentechnisch veränderten V79-hCYP1A2-hSULT1A1*1-Zellen zu einer leichten Erhöhung der Mutationsfrequenz nach Inkubation mit den Asaronen, während der Test in den Standard-V79- und V79-rCYP1A2-rSULT1C1-Zellen für diese Verbindungen keine Veränderung im Vergleich zur Negativkontrolle zeigte. Im Mikrokerntest in HepG2-Zellen konnte ebenfalls ein gentoxisches Potential für die
propenylischen Asarone nachgewiesen werden. Welchen Einfluss dabei der Metabolismus der Substanzen hat, wurde mithilfe einer Vorinkubation mit TCDD überprüft, welches vor allem zur Induktion von CYP1A-Enzymen in HepG2-Zellen führt. Bei allen drei Asaron-Isomeren
wurde dadurch eine Erhöhung der relativen Mikrokernrate erreicht, insbesondere jedoch bei α-Asaron. Die Inkubation mit den oxidativen Metaboliten gab Hinweise darauf, dass die gentoxische Wirkung hier vermutlich auf die Bildung von (E/Z)-3'-Oxoasaron zurückzuführen ist. In der vorliegenden Arbeit konnte somit gezeigt werden, dass nicht nur zwischen allylischen und propenylischen Asaronen Unterschiede in der Gentoxizität vorliegen, sondern auch zwischen dem trans(α)- und cis(β)-Isomer. Dieser Befund geht mit den neuesten Untersuchungen zum Metabolismus dieser Substanzen einher, der sich ebenfalls zwischen den propenylischen Asaronen unterscheidet. Dem allylischen γ-Asaron liegt wiederum ein anderer Wirkmechanismus zugrunde. Der postulierte Metabolismusweg für vergleichbare allylische Alkenylbenzene basiert auf einer CYP-Hydroxylierung der Seitenkette und einer weiteren Sulfonierung durch Sulfotransferasen. Durch eine spontane Abspaltung der Sulfat-Gruppe entsteht ein reaktives Carbokation, das mit nukleophilen Zentren (z.B. Proteinen oder DNA) reagieren und somit letztlich zu Mutationen und der Entstehung von Krebs beitragen
kann. Die Ergebnisse der vorliegenden Arbeit geben jedoch keinen Hinweis darauf, dass es bei γ-Asaron analog zu anderen allylischen Propenylbenzenen zu einer Bildung eines ultimaten Kanzerogens kommt, da keine mutagene Wirkung in den hier verwendeten Testsystemen zu
beobachten war, die zum Großteil eine Aktivierung über Sulfotransferasen ermöglichten.
Technische und gesellschaftliche Entwicklungen im Bereich der Digitalisierung und vor allem der künstlichen Systeme werden in der gutachterlichen Stellungnahme dargestellt. Im Mittelpunkt stehen Auswirkungen der digitalen Transformation für Politik und Verwaltung in Rhein-land-Pfalz, verschiedene technische Lösungen, Divergenzen zwischen ländlichem und urbanen Räumen sowie Zukunftsvorstellungen.
Bei künstlicher Intelligenz handelt es sich um einen spezifischen Aspekt der Digitalisierung. Beide – Digitalisierung und Künstliche Intelligenz – gehen mit unterschiedlichen Facetten gesellschaftlichen Wandels einher, die in ihrer orts- und regionalspezifischen Einbettung zu untersuchen sind. Dabei ist es unabdingbar, sowohl die gesellschaftlichen als auch die technischen Innovationen aufeinander zu beziehen und diese in ihren Wechselwirkungen als eine sozio-technische Dynamik aufzufassen.
Auf Grundlage eines umfassenden Literaturreviews wird ein Überblick über die aktuellen technischen Anwendungen bei der Künstlichen Intelligenz und der Digitalisierung gegeben (Maschinenlernen, Robotics, Deep Learning, Data Mining, Blockchain, etc). In den verschiedenen Siedlungsräumen in Rheinland-Pfalz kommen – teilweise in transdisziplinären Forschungsprojekten – die neuen digitalen Möglichkeiten bereits zum Einsatz, z.B. im Projekt Digitale Dörfer, in der Chemieindustrie oder bei Versuchen für autonomes Fahren. Anwendungsfelder in unterschiedlichen Lebensbereichen werden für die verschiedenen Regionen in Rheinland-Pfalz aufgezeigt. Das Verschmelzen von virtuellem und realem Raum sowie die Normalisierung digitaler Lebensstile führt auch zu wachsenden Erwartungen an die Digitalität von Verwaltung und Politik. Vorteile von KI in der Verwaltung können erleichterte Kontakte zu Bürgern, schnellere interne Kommunikationswege, eine Prozessoptimierung und die Vernetzung der Abteilungen und Ressorts sein.
Die Autorinnen und Autoren der TU Kaiserslautern, Fachgebiet Stadtsoziologie, des Deut-schen Forschungszentrums für Künstliche Intelligenz DFKI und des Fraunhofer-Instituts für Experimentelles Software-Engineering IESE erarbeiteten in einem Expertenworkshop verschiedene Szenarien zur Darstellung der zukünftigen Lebenssituationen kommunaler Gemeinschaften unter der An- und Verwendung von Digitalisierungstechnologien und KI im Jahr 2050. Die Chancen und Risiken für die unterschiedlichen Regionen und Lebens-bereiche in Rheinland-Pfalz wurden in zwei extremen Varianten skizziert und einander gegenübergestellt. Während der Dystopie-Zustand eine Zukunft zeichnet, in der die Märkte von wenigen Global-Playern mit enormer Datenhoheit und aggressiven Geschäftsmodellen dominiert wer-den, zeigt der Utopie-Zustand eine von Teilhabe und Mitbestimmung geprägte, digitale Zukunft: Die digitale Transformation wird durch Politik und Gesellschaft gleichermaßen gesteuert, Bürger haben volle Datenhoheit und bestimmen individuell und situationsspezifisch, wann und welche Daten sie veröffentlichen möchten. Neue Möglichkeiten der Arbeitsgestaltung und neue Mobilitätsformen haben zu einer Flexibilisierung und Attraktivitätssteigerung hinsichtlich des Lebens und Arbeitens auf dem Land beigetragen. Ethische Grundprinzipien, gesellschaftliche, wirtschaftliche und politische Anforderungen werden somit mit den technologischen Potenzialen optimal in Einklang gebracht.
Wie diese Stellungnahme anhand der entworfenen Utopie und Dystopie illustriert, ist die technische Entwicklung von gesellschaftlicher Steuerung und Regulierung abhängig. Vor diesem Hintergrund erfordert die digitale Transformation Gestaltungswillen, spezifische Kenntnisse und auch Regulierung. Bei Letzterem gilt es, sowohl die Daten als Rohmaterial für KI, die (digitale und KI-) Technologien selbst – ihre Entwicklung und Verwendung – sowie daraus resultierende Informationen bzw. Wissen zu unterscheiden. Die Empfehlung aus dem Gutachten lautet daher, Informationen über Potenziale und Risiken transparent zugänglich und bekannt zu machen, die Bevölkerung aktiv einzubinden und eine strukturierte Förderung zu leisten, um Insellösungen zu überwinden und stattdessen Standards und offene Infrastrukturen zu schaffen. Es besteht die Gefahr, dass sich beim Einführungsprozess nicht-legitimierte, von Spezialisten und der Privatwirtschaft dominierte Strukturen (Meta-Governance) etablieren.
Insgesamt gilt beim Prozess der digitalen Transformation, dass Lösungen aus der vor-digitalen Ära nicht einfach auf heutige und zukünftige Probleme angewendet werden können. Ferner ist die Diversität der Situationen vor Ort bei der digitalen Transformation zu berücksichtigen. Dies ist insbesondere vor dem Hintergrund des ländlich geprägten Rhein-land-Pfalz von Bedeutung.
Die örtlichen Verwaltungen unterliegen der digitalen Transformation ebenso wie andere Systeme und Lebensbereiche, sie sind in unterschiedlichem Maße in der Lage, die Chancen für lokale und regionale Interessen zu nutzen und ihre Interessen durchzusetzen. Kommunen und Landkreise benötigen Unterstützung, damit sie von anderen, z.B. Leuchtturm-Projekten, lernen und beraten werden können. Ein Gegenstromprinzip von zivilgesellschaftlichen bzw. lokalen Bottom-up-Prozessen und Top-down- Unterstützung durch das Land erscheint zielführend (z.B. im Tourismus).
Bei der Bevölkerung sind bezogen auf KI und Digitalisierung aktuell gegensätzliche Tendenzen zu verzeichnen: Einerseits nehmen die Erwartungen an eine digitalisierte und moderne Verwaltung zu. Andererseits stoßen insbesondere als komplexer wahrgenommene Aspekte wie KI auf Vorbehalte. Bei einem verantwortungsvollen Umgang kann KI ihr Potenzial entfalten, indem die Algorithmen und eingeführte Technologien hinsichtlich der Gesetzeslage sowie ethischer und moralischer Überlegungen überwacht und gesteuert wer-den. Ein verantwortungsvoller Umgang mit Daten basiert auf aufgeklärten Entscheidern, informierten Bürgern und der Unterstützung von „bürgerschützenden Regeln”, die Miss-brauch grundsätzlich erschweren und Verstöße ahnden.
Langfristige Aussagen über die konkrete Entwicklung und Auswirkung von KI und Digitalisierung lassen sich nicht treffen aufgrund der Geschwindigkeit und Sprunghaftigkeit der Entwicklungen. In Bildung und Wissenschaft sollten im Bereich von KI die Interdisziplinarität gestärkt, nachhaltige und langfristige Strukturen geschaffen werden, um die digitale Transformation begleitend und aktivierend zu erforschen.
Bei Acrylamid handelt es sich um ein genotoxisches Kanzerogen, welches beim Erhitzen von Lebensmitteln gebildet wird. Im Rahmen dieser Arbeit wurde untersucht, inwieweit spezifische Lebensmittelmatrices die Bioverfügbarkeit und den Metabolismus von Acrylamid beeinflussen. Lebkuchen als zuckerhaltiges, fettarmes und trockenes Lebensmittel auf Getreidebasis und Pommes frites (fett- und wasserreich; Kartoffelbasis) die entweder direkt aus der Kartoffel geschnitten (mit intakter Gewebestruktur) oder aus Kartoffelerzeugnissen „rekombiniert“ wurden sowie Brotkruste wurden an männliche Sprague Dawley-Ratten über 1, 3, 5, 7 und 9 Tage verfüttert und mit der Aufnahme von Acrylamid über Trinkwasser (Schlundsondierung)verglichen. Die täglich verabreichte Acrylamid-Dosis lag bei 100 µg/kg KG für Pommes frites und Lebkuchen bzw. 50 µg/kg KG für Brotkruste. Als Langzeit-Expositionsbiomarker wurden Addukte von Acrylamid und Glycidamid mit dem endständigen Valin (Val) am Hämoglobin (Hb) herangezogen. Das Ausmaß der AAVal-Bildung in den Tieren, denen Acrylamid über Pommes frites verabreicht wurde, entsprach jener nach Gabe einer entsprechenden Dosis Acrylamid in Trinkwasser mittels Schlundsondierung (AA-TW-Gruppen), was auf eine vergleichbare Bioverfügbarkeit von Acrylamid hindeutet. Lediglich in den Gruppen, die Acrylamid über Brotkruste erhielten, wurde eine geringfügig verminderte Bildung von AAVal-Hb-Addukten im Vergleich zu den AA-TW-Gruppen beobachtet. Nach Aufnahme von Acrylamid über Pommes frites wurde kein signifikanter Unterschied in der Gesamtausscheidung an Mercaptursäuren im Vergleich zur Gabe in Trinkwasser mittels Schlundsondierung (AA-TW-Gruppen) beobachtet, was auf eine vergleichbare Bioverfügbarkeit von Acrylamid hindeutet. Bei den mit Brotkruste gefütterten Tieren wurde eine im Vergleich zu AA-TW-Gruppen geringfügig erniedrigte Ausscheidung an AAMA beobachtet, was im Einklang mit der erniedrigten AA-Val-Bildung steht. Für die Ermittlung der Gesamtbilanz an Acrylamid-Ausscheidung aus dem Organismus wurde auch die Acrylamid- und Glycidamid-Ausscheidung im 24-Stunden-Sammelurin bestimmt. Die ausgeschiedenen Anteile an der verabreichten Tagesdosis leisten einen im Vergleich zu den Mercaptursäuren verhältnismäßig geringen Beitrag zur Gesamtausscheidung einer verabreichten Acrylamid-Dosis. Zur Untersuchung der Resorptionskinetik von Acrylamid bei Verabreichung über Pommes frites im Vergleich zur Aufnahme in Trinkwasser (Schlundsondierung) wurden über einen Zeitraum von 4 Stunden die Acrylamid- und Glycidamid-Gehalte in Rattenserum bestimmt. Insgesamt deutet der zeitliche Verlauf der Acrylamid-Serumkonzentration in der mit Pommes frites gefütterten Gruppe auf eine im Vergleich zur AA-TW-Gruppe verzögerte Freisetzung bzw. verlangsamte Resorption von Acrylamid im Gastrointestinaltrakt hin. Zur Abschätzung der Hintergrundbelastung mit Acrylamid wurden in 8 humanen Blutproben die Gehalte an Acrylamid- und Glycidamid-Hämoglobin-Addukten (AAVal, GAVal) sowie in 10 humanen Urinproben die Gehalte an Acrylamid- und Glycidamid-Mercaptursäuren (AAMA, GAMA) bestimmt. Bei den Rauchern wurden deutlich höhere AAVal-Gehalte im Vergleich zu Nichtrauchern gemessen, wohingegen die Gehalte an GAVal auf vergleichbarem Niveau lagen. Darüber hinaus wurde bei den Rauchern eine im Vergleich zu Nichtrauchern signifikant höhere Ausscheidung von AAMA und GAMA beobachtet, wobei die entsprechenden GAMA/AAMA-Verhältnisse bei Rauchern erniedrigt waren. Im Rahmen einer humanen Verzehrsstudie „Bedeutung der CYP450 2E1-Aktivität für die Toxikokinetik von Acrylamid beim Menschen“ wurden Addukte von Acrylamid und Glycidamid mit dem endständigen Valin des Hämoglobin bestimmt. Dabei wurde das Ausmaß der Addukt-Bildung bei 13 Probanden nach Aufnahme von ca. 1 mg Acrylamid über Kartoffel-Chips jeweils bei unbeeinflusster, gehemmter und induzierter CYP450 2E1-Aktivität untersucht. In der Referenzperiode ohne Komedikation wurde bei diesen Probanden ein Anstieg der AAVal-Gehalte um 8 ± 5 pmol/g Hb beobachtet. Ein im Vergleich zur R-Phase signifikant erhöhter AAVal-Anstieg (12 ± 5 pmol/g Hb) zeigte sich in der Testperiode T1, in der CYP450 2E1 durch Disulfiram gehemmt wurde. In der Testperiode T2, in der CYP450 2E1 durch eine Vorbehandlung mit Ethanol induziert wurde, wiesen die AAVal-Gehalte einen mit der R-Phase vergleichbaren Anstieg um 9 ± 5 pmol/g Hb auf. Für GAVal hingegen konnten aufgrund der größeren Messwertschwankungen keine signifikanten Veränderungen in der Testperiode T1 bzw. T2 im Vergleich zur Referenzperiode festgestellt werden. Darüber hinaus wurde bei 3 Probanden der zeitliche Verlauf der AAVal-Bildung in den jeweiligen Testperioden über einen Zeitraum von 24 Stunden untersucht. Die maximale AAVal-Konzentration wurde bei den untersuchten Probanden im Zeitraum von 8-10 Stunden erreicht, wobei anschließend ein Plateau-förmiger Verlauf der Bildungskurven beobachtet wurde.
Die Enzyme α-Amylase und α-Glucosidase katalysieren die Hydrolyse von Polysacchariden in resorbierbare Monosaccharide und damit die Glucosefreisetzung ins Blut. Durch Glykogenphosphorylase α wird ebenfalls Glucose ins Blut freigesetzt, hier jedoch durch die Hydrolyse von Leber- oder Muskelglykogen. Dipeptidylpeptidase IV spielt eine zentrale Rolle bei der Freisetzung von Insulin, indem sie das Inkretinhormon Glucagon-like-peptide-1 (GLP-1) abbaut. Hemmstoffe dieser Enzyme finden in der therapeutischen Behandlung und Prävention von Diabetes mellitus Anwendung. Neben synthetischen Inhibitoren sind bereits einige natürliche Stoffe mit hemmender Wirkung bekannt, die in unterschiedlichen Lebensmitteln vorkommen. So erwiesen sich vor allem Flavonoide als potente Hemmer. Diese Arbeit beschäftigt sich mit dem Einfluss verschiedener Extrakte aus neun roten Früchten auf die Aktivität der Enzyme α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro und in vivo sowie der Identifizierung der verantwortlichen Inhaltsstoffe und entstand in Kooperation mit der TU Braunschweig. Alle Saftextrakte enthielten potente Inhibitoren der untersuchten Enzyme. Zu den aktivsten Extrakten zählten die aus Aronia (Aronia melanocarpa), Granatapfel (Punica granatum) und roter Traube (Vitis vinifera). Zur Identifizierung der aktiven Inhaltsstoffe wurden diese drei Extrakte in ihre Anthocyan-, Copigment- und Polymerfraktion getrennt und die ersten beiden Fraktionen in Braunschweig weiter subfraktioniert. Auch hier zeigten sich alle (Sub-)Fraktionen als potente Inhibitoren der getesteten Enzyme. Eine Studie mit einzelnen Anthocyanen und Copigmenten belegte diese Ergebnisse und gab Hinweise auf die Strukturabhängigkeit des Inhibitionspotentials. So beeinflussen die Anwesenheit und Anzahl der Hydroxyl- sowie Methylgruppen, die Molekülgröße und synergistische Effekte die inhibitorische Aktivität. Um eine irreversible Inaktivierung der Enzyme auszuschließen, wurde der Hemmmechanismus der Extrakte und Fraktionen ermittelt. Hierbei zeigte sich, dass alle untersuchten Proben die Aktivität der α-Amylase und α-Glucosidase reversibel hemmten.
Im Rahmen einer humanen Interventionsstudie wurde der Einfluss eines Extraktes aus Aroniadirektsaft sowie eines roten Traubensaftkonzentrats auf den Blut- und Gewebsglucosespiegel als auch auf die Blutinsulinkonzentration untersucht. Für den ersten Extrakt zeigte sich eine signifikante Reduktion der Glucosespiegel, während der zweite die Insulinkonzentration signifikant erhöhte. Für alle Parameter konnten interindividuelle Unterschiede festgestellt werden, die eine Einteilung der Probanden in „Responder“ und „Nicht-Responder“ ermöglichte. In der vorliegenden Arbeit konnte das inhibitorische Potential verschiedener Extrakte aus roten Früchten sowie unterschiedlicher Polyphenole auf α-Amylase, α-Glucosidase, Glykogenphosphorylase α und Dipeptidylpeptidase IV in vitro nachgewiesen sowie relevante Struktureigenschaften von Inhibitoren ermittelt werden. Im Rahmen einer humanen Interventionsstudie konnten die beobachteten Effekte auch in vivo bestätigt werden. Die Ergebnisse dieser Pilotstudie sollten zukünftig mit einer höheren Anzahl an Probanden und einer höheren Dosierung der Extrakte abgesichert werden.
Traubenerzeugende Betriebe fordern eine faire Bezahlung, bei der arbeitsintensive qualitätsfördernde Maßnahmen honoriert werden und nicht ausschließlich hohe Erträge den betriebswirtschaftlichen Erfolg garantieren. Traubenabnehmer andererseits fordern nicht nur die Einhaltung vertraglich festgelegter Erträge und Qualitäten, sondern benötigen auch eine möglichst genaue analytische Charakterisierung des Leseguts, auf deren Basis eine differenzierte Auszahlung begründet und objektiv vorgenommen werden kann. Gängige und vor Ort rasch bestimmbare Parameter, wie etwa der Zuckergehalt, sind als alleinige Qualitätsparameter jedoch nicht in der Lage, die gesamte Komplexität der Traubenqualität ausreichend wiederzugeben. Auch die häufig zum Einsatz kommende visuelle Einschätzung greift zu kurz, da Qualitäts- mindernde Veränderungen, wie etwa ein Wachstum von Botrytis cinerea bzw. Sekundärinfektanten, oftmals erst bei Ausbildung der Fruchtstände erkennbar werden. Die Infrarotspektroskopie wässriger Proben ist, unter anderem aufgrund der raschen Durchführung der entsprechenden Analysen, eine Technik, die geeignet scheint, für diese Problemstellung einen entsprechenden Lösungsansatz zu bieten.
Vorliegende Arbeit beschreibt die umfangreiche Erstellung und Validierung einer FT-MIR Kalibrierung auf Basis mehrerer Jahrgänge deutscher Trauben- und Mostproben. Dabei werden insbesondere jene Parameter, welche unmittelbare Aussagen über den Reife- und Gesundheitszustand des Untersuchungsmaterials erlauben, identifiziert, charakterisiert und validiert. Dargestellt wird die Kalibration von Minor- und Majorbestandteilen sowie nachfolgend die Validierung mit den jeweiligen Folgejahrgängen. Ein Abgleich der in verschiedenen Genossenschaften ermittelten analytischen Kenndaten mit rein visuell ermittelten Qualitätseinschätzungen zeigt die Plausibilität und Validität der FT-MIR Analysendaten, wie auch die Limitationen der optischen Qualitätseinschätzung, klar auf. Ebenso werden auch die regional sehr unterschiedlichen Anforderungen bzw. Charakteristika deutlich. Um mögliche Geräte- spezifische Unterschiede zwischen den vor-Ort Messungen der einzelnen Anwender der Technik evaluieren zu können, werden als Abschluss und finaler „Proof-of-Concept“ der vorliegenden Arbeit Kenndaten von entsprechenden Ringversuchen mehrerer Jahrgänge dargestellt und bewertet. Ergänzend werden die ermittelten Kenndaten mit Kenndaten der wissenschaftlich publizierten Literatur abgeglichen, um die Leistungsfähigkeit für relevante Analysenparameter der wichtigsten Traubeninhaltsstoffe, aber auch für Minorbestandteile, aufzuzeigen.
Das übergeordnete Ziel der Arbeit stellt eine nachhaltige Qualitätsverbesserung der resultierenden Weine durch Honorierung guter Qualitäten des Ausgangs- Leseguts dar. Um letztlich die Umsetzbarkeit dieses Zieles zu belegen werden Berechnungsmodelle zur Gestaltung möglicher alternativer Auszahlungsmodelle auf Basis realer Datensätze Süddeutscher Genossenschaften vorgestellt und evaluiert.
Der Trend zu einer immer stärkeren Kopplung von Systemen bei gleichzeitiger Dezentralisierung durch Vernetzung hat dazu geführt, daß Computernutzern auf Wunsch enorme Datenmengen zur Verfügung stehen, die sich einer sinnvollen Bearbeitung durch den Nutzer allein völlig entziehen. Unterschiedliche Repräsentationsformalismen für Informationen, Mehrdeutigkeiten, Redundanz sowie eingeschränkte Verfügbarkeit sowohl von Informationen als auch von Rechenleistung machen konventionelle Suchverfahren unanwendbar. Stattdessen werden Suchverfahren und Programme benötigt, die sich intelligent an unterschiedliche Formalismen anpassen, ihre Handlungen ständig evaluieren und fähig sind, ihre Benutzer individuell zu unterstützen. Schlagwörter wie Knowbots, Search-Engines oder Data-Miningsind deshalb zur Zeit in aller Munde. Ein umfassendes Buch, das die hinter diesen und ähnlichen Schlagwörtern verborgenen Ideen und Konzepte präsentiert, existiert jedoch zur Zeit noch nicht. Dies war für uns die Motivation, das Thema "Intelligente Suche im Internet mit Lernenden Systemen" in einem Seminar zu behandeln. Wir haben damit ein Forschungsgebiet aufgegriffen, das sowohl für alle am LSA beteiligten Gruppen von Interesse ist, aber darüber hinaus aktuell von vielen Seiten aufmerksam beobachtet wird. Daher haben wir uns entschlossen, die Ausarbeitungen, die im Rahmen dieses Seminars von den TeilmehmerInnen erstellt wurden, durch den vorliegenden Bericht einer breiteren Öffentlichkeit zugänglich zu machen.
Bei der Erstellung komplexer Software spielt die Wiederverwendung vorhandener Programmbestandteile eine besonders grosse Rolle, da hierdurch sowohl die Software-Qualität gesteigert, als auch der gesamte Erstellungsund Wartungsaufwand erheblich reduziert werden kann. In jüngster Zeit gewinnen objektorientierte Programmiersprachen zunehmend an Bedeutung, da die Wiederverwendung hierbei bereits durch Sprachkonzepte wie z.B. Vererbung und Polymorphie unterstützt wird. Weiterhin besteht jedoch das Problem, zur Wiederverwendung geeignete Programmbestandteile aufzufinden. Ziel dieser Arbeit ist es herauszufinden, inwieweit fallbasiertes Schliessen nach dem aktuellen Stand der Kunst die Wiederverwendung objektorientierter Software unt erstützen kann. Hierzu wurde eine entsprechende Anwendung prototypisch auf der Basis des INRECA-Systems entwickelt. Durch ausgewählte Testsituationen wurden Erfahrungen mit diesem Prototyp gesammelt und systematisch ausgewertet.
Lernen von Abstraktionshierarchien zur Optimierung der Auswahl von maschinell abstrahierten Plänen
(1994)
Mit Hilfe von "Multistrategy" Ansätzen, die erklärungsbasiertes und induktives Lernen integrieren, ist es möglich, die Performanz von Planungssystemen signifikant zu verbessern. Dabei können gelöste Planungsprobleme zunächst mit einem wissensintensiven Verfahren abstrahiert und generalisiert werden. Durch den in diesem Beitrag im Vordergrund stehenden induktiven inkrementellen Lernalgorithmus ist es dann weiterhin möglich, die Gesamtheit des deduktiv generierten Wissens in einer Abstraktionshierarchie anzuordnen. Dabei wird die, im allgemeinen unentscheidbare, "spezieller-als-Relation" zwischen generalisierten Plänen, induktiv aus den gegebenen Planungsfällen gelernt. Diese Abstraktionshierarchie dient dann zur Klassifikation neuer Problemstellungen und damit zur Bestimmung einer speziellsten anwendbaren abstrakten Problemlösung.
Bedingt durch den Zusammenstoß zweier Objekte im Crashlastfall existieren im Bereich
des Güter- und Personentransports eine Vielzahl an Konzepten und Mechanismen
für einen kontrollierten Abbau der kinetischen Impactenergie unter äußerer
Druckbelastung. Im Gegensatz dazu ist der Wissensstand für eine Energieabsorption
unter äußerer Zugbelastung vergleichsweise gering. Für den Anwendungsfall in einer
modernen Flugzeugrumpfstruktur aus kohlenstofffaserverstärktem Kunststoff (CFK),
deren Crashkinematik eine Integration von zugbelasteten Energieabsorberelementen
ermöglicht, liefert diese Arbeit sowohl eine Entscheidungsgrundlage für eine Vorauswahl
durch einen methodischen Vergleich zugbelasteter Absorberkonzepte als
auch Methoden für eine Vorauslegung entsprechender Absorberelemente.
Im Rahmen dieser Arbeit wird eine Vielzahl möglicher, zugbelasteter Energieabsorberkonzepte
erarbeitet und detailliert untersucht. Die Bewertung der Absorberkonzepte
unter den Gesichtspunkten Leichtbaupotenzial (Gewicht, Integrationsmöglichkeiten),
Robustheit und Funktionsweise erfolgt anhand charakteristischer Absorberkennwerte,
wie gewichtsspezifische Energieabsorption, effektive Geometrie- und
Lastausnutzung, Lastschwankung sowie Einfluss von Temperatur und Lastrate auf das Energieabsorptionsvermögen. Dabei lassen sich die Absorberkonzepte in die
Kategorien Materialien und Strukturen unter globaler Zugbelastung unterteilen.
Auf Materialebene, welche die unterste Betrachtungsebene für eine Energieabsorption
unter Zugbelastung darstellt, wird das Energieabsorptionsvermögen typischer
Leichtbauwerkstoffe unter Zugbelastung bestimmt. Der zugrunde liegende Energieabsorptionsmechanismus
der plastischen Deformation von Materialien bietet aufgrund
der vergleichsweise einfachen konstruktiven Lösung ein hohes Leichtbaupotenzial.
Hauptnachteil ist jedoch die fehlende Einstellbarkeit sowie die direkte Abhängigkeit
der Absorbercharakteristik vom mechanischen Verhalten der betrachteten
Werkstoffklasse, was sich, bedingt durch die Bruchdehnung, bei gegebenem Bauraum
in der Beschränkung der maximalen Absorptionslänge widerspiegelt.
Die Strukturebene bildet eine weitere Betrachtungsebene für eine Energieabsorption
unter Zugbelastung. Hier werden Absorberelemente unter globaler Zugbelastung
sowie unter lokaler Druckbelastung, die über eine entsprechende Lastumleitung in
eine globale Zugbelastung überführt werden kann, untersucht. Letztere bieten jedoch
nur für den Fall einer Integration in vorhandene Strukturen ein ausreichend hohes Leichtbaupotenzial, um mit Materialien oder rein zugbelasteten Absorberelementen
zu konkurrieren. Im Vergleich zu einfachen Materialien unter Zugbelastung zeichnen
sich Absorberelemente auf Strukturebene durch eine generelle Einstellbarkeit der
Absorbercharakteristik sowie eine höhere Flexibilität in der Auslegung aus.
Den Schwerpunkt dieser Arbeit bildet die Untersuchung eines Energieabsorberkonzepts
basierend auf dem progressiven Lochleibungsversagen von Faser-Kunststoff-
Verbunden (FKV), das sich nicht nur durch eine hohe gewichtsspezifische Energieabsorption,
sondern auch durch eine annähernd ideale Absorbercharakteristik sowie
eine potenzielle Integration in eine Nietverbindung der betrachteten Flugzeugrumpfstruktur
aus CFK auszeichnet. Vor dem Hintergrund der Vorauslegung dieses Absorberelements
werden der Einfluss des Faser- und Matrixmaterials, der Faserorientierung
und -architektur, der Lastrate (200 mm/min bis 3 m/s) und Temperatur
(-20 °C bis 60 °C) sowie geometrischer Parameter wi e Plattendicke und Bolzendurchmesser
in einer experimentellen Studie analysiert. Für spröde FKV stellt sich
ein kontrolliert ablaufendes progressives Versagen als Kombination aus Transversalschub
und Laminatbiegung ein. Die Bildung eines Fragmentkeils vor dem Bolzen begünstigt
zudem den Anteil der Reibung an der Gesamtenergieabsorption.
Auf Basis der experimentellen Daten wird ein analytischer Ansatz zur Vorhersage der
sich einstellenden mittleren Deformationskraft entwickelt. Dieser vereinfachte, energetische
Ansatz ermöglicht unter Verwendung materieller (Biegefestigkeit, Reibungseigenschaften,
intra- und interlaminare Bruchenergie) sowie geometrischer
(Fragmentkeil) Parameter den linearen Zusammenhang zwischen mittlerer Deformationskraft
und Bolzendurchmesser bzw. den nichtlinearen Zusammenhang zwischen
mittlerer Deformationskraft und Plattendicke abzubilden.
Die generelle Eignung numerischer Berechnungsmethoden für eine Vorhersage des
progressiven Lochleibungsversagens wird für eine industrielle Anwendung mittels
geeigneter Modellierungsansätze in der kommerziellen, expliziten Berechnungssoftware
Abaqus/Explicit untersucht. Dies geschieht auf Basis von konventionellen intraund
interlaminaren Materialmodellen für gewebeverstärkte FKV. Mit den gezeigten
Modellansätzen lässt sich das generelle Deformationsverhalten des FKV abbilden.
Aufgrund der starken Vereinfachung der in der Schädigungszone vor dem Bolzen
ablaufenden Mechanismen sowie der unrealistisch frühen interlaminaren Schädigung
lassen sich die nichtlinearen Zusammenhänge zwischen mittlerer Deformationskraft
und Plattendicke jedoch nur bedingt abbilden.
In einer dreijährigen Längsschnittstudie wurde der Einfluss eines immersiven englischen Sprachangebots in der Kindertagesstätte auf die Entwicklung der englischen und deutschen Sprache bei 2- bis 6-jährigen Kindern untersucht. Darüber hinaus wurde geprüft, ob der bei bilingualen Personen nachgewiesene Vorteil in den exekutiven Kontrollfunktionen gegenüber monolingualen Personen auch bei Sprachimmersion repliziert werden kann und ob sich ein Vorteil in der phonologischen Bewusstheit durch Sprachimmersion ergibt. Dem Prinzip „Eine Person - eine Sprache“ folgend kommunizierte eine Erzieherin in der Immersionsgruppe ausschließlich in englischer Sprache mit den Kindern, während die anderen Erzieherinnen weiterhin deutsch sprachen. In der hinsichtlich Alter, Geschlecht und SES parallelisierten Kontrollgruppe fand einmal wöchentlich ein kindgerechter Englischunterricht statt. Einmal jährlich wurden verschiedene Tests zur Erfassung des sprachlichen Entwicklungsstands (Deutsch und Englisch; Sprachrezeption und Sprachproduktion), der exekutiven Kontrollfunktionen (inhibitorische Kontrolle: Day-Night-Task, Dimensional Change Card Sort Task, Fish-Flanker-Task) sowie ein Test zur Erfassung der phonologischen Bewusstheit durchgeführt. Die Kinder aus der Immersionsgruppe erreichten eine bessere englische rezeptive Sprachkompetenz als die Kinder der Kontrollgruppe. Es waren keine negativen Auswirkungen der englischen Sprachimmersion auf den Erwerb der deutschen Muttersprache nachweisbar. Die vergleichbaren Leistungen der Kinder in der Immersions- und Kontrollgruppe in den drei Aufgaben zur Erfassung der inhibitorischen Kontrolle und dem Test zur Erfassung der phonologischen Bewusstheit weisen darauf hin, dass keine positiven Effekte durch Sprachimmersion auf die Entwicklung der phonologischen Bewusstheit und der inhibitorischen Kontrolle erzielt werden konnten. Mögliche Ursachen für das Ausbleiben eines Vorteils durch Sprachimmersion im Bereich der exekutiven Kontrollfunktionen und der phonologischen Bewusstheit werden diskutiert.
Im Rahmen dieser Arbeit konnte die physiologische Funktion des AtENT1 weitestgehend aufgeklärt werden. Durch Untersuchungen an RNAi- und Überexpressionslinien konnte gezeigt werden, dass dieser Nukleosidtransporter in unterschiedlichen Geweben verschiedene Aufgaben erfüllt. Die verringerte Expression des AtENT1 in den RNAi-Pflanzen hat hauptsächlich Auswirkungen auf den Nukleotidhaushalt in Pollen. Diese zeigen eine geringere Keimungsrate, eine niedrigere Nukleosidaufnahme sowie verringerte Mengen an intra- und extrazellulärem ATP. Daraus kann man schließen, dass der AtENT1 eine wichtige Funktion in der Versorgung von Pollen mit Nukleosiden während der Entwicklung und zu Beginn der Keimung hat. Die veränderte Menge an eATP in den RNAi-Pollen führt möglicherweise zu einer veränderten Signaltransduktion, was ebenfalls ein Grund für die schlechtere Keimungsrate im Vergleich mit WT-Pollen sein könnte. Weiterhin deutet die verminderte Aufnahme von Adenosin in RNAi-Pollen darauf hin, dass AtENT1 in diesen Zellen in der Plasmamembran lokalisiert ist. Sowohl in Blatt-Rohextrakten als auch in isolierten Vakuolen der AtENT1-RNAi-Pflanzen konnte ein erhöhter Adenosingehalt festgestellt werden, während dieser in Blättern und Vakuolen der AtENT1-35S-Pflanzen deutlich verringert war. Weiterhin konnte an Liposomen mit rekostituiertem Tonoplastenprotein aus Überexpressionspflanzen ein höherer Adenosinexport verglichen mit Liposomen mit WT-Tonoplastenprotein beobachtet werden. Als wahrscheinlichste Quelle der Nukleoside konnte der in der Vakuole stattfindende RNA-Abbau mit Nukleosiden als End- und 2‘3‘-cAMP als Zwischenprodukt nachgewiesen werden. Ein gesteigerter Nukleosidtransport aus der Vakuole durch Überexpression des AtENT1 führt zu einem Anstieg der zytosolischen Nukleosidkonzentration. Als Reaktion darauf sind die Aktivitäten der Enzyme des „salvage pathway“ in den entsprechenden Mutanten erhöht. Ein Anstieg der zytosolischen Adenosinkonzentration führt durch Feedback-Inhibierung zu einer Verringerung der Transmethylierungsreaktionen. In der stärksten Überexpressionspflanze konnte, als Folge dieser Inhibierung, eine verringerte Zellwandmethylierung beobachtet werden. Betrachtet man alle Ergebnisse der Untersuchungen in vegetativem Gewebe ist eine Lokalisierung des AtENT1 im Tonoplasten sehr wahrscheinlich. Der letzte Teil der Arbeit befasste sich mit der biochemischen Charakterisierung der putativen Nukleosidtransporter StENT1 und StENT3 aus Solanum tuberosum. Dabei konnte gezeigt werden dass es sich beim StENT1 um einen hoch affinen Transporter für Purin- und Pyrimidinnukleoside handelt. Aufgrund der Ähnlichkeit der Transporteigenschaften zum AtENT1 und der ebenfalls vorhandenen möglichen Signalsequenz für eine tonoplastidäre Lokalisierung könnte StENT1 auch ein physiologisches Homolog zum AtENT1 sein. StENT3 vermittelt einen hoch affinen, pyrimidinspezifischen Nukleosidtransport. Dieser Transporter könnte vor allem in Knollen für die Aufnahme von Pyrimidinen aus der Erde oder dem Phloem zuständig sein.
Velocity Based Training ist ein Ansatz zur Belastungssteuerung im Widerstandstraining, der die volitional maximale konzentrische Durchschnittsgeschwindigkeit gegen einen bestimmten Lastwiderstand zur Steuerung der Belastungsintensität sowie das Ausmaß der intraseriellen konzentrischen Geschwindigkeitsreduktion zur Steuerung der intraseriellen muskulären Ermüdung verwendet. Die diesem Ansatz inhärente Grundvoraussetzung, sich mit volitional maximalen konzentrischen Geschwindigkeiten zu bewegen, führt jedoch dazu, dass die Steuerung der muskulären Ermüdung auf Basis der relativen Geschwindigkeitsreduktion nicht umsetzbar ist, wenn man sich im Widerstandstraining mit volitional submaximaler Geschwindigkeit bewegt. Deshalb befasste sich dieses Promotionsprojekt mit der übergeordneten Forschungsfrage, inwieweit sich ein adaptierter Ansatz der geschwindigkeitsbasierten Belastungssteuerung im Widerstandstraining auf Basis der Minimum Velocity Threshold (MVT), der eine „Relative Stopping Velocity Threshold“ ([RSVT], berechnet als Vielfaches der MVT in Prozent) zur objektiven Autoregulation der Belastungsdauer verwendet, dazu eignet, den Grad der muskulären Ermüdung innerhalb eines Trainingssatzes mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit zu steuern.
Zur Beantwortung dieser übergeordneten Forschungsfrage wurde eine explanative, prospektive Untersuchung im quasiexperimentellen Design durchgeführt. Dabei wurde für alle Probanden an einem ersten Termin die individuelle dynamische Maximalkraftleistung (1-RM) für die Langhantelübungen Bankdrücken und Kreuzheben ermittelt und an einem zweiten Termin die eigentliche Testung durchgeführt. An diesem zweiten Testtermin wurde pro Übung jeweils ein Testsatz mit volitional maximaler und ein Testsatz mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit bei einer standardisierten Belastungsintensität von 75 % 1-RM ausgeführt, während die konzentrische Bewegungsgeschwindigkeit der einzelnen Wiederholungen mittels einer Inertialsensoreinheit erfasst wurde, um die ermüdungsbedingte Geschwindigkeitsreduktion der Wiederholungen am Ende eines ausbelastenden Testsatzes zu untersuchen.
Als Antwort auf die übergeordnete Forschungsfrage dieser Untersuchung kann festgehalten werden, dass sich die RSVT grundsätzlich zur Steuerung der intraseriellen muskulären Ermüdung im Widerstandstraining mit volitional submaximaler konzentrischer Bewegungsgeschwindigkeit eignet. Für fitness- und gesundheitsorientierte Personen wurde ein RSVT-Zielkorridor abgeleitet der RSVT = 171,4 - 186,6 % MVT entspricht. Führt man einen Satz Bankdrücken mit der Langhantel mit einer Belastungsintensität von 75 % 1-RM und volitional submaximaler konzentrischer Bewegungsgeschwindigkeit so lange aus, bis die durchschnittliche konzentrische Bewegungsgeschwindigkeit (MV) einer Wiederholung ermüdungsbedingt in diesen Zielkorridor absinkt, sollten noch zwei bis drei weitere Wiederholungen ausführbar sein, bevor der Punkt des momentanen konzentrischen Muskelversagens erreicht wird. Für leistungsorientierte Personen im trainierten Zustand wurde ein RSVT-Zielkorridor von RSVT = 183,8 - 211,3 % MVT abgeleitet. Sinkt die gemessene MV einer Wiederholung ermüdungsbedingt in diesen Zielkorridor, kann mit vertretbarer Sicherheit davon ausgegangen werden, dass noch eine bis zwei weitere Wiederholungen bis zum Punkt des momentanen konzentrischen Muskelversagens ausgeführt werden können.
Die vorliegende Dissertation liefert durch diese Weiterentwicklung des Velocity Based Training einen adaptierten Steuerungsansatz, mit dem es erstmals möglich wird, die geschwindigkeitsbasierte Belastungssteuerung im Widerstandstraining auch bei volitional submaximalen konzentrischen Bewegungsgeschwindigkeiten sinnvoll anzuwenden. Aufgrund bestehender Limitationen der Untersuchung sind jedoch weitere wissenschaftliche Studien erforderlich, um die Gültigkeit, die Übertragbarkeit sowie die Effektivität des MVT-basierten Steuerungsansatzes weiter zu erforschen.
Die Studieneingangsphase gilt als zentraler Studienabschnitt für den Studienerfolg. Die Gefahr des Scheiterns ist dabei vergleichsweise groß. In keiner anderen Phase beenden Studierende ihr Studium häufiger ohne Abschluss. Um den Studienerfolg zu erhöhen, etablierten die Hochschulen ein umfangreiches Angebot an fachspezifischen und übergreifenden Maßnahmen, wobei MINT-Vorkurse weit verbreitet sind. Es existieren jedoch kaum empirische Befunde darüber, ob und inwieweit diese spezifische Intervention den Studienerfolg in der Studieneingangsphase erhöhen kann. Diese Forschungslücke soll durch den vorliegenden Beitrag adressiert werden. Dabei sollen mit Blick auf die möglichen Stolpersteine die Fragen beantwortet werden, welche Studierenden an MINT-Vorkursen partizipieren, wie sich die Zielsetzung und Zielerreichung der Angebote gestaltet, welche studienbezogenen Aspekte durch die MINT-Vorkurse (positiv) beeinflusst werden und welche Bedeutung diese studienbezogenen Aspekte für den Studienerfolg besitzen. Die Forschungsfragen werden mittels deskriptiver Analysen sowie binär logistischer und linearer Regressionsverfahren bearbeitet, um daraus Handlungsempfehlungen ableiten zu können. Die Analyse erfolgt auf Grundlage einer Längsschnitterhebung mit drei Erhebungszeitpunkten sowie einer Dokumentenanalyse, die im Rahmen des BMBF-geförderten Verbundprojektes „StuFo“ durchgeführt wurde.
Im Rahmen dieser Arbeit wurde die Adduktbildung von Acrylamid und Glycidamid mit dem N-terminalen Valin des Hämoglobins unter verschiedenen Aspekten untersucht. Die Bestimmung der Biomarker AAVal und GAVal erfolgte unter Anwendung des modifizierten Edman-Abbaus und einer sich anschließenden Analytik mittels LC/MS/MS oder GC/MS. Die zur Quantifizierung von AAVal und GAVal benötigten Pentafluorphenylthiohydantoin-Derivate wurden synthetisiert und charakterisiert. Mit Hilfe der GC/MS-Methodik wurden Hintergrundadduktgehalte gefunden, die bei Nichtrauchern durchschnittlich 37 pmol AAVal/g Hb und 21 pmol GAVal/g Hb betrugen, während Raucher mit durchschnittlich 91 pmol AAVal/g Hb deutlich höhere Werte aufwiesen. Diese Werte liegen im Bereich der üblicherweise gefundenen Hintergrundadduktgehalte für AAVal und GAVal. Ein Raucher wies abweichend davon mit 859 pmol AAVal/g Hb und 211 pmol GAVal/g Hb eine überdurchschnittlich hohe Hintergrundbelastung auf. Es wurde eine Dosimetrie der Adduktbildung von Acrylamid und Glycidamid durch Inkubation von Humanblut durchgeführt. Die LC/MS/MS-Methodik wies dabei keine ausreichende Sensitivität auf. Die Kinetik dieser Reaktion im Konzentrationsbereich der Hintergrundadduktgehalte nach Inkubation mit 0,3, 3 und 10 µM für 1 bzw. 4 Stunden wurde deshalb mittels GC/MS untersucht. Nach vierstündiger Inkubation zeigte der AAVal-Gehalt bei Inkubation mit 0,3 µM Acrylamid einen statistisch signifikanten Anstieg (p<0,01), während der GAVal-Gehalt erst bei Inkubation mit 3 µM Glycidamid statistisch signifikant anwuchs (p<0,01). Im Hinblick auf die unter vergleichbaren Bedingungen mittels Comet Assay detektierten DNA-Strangbrüche ab 10 µM Glycidamid, kann auf Grund des geringen Konzentrationsabstandes ein partieller Schutz der Zellen vor Glycidamid-induzierten DNA-Schäden durch Addukbildung mit dem Hämoglobin angenommen werden. Die um den Faktor 2-4 höher erscheinende Reaktivität von Acrylamid gegenüber dem N-terminalen Valin kann durch weitere Bestandteile im Blut mit nukleophilen Zentren beeinflusst sein. Um die Effektivität der Abspaltung von AAVal und GAVal bei der Derivatisierung zu den PFPTH-Derivaten bei Quantifizierung des Adduktgehaltes berücksichtigen zu sollten Methoden zur Verwendung von Dipeptid-Standardsubstanzen etabliert werden. Auf Grund der Unsicherheiten bei der Charakterisierung wurden diese jedoch nur für orientierende Untersuchungen verwendet. Nach Inkubation des humanen Vollblutes mit 3 und 30 µM [2,3-14C-Acrylamid] für 15 Minuten, 1, 4 oder 6 Stunden zeigte sich eine schnelle Verteilung des Acrylamids über die einzelnen Blutkompartimente und eine schnell erfolgende Reaktion mit nukleophilen Zentren. Die Radioaktivität liegt zu 9-14 % an Plasmaproteine gebunden vor, während auf das Hämoglobin 7 % und auf Erythrozytenfragmente weitere 8 % entfallen. Somit liegen 25-35 % des Acrylamids gebunden vor. Es ist jedoch auf Grund der hohen Konzentration von GSH im Erythrozyten-Zytosol eine insgesamt höhere Bindung des Acrylamids zu erwarten. Im Rahmen einer humanen Acrylamid-Verzehrsstudie wurde die zeitliche Veränderung von AAVal und GAVal bei 3 ausgewählten Probanden nach der in der jeweiligen Studienphase in Form von Kartoffelchips verabreichten Menge von 1 mg untersucht. In der Referenzperiode R zeigte AAVal bei diesen Probanden einen durchschnittlichen Anstieg von 17 %. Eine höhere Zuwachsrate von 39 % zeigte AAVal in der Testperiode T1, in der CYP 2E1 durch Disulfiram gehemmt wurde und somit kein oxidativer Metabolismus zu Glycidamid stattfand. In der Testperiode T2, in der CYP 2E1 durch eine Vorbehandlung mit Ethanol induziert wurde, wies AAVal einen der Referenzphase vergleichbaren Anstieg um 19 % auf. Die höhere statistische Signifikanz des Anstiegs von AAVal in der Testperiode T1 im Vergleich zu den beiden anderen Studienabschnitten konnte mit Hilfe einer geeigneten statistischen Auswertung gezeigt werden. Für GAVal hingegen konnte auf Grund der größeren Messwertschwankungen nur für die gesamte Studiendauer ein Anstieg um 49 % festgestellt werden. Für den Anstieg von GAVal deutet sich ein Zusammenhang mit der individuellen CYP 2E1-Aktivität der drei Probanden, deren Phänotypisierung mittels Chlorzoxazon-Metabolismus bestimmt wurde. Diese Tendenz bestätigt sich jedoch nicht für die Gesamtheit der 16 Probanden. In dieser Arbeit wurde die Effizienz der Adduktbildung von Acrylamid und Glycidamid mit Hämoglobin unter verschiedenen Aspekten aufgezeigt. Ob die protektiven Mechanismen auf zellulärer Ebene ausreichend sind, um elektrophile Xenobiotika wie Acrylamid und Glycidamid bis hin zu einem möglicherweise vorhandenen Schwellenwert biologisch zu inaktivieren, müssen weitere Untersuchungen aufzeigen.
Innerhalb der eingereichten Arbeit wurden ionische Cluster mittels IR- und kombinierter IR+UV-Spektroskopie untersucht und durch Vergleich mit theoretischen Untersuchungen Strukturen zugeordnet. Die Arbeit behandelt zum einen anionische Cluster aus Kobalt und Liganden (Alkohole, Alkane, Alkene) und zum anderen kationische Cluster aus Aluminium und Aminosäuren bzw. Peptiden. Es wurde IR-Photodissoziationsspektroskopie an isolierten anionischen Clustern aus 1-4 Kobalt und 1-3 Alkohol Einheiten im Molekularstrahl angewendet und mit Hilfe von DFT- Rechnungen Strukturen und Spinzustände zugeordnet. In allen untersuchten Spezies wurden lediglich Wasserstoffbrücken der Form OH…Co beobachtet, aber keine Wasserstoffbrücken zwischen den Alkohol Molekülen. Es findet demnach eine sehr effiziente Anlagerung der Alkoholmoleküle an das Metall bzw. den Metallcluster statt. Weiterhin gibt es Hinweise darauf, dass Co3-Einheiten eine wichtige Rolle beim Aufbau von Kobalt/Alkohol-Clustern spielen. Um diesem Sachverhalt weiter nachzugehen, müssen die Untersuchungen auf größere Cluster ausgeweitet werden. Die große Rotverschiebung der OH-Streckschwingungsfrequenz vom reinen Alkohol zur gebundenen Spezies weist auf starke H-Brücken und eine starke Aktivierung der OH-Gruppe(n) durch den anionischen Metallcluster hin. Diese Spezies sind demnach gut geeignet, um OH-Gruppen für weitere Reaktionen zu aktivieren. Durch die deutlichen Einflüsse der Multiplizität der Cluster auf die Schwingungsfrequenzen können mit Hilfe der DFT-Rechnungen auch Aussagen über die Spinzustände getroffen werden. Die vorgestellten Untersuchungen zeigen somit, dass die Anwendung von IR-Spektroskopie neben der Strukturaufklärung auch Hinweise auf die Multiplizität geben kann. Ferner liefert die massen- und strukturselektive IR-Spektroskopie die Möglichkeit, die Aktivierung und Aggregation von Liganden an Metallcluster auf molekularer Ebene zu untersuchen. Weiterhin wurden IR-, UV- und eine neu entwickelte kombinierte IR+UV-Photodissoziationsspektroskopie zur Strukturanalyse von Clustern aus Aluminiumkationen und geschützten Aminosäuren sowie Dipeptidmodellen in der Gasphase durchgeführt. Durch den Vergleich mit theoretischen Analysen konnten Strukturen und Spinzustände für die [Al-AcPheOMe]+/3+-Spezies zugeordnet werden. Die Untersuchung des [Al-AcPheOMe]+ Clusters zeigte einige interessante Ergebnisse. Es konnten zwei verschiedene Konformere beobachtet werden, die sich nur bezüglich der Orientierung ihrer Seitenkette unterscheiden. Zudem konnte gezeigt werden, dass sich die Konformation des Rückgrats von AcPheOMe bei der Anlagerung von Al+ von einer b- Faltblatt-analogen Anordnung zu einer helicalen Form ändert, so dass sich Aluminium an beide CO-Gruppen anlagern kann. Im Falle des dreifach geladenen Clusters konnte erstmalig eine kombinierte IR+UV-Photodissoziationsspektroskopie auf Kationen angewendet werden. Hierbei handelt es sich um eine Weiterentwicklung der nonresonant ionization detected IR spectroscopy (NID-IR), die für neutrale Spezies entwickelt wurde. Diese Methode ermöglicht es, auch für stark gebundene Cluster, eine schwingungssensitive Dissoziation zu erhalten. Auf diese Art konnte ein Isomer beobachtet werden, das sich vom einfach geladenen Cluster ableiten lässt. Im Vergleich zum gestreckten AcPheOMe-Monomer beobachtet man insbesondere beim [Al-AcPheOMe]3+ eine stark globulare Form, die das Aluminium über die CO-Gruppen und den Phenylring einschließt und somit der Ladungsstabilisierung dient. Weiterhin wurden weitere geschützte Aminosäuren auf ihr Aggregationsverhalten mit Aluminiumkationen untersucht. [Al-AcTyr(Me)OMe]+ konnte nachgewiesen und spektroskopisch untersucht werden. Analog zu den Untersuchungen von [Al-AcPheOMe]+ wurden UV- und IR-Photodissoziationsspektren aufgenommen. Um jedoch den Einfluss der größeren Seitenkette des Tyrosins im Vergleich zu der des Phenylalanins zu ermitteln, sind noch detaillierte theoretische Strukturanalysen notwendig. IR-Photodissoziationsspektroskopie wurde auch bei kationischen Clustern aus Aluminium und der geschützten aliphatischen Aminosäure Valin durchgeführt. Hierbei konnte ebenfalls über die Anregung im NH-Streckschwingungsbereich eine Dissoziation des Clusters induziert werden. Da bisher nur wenige Rechnungen zu diesen beiden Systemen vorliegen, konnten noch keine eindeutigen Strukturzuweisungen erfolgen. Allerdings ist die Tendenz zu einer helicalen Konformation des Peptidrückgrats zu erkennen. Diese Arbeit beschreibt die erstmalige Anwendung von IR-Photodissoziationsspektroskopie an anionischen Kobalt/Ligand-Aggregaten sowie die Entwicklung einer neuen Technik, um hochgeladene ionische Cluster infrarotspektroskopisch untersuchen zu können. Mit Hilfe von DFT-Rechnungen können darüber hinaus Strukturen zugeordnet und Aussagen über Spinzustände getroffen werden.
Das europäische Mobilfunksystem der dritten Generation heißt UMTS. UTRA - der terrestrische Funkzugang von UMTS - stellt zwei harmonisierte Luftschnittstellen zur Verfügung: Das TDD-basierte TD-CDMA und das FDD-basierte WCDMA. Das Duplexverfahren TDD bietet gegenüber FDD erhebliche Vorteile, z.B. können TDD-basierte Luftschnittstellen unterschiedliche Datenraten in der Aufwärts- und Abwärtsstrecke i.a. effizienter bereitstellen als FDD-basierte Luftschnittstellen. TD-CDMA ist Gegenstand dieser Arbeit. Die wichtigsten Details dieser Luftschnittstelle werden vorgestellt. Laufzeit und Interferenz sind wesentliche Gesichtspunkte beim Verwenden von TDD. Diese wesentlichen Gesichtspunkte werden eingehend für den Fall des betrachteten TD-CDMA untersucht. In UMTS spielen neben der Sprachübertragung insbesondere hochratige Datendienste und Multimediadienste eine wichtige Rolle. Die unterschiedlichen Qualitätsanforderungen dieser Dienste sind eine große Herausforderung für UMTS, insbesondere auf der physikalischen Ebene. Um den Qualitätsanforderungen verschiedener Dienste gerecht zu werden, definiert UTRA die L1/L2-Schnittstelle durch unterschiedliche Transportkanäle. Jeder Transportkanal garantiert durch die vorgegebene Datenrate, Verzögerung und maximal zulässige Bitfehlerrate eine bestimmte Qualität der Übertragung. Hieraus ergibt sich das Problem der Realisierung dieser Transportkanäle auf physikalischer Ebene. Dieses Problem wird in der vorliegenden Arbeit eingehend für TD-CDMA untersucht. Der UTRA-Standard bezeichnet die Realisierung eines Transportkanals als Transportformat. Wichtige Parameter des Transportformats sind das verwendete Pooling-Konzept, das eingesetzte FEC-Verfahren und die zugehörige Coderate. Um die Leistungsfähigkeit unterschiedlicher Transportformate quantitativ zu vergleichen, wird ein geeignetes Bewertungsmaß angegeben. Die zur Bewertung erforderlichen Meßwerte können nur durch Simulation auf Verbindungsebene ermittelt werden. Deshalb wird ein Programm für die Simulation von Transportformaten in TD-CDMA entwickelt. Bei der Entwicklung dieses Programms wird auf Konzepte, Techniken, Methoden und Prinzipien der Informatik für die Software-Entwicklung zurückgegriffen, um die Wiederverwendbarkeit und Änderbarkeit des Programms zu unterstützen. Außerdem werden wichtige Verfahren zur Reduzierung der Bitfehlerrate - die schnelle Leistungsregelung und die Antennendiversität - implementiert. Die Leistungsfähigkeit einer exemplarischen Auswahl von Transportformaten wird durch Simulation ermittelt und unter Verwendung des Bewertungsmaßes verglichen. Als FEC-Verfahren werden Turbo-Codes und die Code-Verkettung aus innerem Faltungscode und äußerem RS-Code eingesetzt. Es wird gezeigt, daß die untersuchten Verfahren zur Reduzierung der Bitfehlerrate wesentlichen Einfluß auf die Leistungsfähigkeit der Transportformate haben. Des weiteren wird gezeigt, daß die Transportformate mit Turbo-Codes bessere Ergebnisse erzielen als die Transportformate mit Code-Verkettung.