Refine
Year of publication
- 2007 (53) (remove)
Document Type
- Doctoral Thesis (33)
- Periodical Part (12)
- Working Paper (4)
- Article (2)
- Report (1)
- Study Thesis (1)
Language
- German (53) (remove)
Has Fulltext
- yes (53)
Keywords
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Sozialwissenschaften (10)
- Kaiserslautern - Fachbereich Chemie (9)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich Mathematik (2)
- Fraunhofer (ITWM) (1)
- Kaiserslautern - Fachbereich Informatik (1)
- Universität (1)
- Universitätsbibliothek (1)
Die vorliegende Arbeit beschreibt die Synthese neuartiger, substituierter N,N,N-tridentater Liganden auf der Basis der Stammverbindungen 2,6-Di(pyrazol-3-yl)pyridin und 2,6-Di(pyrimidin-4-yl)pyridin. Die katalytische Aktivität von Dichloroeisen- und Dichlorocobaltkomplexen dieser Liganden in der Olefinpolymerisation wurde getestet. Einen weiteren Schwerpunkt stellte die Synthese von Rutheniumkomplexen auf der Basis dieser neuartigen Liganden und deren Anwendbarkeit in homogen katalysierten Oxidations- und Epoxidationsreaktionen sowie der Hydrovinylierungsreaktion dar. Die Möglichkeit den Liganden 2,6-Di(pyrazol-3-yl)pyridin leicht chemisch modifizieren zu können, wurde genutzt, um Eigenschaften (z. B. die Löslichkeit in organischen Lösungsmitteln) des Liganden und der sich ableitenden Komplexe zu beeinflussen. Zur regioselektiven N-Funktionalisierung der Pyrazolringe wurden nucleophile Substitutionsreaktionen genutzt. Dieser einfache Zugangsweg zu substituierten 2,6-Di(pyrazol-3-yl)pyridinen wurde ebenso dazu verwendet, um funktionelle Gruppen, die eine Substraterkennung über Wasserstoffbrückenbindungen und eine Komplexierung von Lewis-Säuren ermöglichen sollte, in die Peripherie dieser Liganden anzubinden.
Die vorliegende Arbeit hat zum Ziel, Methoden zur Beschreibung der Quellung von (nichtionischen und ionischen) Hydrogelen in wässrigen Lösungen zu entwickeln und zu erproben. Die Modelle setzen sich aus einem Beitrag, der die Gibbssche Energie von Flüssigkeiten beschreibt und aus einem Beitrag für die Helmholtz-Energie des Netzwerks zusammen. Die Beschreibung der elastischen Eigenschaften des Netzwerks beruht auf der Phantom-Netzwerk-Theorie. Die Gibbssche Exzessenergie der Flüssigkeiten wurde mit verschiedenen Modellen, abhängig vom Typ der untersuchten Systeme (wässrig/salzhaltige Lösung oder wässrig/organische Lösung), beschrieben. Bei der Modellierung wurden der Einfluss der Zusammensetzung des Netzwerks (z.B. Konzentration von Vernetzer und/bzw. von ionischem Komonomeren) und der Einfluss der Zugabe von weiteren Komponenten in der das Gel umgebenden wässrigen Lösung auf den Quellungsgrad behandelt. Als weitere Komponenten wurden einerseits anorganische Salze (Natriumchlorid,Dinatriumhydrogenphosphat) und andererseits organische Lösungsmittel (Ethanol, Aceton, Essigsäure, 1-Butanol,Methylisobutylketon) behandelt. Zur Modellierung des Quellverhaltens von nichtionischen IPAAm-Gelen in NaCl bzw. Na2HPO4-haltigen Lösungen wurde das VERS-Modell in Kombination mit der Phanom-Netzwerk-Theorie verwendet. Bei der Erweiterung dieser Modelle auf ionische Gele wurde eine gute Beschreibung nur dann erzielt, wenn sowohl das Dissoziationsgleichgewicht des ionischen Komonomeren Natriummethacrylat als auch eine Korrektur im Phantom-Netzwerk-Modell berücksichtigt wurden. Wenn beide Korrekturen allein aus wenigen experimentellen Daten für die Quellung ionischer Gele in wässrigen Lösungen von NaCl bestimmt wurden, gelingen nicht nur eine gute Korrelation für den Quellungsgrad, sondern auch zuverlässige Vorhersagen (sowohl Erweiterung auf andere (IPAAm/NaMA)Gele als auch bei Verwendung von Na2HPO4 anstelle von NaCl). Die Modellierung der Einflüsse der untersuchten Salze (NaCl bzw. Na2HPO4) auf das Quellverhalten sowohl nichtionischer VP-Gele als auch ionischer (VP/NaMA)Gele erfolgt auch in Kombination des VERS-Modells mit der Phanom-Netzwerk-Theorie. Die vorgeschlagene Methode liefert sowohl für nichtionische VP-Gele als auch für ionische (VP/NaMA)Gele in wässrigen salzhaltigen Lösungen eine gute Übereinstimmung zwischen Experiment und Rechnung. Die Quellungsgleichgewichte nichtionischer IPAAm-Gele in Mischungen aus Wasser und einem organischen Lösungsmittel (Ethanol, Aceton, Essigsäure, Butanol, Methylisobutylketon) lassen sich mit Hilfe der Kombination aus dem UNIQUAC-Modell und einem Free-Volume-Beitrag mit der Phantom-Netwerk-Theorie beschreiben. Bei der Erweiterung des Modells auf ionische (IPAAm/NaMA)Gele wurde der Einfluss der Konzentration des organischen Lösungsmittels auf die Dissoziationskonstante von Natriummethacrylat berücksichtigt. Ähnlich zur Modellierung der Quellung im System (IPAAm/NaMA)Gel-Wasser-Salz wurden die Abweichungen von der Phantom-Netzwerk-Theorie mit Hilfe eines empirischen Faktors betrachtet. Mit diesen Modellvorstellungen gelingt sowohl eine gute Korrelation als auch zuverlässige Vorhersage des Quellungsgrades von ionischen Gelen in wässrig/organischen Lösungen. Bei den theoretischen Studien zur Quellung von Gelen auf Basis von Vinylpyrrolidon in wässrig/organischen Lösungsmittelgemischen erwies sich, dass eine Kombination aus dem UNIQUAC-Modell (jedoch ohne kombinatorischen Beitrag) und der Phantom-Netzwerk-Theorie die besten Ergebnisse bei der Beschreibung des Quellverhaltens der nichtionischen VP-Gele liefert. Bei der Erweiterung des Modells auf ionische (VP/NaMA)Gele wurde eine Abhängigkeit des Dissoziationsgrades von Natriummethacrylat von der Ethanol-, bzw. der Acetonkonzentration berücksichtigt.
Ziel der vorliegenden Arbeit war es, durch Lagerung hervorgerufene unerwünschte Alterungsphänomene in Fruchtsäften und Konzentraten aus anthocyanhaltigen Früchten aufzuklären und zu minimieren. Ein wesentlicher Schwerpunkt lag dabei in der Betrachtung der Veränderung der komplexen Stoffgruppe der Polyphenole, die aufgrund ihrer Vielzahl an gesundheitlich positiven Wirkungen in jüngster Zeit immer mehr in den Focus einer gesunden Ernährung gerückt sind. Buntsäfte und Buntsaftkonzentrate aus roter Traube (Vitis Vinifera, nur Saft), schwarzer Johannisbeere (Ribes nigrum L.), und Aronia (Aronia melanocarpa) wurden hergestellt und anschließend über einen Zeitraum von zwölf Monaten bei 4 °C, 20 °C und 37 °C unter Lichtausschluss gelagert. Bei allen Buntsäften und Buntsaftkonzentraten wirkt sich die Zunahme von Lagertemperatur und Lagerdauer negativ aus. Die Intensität der Auswirkung differierte stark zwischen den untersuchten Parametern: Die Gesamtphenolgehalte (Folin-Ciocalteu) sowie die damit häufig korrelierende antioxidative Kapazität (TEAC) unterlagen in allen Säften und Konzentraten bei 4 °C und 20 °C über einen Zeitraum von 12 Monaten nur geringen Schwankungen. Möglicherweise entstehen während der Lagerung neue Pigmente wie polymere oder kondensierte Polyphenole, die ebenfalls eine hohe antioxidative Kapazität besitzen. Die originäre Farbe (CIELAB, Sensorik) blieb bei sehr stark gefärbten Proben (z.B. schwarze Johannisbeere) länger erhalten als bei nur schwach gefärbten Proben (z.B. Rebsorte cv. Spätburgunder), die zu einer wesentlich schnelleren Bräunung auch bei niedrigeren Lagertemperaturen neigten. Die Phenolprofile (HPLC) sind frucht- und sortenabhängig, die Phenolgehalte (HPLC) sind frucht-, sorten- und jahrgangsabhängig. Die höchsten Gehalte an farblosen Phenolen wurden im Rahmen dieser Arbeit für Aroniasaft und –konzentrat (1000 mg/L) gemessen. Während der Lagerung blieben die Werte für 4 °C in fast allen Proben relativ stabil, wohingegen für 20 °C bereits deutliche Abnahmen, insbesondere der Phenolcarbonsäuren und Flavan-3-ole, gemessen wurden. Die temperaturabhängige Abnahme von Flavan-3-olen in rotem Traubensaft cv. Spätburgunder steht wahrscheinlich im Zusammenhang mit der Bildung von Anthocyan-Tannin-Addukten, diese konnten als solche nach Größenausschlusschromatographie und anschließender LC-MS-Analytik identifiziert werden. Die Anthocyangehalte der originären Anthocyane (berechnet als Cya-3-glc bzw. Mal-3-glc, HPLC) nahmen in Abhängigkeit von der Lagertemperatur und der Lagerdauer in allen untersuchten Proben deutlich ab. Der Vergleich der aus den kinetischen Berechnungen auf der Basis der HPLC-Daten hervor gehenden Halbwertszeiten der Anthocyane verdeutlicht die unterschiedlichen Stabilitäten in den Säften. Generell ging eine hohe Ausgangskonzentration an Anthocyanen auch mit einer höheren Halbwertszeit und damit einer höheren Stabilität einher. Mit der Anthocyankonzentration (HPLC) korreliert der Monomerindex (pH-Shift-Methode), der auch als Marker zur Beschreibung der Alterung von Anthocyanen geeignet ist. Ein weiterer Schwerpunkt lag bei der Erhaltung der Farbe auf dem Zusatz von farblosen Phenolen, die durch sogenannte Copigmentierungsreaktionen Anthocyane stabilisieren. Während sich einige farblose Phenole (Kaffeesäure, Coumarsäure, Chlorogensäure) in Modellversuchen farbstabilisierend auf das Anthocyan Cyanidin-3-glucosid auswirkten, haben sich die verhältnismäßig geringen Konzentrationen in rotem Traubensaft nicht positiv bemerkbar gemacht. Die erst durch sehr hohe Dosen an Copigmenten eintretende Farbstabilisierung ist für die Praxis nicht realistisch und finanziell nicht umsetzbar. Ein stark farbdestabilisierender Effekt sowie eine deutliche Verstärkung der Bräunung sowohl in den Modelllösungen als auch in Realmedien wurden beim Zusatz von Ascorbinsäure beobachtet. Basierend auf den Ergebnissen aller Lagerstudien können klare Empfehlungen für die Eindämmung von Alterungsprozessen ausgesprochen werden: 1. Sehr gute Qualität der Rohware (reich insbesondere an Anthocyanen) 2. Vermeidung von Prozessschritten und Behandlungsmaßnahmen während der Verarbeitung, die eine starke Abnahme des Anthocyangehaltes verursachen (z.B. durch kurze Erhitzungsprozesse, Ausschluss von Sauerstoff, möglichst niedrige Verarbeitungstemperaturen, Inaktivierung von Polyphenoloxidasen) 3. Dauerhaft niedrige Lagertemperaturen (ca. 4 °C) 4. Lichtausschluss während der Lagerung 5. Möglichst kurze Lagerdauer, entsprechend des jeweiligen Produktes 6. Kein Zusatz von farblosen Phenolen als Copigmente sowie Ascorbinsäure, evtl. Verschnitt mit sehr farbintensiven Buntsäften 7. Lagerung als Direktsaft Für die Praxis können unter Berücksichtigung dieser Aspekte Grundlagen geschaffen werden, die Qualität von Buntsäften zu erhalten und im Hinblick der aktuellen functional food Diskussion einen Beitrag zu einem gesundheitsbewussten Lebenstil mit natürlichen Lebensmitteln zu leisten.
Retentionsbodenfilter (RBF) werden in den letzten Jahren zunehmend zur weitergehenden Mischwasserbehandlung eingesetzt. Insbesondere bei empfindlichen Gewässern haben sich Retentionsbodenfilter als eine wertvolle Maßnahme zur Erfüllung der immissionsorientierten Anforderungen erwiesen, die sich vermehrt aus neuen europäischen Regelungen (EU WRRL, 2000) ergeben. Der überwiegend hohe Wirkungsgrad von RBF hinsichtlich der Elimi-nation von C-Verbindungen (CSB) und Ammonium (NH4) wurde mittlerweile an verschiede-nen Anlagen nachgewiesen. Es bestehen weiterhin Unsicherheiten hinsichtlich des Einflus-ses unterschiedlicher Beschickungs- und Betriebssituationen auf die Reinigungsleistung von Bodenfiltern. Die vorliegende Arbeit soll einen Beitrag zur Verbesserung des Kenntnisstan-des zur Belastbarkeit von RBF liefern. Im Vordergrund steht die Ermittlung des maximalen Frachtrückhaltes hinsichtlich organischen Kohlenstoffverbindungen und Stickstoffverbindun-gen unter hohen hydraulischen und stofflichen Belastungen. Die Untersuchungen wurden im Labormaßstab an Säulenmodellen mit zwei unterschiedli-chen Filtersubstraten durchgeführt. Durch die gezielte Variierung der Beschickungsmengen und Filtergeschwindigkeit wurde ein breites Spektrum unterschiedlicher Belastungszustände untersucht. Ferner wurden Sauerstoff- und Redoxpotential im Säulenablauf sowie im Filter-körper gemessen. In Anschluss an die Versuchsreihen wurden die Säulen abgebaut und ergänzende bodenkundliche und mikrobiologische Untersuchungen durchgeführt. Die Ergebnisse einer ergänzenden Volumenbilanz zeigen, dass selbst in einem überstauten Filterkörper nicht alle Poren im mit Wasser gefüllt sind. Der in der eingeschlossenen Boden-luft enthaltene Sauerstoff trägt zur Wiederbelüftung des infiltrierenden Beschickungswassers bei. Die mikrobiell bedingten Unterschiede des O2-Verbrauchs im vertikalen Filterprofil haben zur Folge, dass in einem Filterkörper gleichzeitig aerobe, anoxische und anaerobe Zonen existieren können. Der Rückhalt von Ammonium hat sich als signifikant abhängig von der Filtrationsgeschwin-digkeit und der substratspezifischen Sorptionskapazität erwiesen. Die Gesamtbetrachtung der Stickstoffkomponenten und insbesondere NO3-Konzentrationsganglinien in Säulenablauf führt im Zusammenhang mit der Sauerstoffverfügbarkeit im Filterkörper zur Folgerung, dass NH4-Rückhalt nicht wie bisher als streng zweistufiger Prozess mit Teilschritten Sorption (in der Betriebsphase) und Nitrifikation (in der Trockenphase) angesehen werden kann. Die Er-gebnisse der Arbeit zeigen erstmals, dass unter bestimmten Bedingungen die Nitrifikation schon während der Betriebsphase stattfindet. Die Analyse des Sauerstoffverbrauchs in den Filterkörpern der untersuchten Säulen in Ver-bindung mit der CSB-Reinigungsleistung belegt, dass während der Betriebsphase auch für die CSB-Verbindungen ein unmittelbarer Abbau stattfindet. Unter aeroben Verhältnissen ist die Reinigungsleistung in allen untersuchten Säulen – unabhängig von Substrat und Filter-geschwindigkeit - weitgehend stabil.
Aufgrund ihrer Besonderheiten und Merkmalen ist die Innenstadt als wichtigster Stadtteil einer Stadt zu charakterisieren. Aufgrund der Zerstörungen durch den Zweiten Weltkrieg und den anschließenden Entwicklungen hat die Innenstadt an urbaner Qualität eingebüßt. Dies ist unter anderem darin begründet, dass eine Verdrängung der Wohnfunktion aus der Innenstadt an den Stadtrand oder ins Umland stattfindet. Die Stärkung der Wohnfunktion ist eine Grundvoraussetzung zur Wiedergewinnung urbaner Qualitäten und zur nachhaltigen Revitalisierung und Stabilisierung der Innenstadt. Das Wohnen an sich ist ein multidimensionales Phänomen mit vielfältigen Wirkungsgefügen und Verflechtungen. Zur Ableitung von Konzepten und Handlungsmaßnahmen sind die Wohnbedürfnisse der Bevölkerung durch verschiedene Klassifizierungen zu erheben und mit den so genannten Megatrends -allen voran der demografischen Entwicklung- und den spezifischen Kommunalsituationen zu überlagern. An diesem Prozess ist mit steigender Tendenz eine Vielzahl von öffentlichen und privaten Akteuren beteiligt. Gängige Darstellungsmethoden der Stadtplanung sind nur bedingt geeignet, die komplexen Wirkungsgefüge sowie die Ein- auf und Auswirkungen von Vorhaben als Informationen transparent und nachvollziehbar abzubilden. Der Einsatz von Mixed Reality-Techniken und von immersiven Szenarien zur Unterstützung von Entscheidungssituationen in stadtplanerischen Aufgabenfeldern ist als qualifizierend für diese einzustufen. Durch Mixed Reality-Techniken, die reale Gegebenheiten und virtuelle Objekte gleichzeitig überlagert abbilden, ist es im Sinne einer Ergebnisvisualisierung möglich, sowohl Handlungsbedarfe in der Bestandssituation zu identifizieren als auch die visuellen Ein- und Auswirkungen von Vorhaben originalmaßstäblich und dreidimensional zu simulieren. Darüber hinaus können auch originär nicht visuell wahrnehmbare Informationen visuell abgebildet werden. Neben den technischen Ausstattungen ist hierfür ein virtueller, generischer Datenschatten notwendig, der ein digitales Abbild der Realität und der geplanten Vorhaben darstellt. Der bislang theoretische Ansatz der immersiven Szenarien ist der nächste Schritt im Bereich der computergestützten Daten- und Informationsvisualisierung beziehungsweise -darstellung. Über die Ergebnisvisualisierung hinaus sind immersionserzeugende Systeme in der Lage, einen Benutzer in eine Situationsdarstellung zu versetzen, in der er nicht mehr zwischen realen und virtuellen Objekten unterscheiden kann. Zugleich bedeutet dies, dass er mit allen virtuellen Objekten intuitiv interagieren kann. Der Benutzer wird dadurch Teil des Szenarios. Seine Aktionen wirken sich wahrnehmbar rekursiv auf das Szenario aus. Sowohl Mixed Reality-Techniken als auch immersive Szenarien können für Entscheidungssituationen im Bereich des thematisierten Wirkungsgefüge ‚innerstädtisches Wohnen’ die Entscheidungsgrundlagen auf den Betrachtungsebenen Wohnstandort, Wohnanlage und Wohnung für alle beteiligten Akteure qualifizieren. Sie sind geeignet, um Handlungserfordernisse transparent und nachvollziehbar abzubilden sowie die visuell wahrnehmbaren und originär nicht visuell wahrnehmbaren Konsequenzen von Wohnbauvorhaben abzuschätzen. Anhand des innerstädtischen Projektes „Glockencarré Kaiserslautern“ wurden hierzu die Möglichkeiten der Augmented Reality-Technik (als eine Ausprägung der Mixed Reality-Techniken) aufgezeigt und die Einsatzmöglichkeiten für unterschiedliche Akteursgruppen charakterisiert.
Durchlaufende Verbundträger können mit dem Fließgelenkverfahren berechnet werden. Bei dieser Methode werden die plastischen Querschnitts- und Systemreserven ausgenutzt. Bisher war bei der Anwendung der Fließgelenktheorie die Betrachtung von großen Öffnungen im Steg nicht geklärt. Im Rahmen der vorliegenden Arbeit wurden durchlaufende Verbundträger mit Öffnungen experimentell und numerisch untersucht. Mit den ermittelten Ergebnissen wurden zwei Bemessungsmodelle entwickelt, mit denen solche Verbundträger bemessen werden können. Bei dem ersten Bemessungsmodell handelt es sich um ein elastisch-plastisches Nachweisverfahren. Das Verfahren beruht auf einer elastischen Schnittgroßenermittlung, bei dem die Querschnitte plastisch nachgewiesen werden. Nach dem zweiten Nachweisverfahren werden die Durchlaufträger nach der Fließgelenktheorie plastisch-plastisch berechnet. Über die plastischen Tragfähigkeiten der Querschnitte werden die plastischen Systemreserven rechnerisch ausgenutzt. Dazu werden die möglichen kinematischen Ketten des Systems zusammengestellt und die jeweiligen Traglasten ermittelt.
Gegenstand der vorliegenden Arbeit waren Untersuchungen zum Hochdruck-Mehrphasengleichgewicht ternärer Systeme bestehend aus einem nahekritischen Gas, Wasser und einem bei Umgebungsbedingungen vollständig wasserlöslichen organischen Lösungsmittel. Das Aufpressen eines Gases nahe seiner kritischen Temperatur (nahekritisches Gas) auf eine einphasige wässrige Lösung kann – wie die Zugabe eines Salzes – zur Entmischung der Flüssigkeit in eine wasserreiche (hydrophile) sowie eine an organischem Lösungsmittel reiche (lipophile bzw. hydrophobe) Phase führen. Elgin und Weinstock (1959) nannten dieses Phänomen bezeichnenderweise „salting out with a supercritical gas“. In der vorliegenden Arbeit wurde dieser Vorschlag aufgegriffen und umgesetzt. Der Schwerpunkt lag auf der Untersuchung des Einflusses ionischer Komponenten, z. B. von Puffersystemen bzw. anorganischer Salze, sowohl auf das Phasengleichgewicht des ternären phasenbildenden Systems als auch auf die Verteilung überwiegend dissoziierbarer Naturstoffe auf die koexistierenden Hochdruck-Flüssigphasen. Die Experimente wurden mit einer in früheren Arbeiten (Wendland 1994, Adrian 1997, Freitag 2003) entwickelten Phasengleichgewichtsapparatur durchgeführt. Die beiden untersuchten ternären phasenbildenden Systeme waren das System Ethen + Wasser + Aceton und das System Ethan + Wasser + Aceton. Für beide Systeme wurde die Zusammensetzung der koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewichts L1L2V über den gesamten Existenzbereich bei Temperaturen von 293, 313 und 333 K bestimmt. Ausserdem wurde der Verlauf beider kritischer Endpunktlinien für die beiden genannten und zusätzlich für die bereits von Freitag (2003) untersuchten Systeme Ethen + Wasser + 1- bzw. 2-Propanol über einen Temperaturbereich zwischen 278 und 353 K vermessen. Den Schwerpunkt der Untersuchungen bildeten Messungen zur Verteilung von Naturstoffen auf die koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewicht L1L2V im pH-neutralen ternären System Ethen + Wasser + 2-Propanol. Zunächst wurde die Auswirkung der Zugabe von ionischen Komponenten auf die Lage der kritischen Endpunktlinien untersucht. Der erwartete, zusätzliche Aussalzeffekt bestätigte sich. Kernstück waren Verteilungsmessungen der sechs ausgewählten Wirkstoffe L-Histidin, Cimetidin, Aspirin®, 4-Dimethylaminoantipyrin, Sulfameter und Ciprofloxacin bei 293 und 333 K und bei mindestens zwei pH-Werten (insgesamt ca. 300 Messpunkte). Diese Erkenntnisse liefern neue Aspekte hinsichtlich der Entwicklung neuer, dieses spezielle Phasengleichgewichtsverhalten ausnutzende Hochdruckextraktionsverfahren zur Abtrennung organischer Wertstoffe aus wässrigen Lösungen. Gegenstand der theoretischen Untersuchungen war die Modellierung der Phasengleichgewichte der untersuchten ternären, phasenbildenden Systeme Ethen bzw. Ethan + Wasser + Aceton mit dem vorhandenen Programmpaket. Es verwendet die kubische Zustandgleichung von Peng und Robinson in der Modifikation von Melhem et al. (1989). In Anlehnung an die Untersuchungen von Freitag (2003) kamen die beiden Mischungsregeln von Panagiotopoulos und Reid (1986) sowie von Huron und Vidal (1979) zur Anwendung. Zunächst wurden die für den Programmablauf notwendigen binären Wechselwirkungsparameter an Messwerte für das Dampf-Flüssigkeits-Gleichgewicht der binären Randsysteme (aus der Literatur) angepasst. Da das Programm hierbei auf keine eigenen Messdaten, sondern lediglich auf Daten aus der Literatur zurückgreift, kann von einer Vorhersage gesprochen werden. Die Vorhersage der Phasengleichgewichte stimmt aber nur qualitativ mit den Messwerten überein, wobei das Phasenverhalten aber grundsätzlich richtig vorhergesagt wird. Eine zufriedenstellende quantitative Beschreibung der ternären Dreiphasengleichgewichte ist (wie schon von Adrian (1997) und Freitag (2003) gezeigt) nur mit Hilfe einer Korrelation möglich, bei der die binären Wechselwirkungsparameter durch Anpassung an die experimentell ermittelten ternären Phasengleichgewichtsdaten bestimmt werden. Ein Vorschlag für weiterführende Untersuchungen ist die Implementierung chemischer Reaktionen, wie sie bei dissoziierenden Spezies vorkommen, in das Programmpaket. Hiervon kann eine brauchbare Modellierung sowohl der Phasen- als auch der Verteilungsgleichgewichte gepufferter Systeme erwartet werden. Des weiteren bleibt die Notwendigkeit bestehen, für die entsprechenden binären Randsysteme möglichst zahlreiche und vor allem genaue Daten für einen grossen Temperatur- und Druckbereich zur Verfügung zu haben, um die Modellierung zu verbessern.
Die Bestimmung der Filtrierbarkeit von Suspensionen mit einer neuen Auswertemethode auf der Grundlage bekannter und erprobter Auswerteverfahren ergibt eindeutige Auswertekriterien insbesondere bei inkompressiblen Feststoffen und newtonschen Flüssigkeiten. Eine verbesserte Messtechnik erfasst den Filtratanfall bei beginnender Sättigung genau und vereinfacht die Zeitnahme. Methode und Technik erhöhen Genauigkeit und Reproduzierbarkeit bei der Bestimmung von Filtermittel- und Filterkuchenwiderstand und schaffen eine präzise Grundlage zur Auslegung von kontinuierlichen Fest-Flüssig-Filtern hoher Durchsatzleistung oder zur Entwicklung widerstandsarmer Filtermittel. Die Messungen zeigen einen hohen Anteil des Filtermittelwiderstandes am Gesamtwiderstand und erlauben die Berechnung eines Richtwertes für den Filtermittelwiderstand. Die industrielle Fest-Flüssig-Trennung wird in der chemischen, pharmazeutischen und Aufbereitungs-Industrie zu einem großen Teil auf kontinuierlich betriebenen Filtern durchgeführt, bei denen die Flüssigkeit vom Feststoff durch Kuchenfiltration sehr vollständig getrennt werden kann. Diese Filter sind durch Filtrationszykluszeiten zwischen 10 und 100 Sekunden charakterisierbar. Bei der Auslegung, Simulation oder Optimierung dieser Filter ist der Prozessingenieur auf genaue Daten zur Filtrierbarkeit der Suspensionen angewiesen. Die Theorie des durchströmten Filterkuchens ist sehr perfektioniert. Weniger Beachtung hatte dagegen der Einfluss des Filtermittels auf den Gesamtwiderstand bei der Filtration gefunden. Dies lag in der Vergangenheit teilweise daran, dass die genaue Bestimmung des Filtermittelwiderstandes RM – die zusammen mit der Bestimmung des Filterkuchenwiderstandes rK erfolgt – schwierig war. In den letzten Jahren wurden Filter für sehr hohe spezifische Durchsätze gebaut, bei denen dieser Wert von erheblichem Einfluss ist. Ziel der Arbeit war es, mehr Wissen und genaue Daten zum Filtermittelwiderstand zu erarbeiten. Es wurden umfangreiche Messungen des Filtermittelwiderstandes mit unterschiedlichen Filtermitteln und verschiedenen Produkten in wässrigen Suspensionen durchgeführt. Zur genauen Bestimmung des Filtermittelwiderstandes wurde ein gegenüber dem Stand der Technik verbesserter Versuchsaufbau mit rechnergestützter Datenerfassung entwickelt. Filtratanfall und Druckverlauf wurden bei den Versuchen festgehalten. Bei der Auswertung der Filterkurven wurden eindeutige Kriterien zur Bestimmung von Anfang und Ende der Filtration eingeführt. Dies erfolgte durch die Kombination von zwei bekannten und erprobten Auswerteverfahren zur Bestimmung der Filtrationseigenschaften. Diese Kombination ergab mit der verbesserten Versuchstechnik neben der Eindeutigkeit auch den Vorteil der exakten Erfassung des Filtratanfalls bei beginnender Sättigung, die ebenfalls zur erhöhten Genauigkeit bei der Bestimmung der Filterwiderstände beitrug. Der Filtermittelwiderstand kann bei kontinuierlich betriebenen Filtern am Ende des Filtrationszyklus 25 % des Gesamtwiderstandes und mehr erreichen. Bei leicht filtrierbaren Feststoffen werden trotz offener Filtergewebe auch höhere Anteile am Gesamtwiderstand gefunden. Der Filtermittelwiderstand ist bei kontinuierlichen Filtern ein wesentlicher Faktor bei der Filterauslegung. Durch Variation der Parameter der Filtergleichung wie Feststoffgehalt, Druck usf. wurden die Einflüsse wichtiger Betriebsparameter auf tendenzielle Änderungen der Widerstände untersucht. Bei diesen Messungen wurde festgestellt, dass der Durchflusswiderstand des Filtermittels bei höheren Durchflussgeschwindigkeiten nicht konstant ist. Die Einführung einer Reynoldszahl, die auf den nominellen Porendurchmesser bezogen ist, erlaubt es Strömungszustände zu definieren, ab denen der Durchflusswiderstand nicht mehr konstant ist. Mit den bekannten Gesetzten der Durchströmung poröser Haufwerke lassen sich Widerstandszahlen, analog zur Rohrreibungszahl, und daraus Druckverluste errechnen. Letztere sind mit den gemessenen Druckverlusten aus der Bestimmung der Filtermittelleerwiderstände gut korreliert. Mechanische Vorgänge bei der Partikelabscheidung an Filtermitteln werden anhand eines Kugel-Loch-Modells diskutiert. Experimentelle Ergebnisse stützen Schlussfolgerungen, die aufgrund dieses Modells gezogen wurden. Dazu wurden Überlegungen möglich, welche einige Tendenzen bei der Variation der Porengrößen bei unterschiedlichen Filtermedien erklären können.
Acrylamid (AA) ist ein Kanzerogen, das beim Braten, Backen und Frittieren stärkehaltiger Le-bensmittel im Wesentlichen aus dem Vorläufer Asparagin in Gegenwart reduzierender Zucker in substantiellen Mengen gebildet wird. AA wird im Organismus metabolisch zu Glycidamid (GA) umgewandelt. Für GA wurden DNA-Addukte insbesondere mit dem N7 des Guanins nachgewiesen. Von besonderem Interesse für die Risikobewertung von AA ist Aufklärung des kanzerogenen Wirkmechanismus sowie des genotoxischen Potentials im Vergleich zu anderen bekannten Kanzerogenen. Ziel der Arbeit war es daher, das genotoxische Potential von AA und seinen Metaboliten GA sowie deren genotoxischen Wirkmechanismus zu charakterisieren. AA wurde im Vergleich zu den alpha, beta-ungesättigten Carbonylverbindungen Acrolein (Ac) und Hexenal (Hex) getestet, GA vergleichend zu aktiven Formen der Kanzerogene Benzo[a]pyren (B[a]P) und N-Nitrosodiethanolamin (NDELA) sowie den N-Nitrosoharnstoffen MNU und HENU und ausgewählten N-Nitroso-oxazolidinonen, einer Gruppe von N-Nitrosaminen, welche möglicherweise endogen im Organismus gebildet und nach Hydrolyse in ihre biologisch aktive Form überführt werden. Humanes Vollblut, isolierte Lymphozyten sowie V79-Säugerzellen wurden als Testsysteme verwendet. Als Endpunkte der Genotoxizität wurde die Induktion und Kinetik der Abnahme von DNA-Strangbrüchen sowie der Einfluss von Glutathion auf die DNA-Strangbruchinduktion im Comet Assay bestimmt. Die Sensitivität und Selektivität des Comet Assays wurde durch zusätzliche Behandlung der DNA mit dem DNA-Reparaturenzym Formamido-pyrimidin-DNA-glykosylase (FPG) gesteigert. FPG erkennt AP Stellen, ring-geöffnete Pyrimidine sowie oxidierte Purine und überführt diese in zusätzliche DNA-Strangbrüche. Das mutagene Potential der Verbindungen nach 5-tägiger Expressionszeit wurde in V79 Zellen mittels hPRT-Genmutations-Assay untersucht. AA erwies sich in allen Testsystemen als nicht genotoxisch. Die im Vergleich getesteten alpha, beta-ungesättigten Carbonylverbindungen Ac und Hex waren ebenfalls in humanem Vollblut nicht genotoxisch, verursachten jedoch in isolierten Lymphozyten in hohen Konzentrationen(> 3000 µM) DNA-Strangbrüche. GA war in allen Testsystemen genotoxisch. Im Comet Assay ohne FPG zeigten sich DNA-Strangbrüche ab 300 µM (1h). Nach zusätzlicher Behandlung der DNA mit FPG wurden bereits ab 10 µM (4h) DNA-Strangbrüche detektiert. DNA-Schäden waren erst ab einer Inkubationszeit von einer Stunde signifikant und erreichten nach 24h ein Maximum. GA induzierte in V79 Zellen zudem erst in 80-fach höheren Konzentrationen hPRT-Mutationen (800 µM) als DNA-Strangbrüche. Zusätzlich zeigte sich, dass die Mutationsrate erst in Konzentrationen signifikant erhöht war, in denen eine Reduktion der DNA-Schäden nicht mehr effektiv erfolgte. Die Genotoxizität von GA beruht vermutlich auf der präferentiellen Bindung an N7-Guanin. Die entstehenden N7-G-Addukte werden entweder spontan zur AP Stelle depuriniert oder zum Formamido-pyrimidin ring-geöffnet. Beide Arten von Folgeprodukten sind FPG-Substrate und werden vermutlich effizient repariert, sodass es erst bei hohen lokalen Konzentrationen (> 800 µM) zu einer signifikanten Ausprägung von Mutationen kommt. Die im Vergleich zu GA getesteten Kanzerogene (±)-BPDE und alpha-Acetoxy-NDELA waren im Comet Assay bei ähnlichen Konzentrationen genotoxisch (10-30 µM; 1h). Im Gegensatz zu GA induzierten beide allerdings hPRT-Mutationen (3-10 µM) im gleichen Konzentrationsbereich wie DNA-Strangbrüche. Ähnliche genotoxische Eigenschaften zeigten auch die im Vergleich zu GA getesteten N-Nitrosoverbindungen. Die Gruppe der N-Nitroso-oxazolidinone wurde erstmals im Hinblick auf Genotoxizität und Mutagenität geprüft. NOZ-2 induzierte in V79 Zellen bereits nach 15’ ab 3 µM maximal DNA-Strangbrüche. HENU induzierte DNA-Strangbrüche ab 100 µM (15’). In beiden Fällen hatte FPG keinen Einfluss auf die DNA-Strangbruchinduktion. Sowohl NOZ-2 als auch HENU sind hydroxyethylierend. Im Gegensatz dazu, waren das carboxymethylierende oder methylierende NOZ-5 und das methylierende MNU im Comet Assay ohne FPG nur gering aktiv (> 300 resp. 1000 µM; 15’), während nach FPG-Behandlung die Aktivität im Comet Assay (NOZ-5: >10µM; MNU: >100µM; 15’) deutlich gesteigert war. Die Kinetik der Abnahme von DNA-Strangbrüchen ist für die Verbindungen unterschiedlich. Während die NOZ-2-induzierten DNA-Läsionen (30µM) persistieren, wurden die durch NOZ-5 und HENU induzierten DNA-Schäden -vergleichbar mit GA- effektiv innerhalb einer 8-stündigen Nachbehandlungszeit reduziert. Für alle untersuchten N-Nitrosoverbindungen waren hPRT-Mutationen im gleichen Konzentrationsbereich wie DNA-Strangbrüche im Comet Assay mit FPG nachweisbar. Die N-Nitrosoverbindungen sind damit insgesamt deutlich potenter mutagen als GA. NOZ-2 und HENU führen vermutlich vergleichbar mit alpha-Acetoxy-NDELA zu einer Hydroxyethylierung der DNA-Phosphodiester. Die resultierenden Phosphotriester sind instabil und werden voraussichtlich schnell in DNA-Strangbrüche gespalten. Des Weiteren ist die Bildung instabiler N7-G- und promutagener O6-G-2-Hydroxyethyl-Addukte zu erwarten. Das potentiell DNA-carboxymethylierende/methylierende NOZ-5 und das DNA-methylierende MNU alkylieren ver-mutlich die gleichen Positionen in der DNA. Allerdings scheinen die gebildeten Methyl- oder Carboxymethyl-Phosphotriester stabil zu sein und werden nicht spontan in Strangbrüche überführt. Die gebildeten N7-G-Addukte sind FPG-Substrate, was sich am FPG-vermittelten Anstieg der DNA-Strangbruchrate zeigt. Dies steht im Gegensatz zu NOZ-2, bei welchem FPG keinen Einfluss auf die DNA-Strangbruchinduktion hatte. Vermutlich ist dies auf die Hydroxyethylierung der Phosphat-Gruppen durch NOZ-2 zurückzuführen, deren spontane DNA-Strangbruch-Induktion den Nachweis von N7-G-Addukten mittels FPG überlagert. Weiterhin zeigte sich, dass trotz vergleichbar hoher hPRT-Mutagenität, NOZ-5-induzierte DNA-Schäden deutlich geringer persistent als entsprechende NOZ-2-Läsionen sind. Das mutagene Potential von NOZ-5 ist daher vermutlich, neben anderen nicht reparierten DNA-Schäden, auf promutagene O6-G-Addukte zurückzuführen, welche in MGMT-defizienten V79 Zellen nicht repariert werden. Orientierend wurde der Einfluss detoxifizierender Makromoleküle auf die Genotoxizität von GA und alpha, beta-ungesättigten Carbonylverbindungen durch Vergleich der Aktivitäten in humanem Vollblut und isolierten Lymphozyten sowie durch Co-Inkubation mit Glutathion (GSH) in V79 Zellen untersucht. Während Ac und Hex in isolierten Lymphozyten deutlich potenter DNA-schädigend als in humanem Vollblut sind, ist GA in beiden Systemen vergleichbar genotoxisch. Offensichtlich wird in humanem Vollblut die Aktivität von GA durch detoxifizierende Blutbestandteile nur unwesentlich beeinflusst. Ein entsprechender Effekt zeigt sich auch bei der Co-Inkubation von V79 Zellen. Während GSH die DNA-schädigende Wirkung von Ac und Hex in V79 Zellen deutlich reduzierte, war für GA kein signifikanter Unterschied zur DNA-Strangbruchrate in ausschließlich GA-behandelten Zellen nachzuweisen. Zusammenfassend konnte mit dieser Arbeit gezeigt werden, dass AA selbst nicht genotoxisch bzw. mutagen ist; Ac und Hex in humanem Vollblut ebenfalls nicht genotoxisch sind, allerdings in isolierten Lymphozyten bei hohen Konzentrationen (> 3000 µM) Genotoxizität induzieren; die genotoxische/ mutagene Wirkung von AA durch GA vermittelt wird; GA im Vergleich zu anderen potenten Kanzerogenen Genotoxizität nur sehr langsam induziert (signifikant nach 1h) und eher schwach mutagen ist; GA-induzierte DNA-Läsionen schnell (innerhalb von 8h) repariert werden;die physiologische Umgebung in Humanblut nur geringen Einfluss auf die biologische Aktivität von GA hat; NOZ-2 vergleichbar mit HENU mit und ohne FPG-Behandlung signifikant DNA-Strangbrüche erzeugt. Vermutlich führt die Hydroxylierung am Phosphat-Rückgrad zu spontanen Strangbrüchen, die den FPG-Effekt überlagern; NOZ-5 (vermutlich methylierend oder carboxymethylierend im Comet Assay) im Gegensatz dazu ohne FPG-Behandlung im Comet Assay nur schwach aktiv ist, während nach FPG-Behandlung offenbar die vermutete Bildung von N7-G-Addukten zum Tragen kommt; NOZ’s in V79-Zellen potente Mutagene sind; dies vermutlich in Folge von O6-Guanin-Addukt-Bildung, welche in MGMT-defizienten V79 Zellen nicht repariert werden; durch Kombination unterschiedlicher Protokolle des Comet-Genotoxizitäts- und hPRT-Mutagenitätstests orientierende Aussagen über den Zusammenhang zwischen DNA-Alkylierung, Detoxifizierung, DNA-Reparatur und der Entstehung von Mutationen gemacht werden können.
Anionenrezeptoren aus Cyclopeptiden mit 6-Aminopicolinsäure- und substituierten Prolinuntereinheiten
(2007)
Ziel dieser Arbeit war es, neue Cyclopeptide auf Basis der in der Arbeitsgruppe um S. Kubik untersuchten Anionenrezeptoren aus L-Prolin- und 6-Aminopicolinsäure zu entwickeln und hinsichtlich ihrer Rezeptor- und Sensoreigenschaften zu untersuchen. Das Hauptaugenmerk lag dabei auf dem Einfluss von Substituenten an den Prolinuntereinheiten auf die Bindungsaffinität und -selektivität. Durch eine systematische Syntheseoptimierung konnte eine effiziente Strategie für ein 4R-Amino-L-prolin-haltiges Dipeptid erarbeitet werden, welches es ermöglicht, verschiedene Substituenten mit der gewünschten Konfiguration an den C(γ)-Atomen der Prolineinheiten einzuführen. Aus den funktionalisierten Dipeptiden konnten anschließend die entsprechenden Cyclopeptide nach Standardmethoden aufgebaut werden. Die Charakterisierung der Bindungseigenschaften dieser Verbindungen hinsichtlich der Komplexierung verschiedener Sulfonate und Acetat erfolgte mittels NMR-Spektroskopie und isothermer Titrationskalorimetrie in unterschiedlichen Lösungsmitteln. Die Untersuchungen zeigten, dass die Struktur und die Flexibilität der peripheren Substituenten um den Cyclopeptidhohlraum einen signifikanten Einfluss auf die Substratbindung besitzt.
Die RNAi–Methode spielt eine grosse Rolle in der Wirkstoffentwicklung bei der Validierung eines pharmakologischen Ziels. Die Anwendbarkeit in der Toxikologie wurde noch nicht systematisch untersucht. Das Ziel dieser Arbeit ist die Evaluierung der RNAi-Methode für mechanistisch-toxikologische Studien und den Einfluss von posttranskriptioneller Genunterdrückung auf biochemisch-zelluläre Endpunkte zu zeigen. Die siRNAs wurden mit Hilfe eines computerunterstützten Algorithmus ausgewählt. Effiziente und reproduzierbare Einschleusung der siRNA in vitro wurde durch Elektroporation erreicht. Die molekulare Reduktion der Expression des Zielgens wurde auf mRNA- und Proteinexpressionslevel oder auf Proteinaktivitätsebene zwischen 24 und 144 Stunden nach Behandlung überwacht. Die siRNAs wurden in vitro getestet bevor sie in vivo angewandt wurden. Als Methode zum Erreichen der Leber in vivo wurde die intraperitoneale Gabe von siRNAs gegenüber hydrodynamischer Injektion in die Schwanzvene evaluiert. Auf folgenden Enzyme wurde mit RNAi in der Zellkultur abgezielt: ATP-Synthase in HepG2, Farnesylpyrophosphat-Synthase (FPPS) in humanen Nierenzellen (HK-2) und Caspase-3 in Primärhepatozyten der Ratte. In allen Experimenten war RNAi in der Lage, das mRNA- und Proteinexpressions- oder Proteinaktivitäts-Niveau zu reduzieren, wodurch die erfolgreiche Genunterdrückung gezeigt werden konnte. Die Unterdrückung der mitochondrialen ATP- Synthase β-Untereinheit hatte keinen signifikanten Einfluss auf die Überlebensrate und den Energiestoffwechsel von HepG2-Zellen. Obwohl Oligomycin B-Behandlung zu ATP- Depletion und Verlust des mitochondiralen Membranpotentials führte, war keine Sensitivierung der Zellen gegenüber Oligomycin B- oder Diclofenac-induzierten Veränderungen des mitochondrialen Membranpotentials oder Zytotoxizität zu beobachten. Die Genunterdrückung der ATP-Synthase in HepG2-Zellen führte zu einer ähnlichen transkriptionellen Signatur wie Diclofenac-Behandlung in vivo, so dass eine mögliche Verbindung zwischen ATP-Synthase und Hepcidin, BiP und ALAS-1 durch Koregulation nahegelegt wird. Die Genunterdrückung von FPPS führte zu tendenziell erhöhter Zytotoxizität von Zoledronsäure, hatte aber keinen Einfluss auf den Prenylierungsstatus der kleinen GTPasen. Der Caspase-3/7-Inhibitor Ac-DEVD-CHO verhinderte SDZ IMM125-vermittelte Apoptose. Spezifische Genunterdrückung von Caspase-3 führte zur Reduktion der SDZ IMM125-induzierten Caspaseaktivität, während die Unterdrückung von Caspase-7 in dieser Hinsicht keinen Einfluss hatte. Die Effektschwelle des Genunterdrückung wurde durch Vergleich zwischen Caspase-3-silencing und Behandlung mit dem chemischen Caspase-Inhibitor Ac-DEVD-CHO auf Ebene der Caspase-3-Aktivität und der zytoprotektiven Wirksamkeit bestimmt. Der Effekt von Caspase-3-Unterdrückung war equivalent zur Wirkung von 1 μM Inhibitor. Die inhibitorvermittelte Schutzwirkung im Hinblick auf die Zytotoxizität wurde ausschliesslich bei höheren Inhibitorkonzentrationen erreicht, wodurch gezeigt wurde, dass die erreichte Genunterdrückung für zytoprotektive Wirkungen nicht ausreichend war. SiRNAs haben verglichen mit Enzyminhibitoren generell eine höhere Spezifität. Chemische Inhibitoren sind weniger spezifisch und können enzymatische Aktivitäten vollständig, in manchen Fällen irreversibel und schnell beeinflussen, so dass sie direkten Einfluss auf die zu untersuchenden Signalwege haben. SiRNAs unterscheiden sich in dieser Hinsicht, da die Abnahme des Proteins nicht vollständig, nur transient und langsam über eine Periode hinweg erfolgt, innerhalb welcher sich die Zellen durch kompensatorische Mechanismen anpassen und Primäreffekte maskiert werden können. Hydrodynamische Einschleusung von nicht-komplexierter siRNA in die Leber von CD-1-Mäusen war möglich und reduzierte die CYP2E1-Proteinexpression signifikant. Ein- oder mehrfache hochdosierte intraperitoneale Gabe von siRNA führte weder auf mRNA- noch auf Proteinebene zu signifikanten Effekten. Weitere Untersuchungen im Hinblick auf Stabilität und effiziente Einschleusung von siRNAs ist unvermeidlich, bevor siRNAs in vivo in der mechanistischen Toxikologie angewandt werden können. Zusammenfassend kann ausgesagt werden, dass die Anwendung von siRNAs in vitro eine universelle und spezifische Methode darstellt, welche in vielen mechanistisch-toxikologischen Studien als Werkzeug zur Signalweganalyse und zur Validierung von Zielproteinen eingesetzt werden kann. Die Stärke der enzymatischen Inhibition, die mit Hilfe eines chemischen Inhibitors erreicht werden kann, ist durch siRNA-vermittelte Genunterdrückung nicht zu erreichen. Genunterdrückung in vivo kann erreicht werden, doch die invasive hydrodynamische Methode ist nicht geeignet für Toxizitätsprüfungen im Tier. Die Einschleusung von siRNA in spezifische Zielorgane benötigt signifikante Verbesserung.
Sepsis ist eine lebensbedrohliche Krankheit und eine der häufigsten Todesursachen auf Intensiv-Stationen. Eine der Hauptursachen für die Schwere dieser Krankheit ist die Lymphopenie, d. h. die apoptotische Depletion von Lymphozyten, die vor allem in der späten hypo-inflammatorischen Phase der Sepsis auftritt. Die dafür verantwortlichen Signalwege sind jedoch nicht im Detail geklärt. Die Liganden-vermittelte Aktivierung von PPARgamma (‚peroxisome proliferator activated receptor gamma’), einem wichtigen Regulator der Immunantwort, führt zur Apoptose in aktivierten T-Zellen. Daher postulierte ich, dass die PPARgamma-vermittelte Apoptose in T-Zellen zur Lymphopenie während der Sepsis beiträgt. Hierbei konnte ich zeigen, dass T-Zellen aus dem peripheren Blut von Sepsis-Patienten eine stark erhöhte PPARgamma-mRNA-Expression zeigten und in vitro stark erhöhte Apoptoseraten infolge einer Liganden-vermittelten PPARgamma-Aktivierung aufwiesen. Die hierfür erforderlichen PPARgamma-Liganden lagen im Plasma von Sepsis-Patienten vor. D. h. die PPARgamma-vermittelte Apoptose in T-Zellen könnte zur nachgewiesenen Lymphopenie während der Sepsis beitragen. Aufgrund der anti-inflammatorischen Wirkung von PPARgamma könnte dessen gezielte Aktivierung in der frühen hyper-inflammatorischen Phase durch Thiazolidindione (TZDs) als synthetische PPARgamma-Aktivatoren therapeutisch interessant sein. Da diese jedoch auch auf PPARgamma-unabhängigen Wegen den Zelltod in T-Zellen induzieren können, war es essentiell, die dafür verantwortlichen Signalwege zu klären. Dabei konnte ich feststellen, dass Ciglitazon Nekrose und Troglitazon Apoptose auf PPARgamma-unabhängigen Wegen bereits nach 4 h in Jurkat T-Zellen induzierten, wohingegen Rosiglitazon keinen Einfluss auf den Zelltod hatte. Die Inkubation der TZDs führte zur Produktion von reaktiven Sauerstoffspezies, welche eine wichtige Rolle bei der Ciglitazon-induzierten Nekrose, jedoch nur marginal bei der Troglitazon-induzierten Apoptose spielten. Durch Studien in submitochondrialen Partikeln konnte ich zeigen, dass die getesteten TZDs den Komplex I der mitochondrialen Atmungskette inhibierten, während nur Ciglitazon und Troglitazon zusätzlich den Komplex II hemmen konnten. Mit Hilfe synthetischer Atmungskette-Inhibitoren konnte ich weiterhin zeigen, dass die Zelltod-Induktion nach Ciglitazon und Troglitazon in Jurkat T-Zellen hauptsächlich auf der Hemmung des Komplexes II beruhte. Da die Ciglitazon-Inkubation zur Depletion des ATP-Gehaltes führte, erfolgte eine Nekrose-Induktion nach Ciglitazon, wohingegen Troglitazon den ATP-Gehalt nicht beeinflusste und daher Apoptose induzierte. Die von mir identifizierten PPARgamma-unabhängigen Mechanismen der Zelltod-Induktion durch TZDs könnten eventuell Nebenwirkungen bei TZD-basierten Therapien erklären.
Die vorliegende Arbeit befasst sich mit Anionenrezeptoren aus einfach und zweifach verbrückten Bis(cyclopeptiden). Die Cyclohexapeptiduntereinheiten bestehen dabei aus einer alternierenden Sequenz aus L-Prolin und 6-Aminopicolinsäure. Im ersten Teil dieser Arbeit wurden eine Reihe neuer einfach verbrückter Bis(cyclopeptide) synthetisiert und mit dem bis jetzt einzigen bekannten verbrückten Bis(cyclopeptid) dieser Art verglichen. Bei diesen Untersuchungen konnte gezeigt werden, dass die neu dargestellten Bis(cyclopeptide) anorganische Anionen auf die gleiche Art wie das bereits bekannte binden. Dabei wird das Anion kooperativ durch die Cyclopeptiduntereinheiten über sechs Wasserstoffbrücken koordiniert. Mittels isothermer Titrationskalorimetrie (ITC) wurden die thermodynamischen Parameter der Komplexbildung der Anionen mit den Bis(cyclopeptiden) bestimmt. Es stellte sich heraus, dass die Linkerstruktur einen großen Einfluss auf die thermodynamischen Parameter der Komplexbildung besitzt, wenn auch die resultierenden Bindungskonstanten der Rezeptoren für ein Anion in einer ähnlichen Größenordung liegen. Mit einem log Ka von etwa 6,0 konnte in dieser Untersuchung einer der besten neutralen Sulfatrezeptoren in wässrigen Lösungsmitteln identifiziert werden. Im zweiten Teil dieser Arbeit wurde eine Strategie erarbeitet, die den Zugang zu zweifach verbrückten Bis(cyclopeptiden) ermöglicht. Dabei wurde die dynamische kovalente Chemie (DCC) bei der Synthese verwendet. Als reversible Reaktion wurde der Disulfidaustausch eingesetzt. Bei der Synthese wurde ein entsprechend dithiofunktionalisiertes Bis(cyclopeptid) in Anwesenheit verschiedener Dithiole als Linker und eines Templats umgesetzt. Dabei bildete sich die thermodynamisch stabilste Bis(cyclopeptid)-Linker Struktur aus. Es konnten im Laufe dieser Untersuchungen bereits erste Strukturen identifiziert werden, die selektiv für Anionen der Größe und Geometrie von Sulfat und Iodid waren. Dabei wurden nur Bis(cyclopeptide) gebildet, die einen Linker pro Brücke besaßen und es kam nicht zum Einbau verschiedener Linker in ein Bis(cyclopeptid). Im letzten Teil dieser Arbeit wurde überprüft, ob die Entwicklung eines Sensors auf Basis von einfach verbrückten Bis(cycloeptiden) möglich ist. Es konnte gezeigt werden, dass der Einsatz von Bis(cyclopeptiden) als Ionophore in ionenselektiven Elektroden (ISEs) kein viel versprechender Weg zur Erzeugung eines Sensors ist. Durch die Einführung eines fluoreszenzaktiven Linker konnte aber Bis(cyclopeptid) synthetisiert werden, dass in wässrigen Lösungen einen hochselektiven Fluoreszenzsensor für Sulfat darstellt. Dabei kommt es in Anwesenheit von Sulfat, selbst in Anwesenheit von 100 Äquivalenten Natriumchlorid, zu einer Löschung der Fluoreszenz. Keins der anderen acht untersuchten Anionen hatte einen ähnlichen Effekt auf das Fluoreszenzspektrum. Durch theoretische DFT Rechnungen konnte die Löschung der Fluoreszenz rationalisiert werden. Damit eröffnen sich erste praktische Anwendungen für die Bis(cyclopetide).
Die Peltulaceae sind eine flechtenbildende Ascomycetenfamilie, die derzeit 43 morphologisch umschriebene Spezies in drei Gattungen umfasst. Systematisch gehören sie in die Ordnung Lichinales (Lichinomycetes, Pezizomycotina), ihre genaue Stellung im System der Ascomyceten ist unbekannt. Die Familie lebt exklusiv mit Cyanobakterien in Symbiose und besiedelt weltweit aride und semi-aride Habitate. Die aktuell bekannte Verbreitung zeigt Ähnlichkeiten zu derjenigen xerophytischer Moospflanzen, für die ein gondwanischer Ursprung angenommen wird. Außerdem besiedeln mehr Peltulaceen-Spezies die ehemaligen Gondwanakontinente (Afrika, Südamerika, Australien, Indien) als die übrigen, laurasischen Kontinente (Nordamerika, Europa, Asien); der Sörensen-Koeffizient für die Florenähnlichkeit beträgt 0,697. Die Hypothese, dass die Peltulaceae gondwanischen Ursprungs sind, sollte mit Hilfe einer phylogenetischen Analyse der Familie geklärt werden, indem durch darauf aufbauende geographische Analysen das Ursprungsareal auf kontinentalem Niveau identifiziert wird. Mit Hilfe des morphologischen Merkmalskomplexes ließ sich keine aufgelöste Phylogeniehypothese erstellen. Da die geographischen Analysen eine voll aufgelöste Phylogenie erfordern, wurden sechs molekulare Marker ausgewählt (nucSSU, nucLSU, mtSSU, ITS, RPB2/7-11, β-Tubulin) und zunächst für je einen Vertreter von 37 der 43 umschriebenen Morphotaxa sequenziert. Die resultierenden Stammbäume der ML- und Bayes'schen Analysen waren unterschiedlich gut aufgelöst und untereinander dergestalt inkompatibel, dass unterschiedliche monophyletische Beziehungen unterstützt wurden. Außerdem wies das β-Tubulin-Gen eine paraloge Kopie auf. Durch Kompatibilitätstests ließen sich keine Teilmengen kongruenter Daten feststellen. Die dennoch durchgeführte kombinierte Analyse aller sechs Marker war vom phylogenetischen Signal des RPB2/7-11-Gens dominiert und ließ sich nicht durch geographische, morphologisch-anatomische oder ökologische Merkmale bestätigen. Zwei verschiedene Methoden zur Detektion von Rekombination ergaben nicht-übereinstimmende Signale nur in der nucLSU beziehungsweise in allen Markern außer der ITS. Von den Genen ITS und RPB2/7-11 wurden zusätzlich Sequenzen weiterer Peltulaceae-Individuen erzeugt und ML- und Bayes‘sche Analysen durchgeführt, in der die Vertreter von zwölf Morphospezies keine monophyletischen Einheiten bildeten. Die Suche nach phylogenetischen Spezies mittels der Konsensusmethode zeigte lediglich eine nicht-terminale Gruppierung unterschiedlicher Morphotaxa: die Vereinigung dreier durch eine peltate Wuchsform charakterisierte Spezies. Dieses Merkmal besitzen jedoch auch andere, in dieser Gruppierung nicht eingeschlossene Spezies. Die Monophylie der Peltulaceae wurde mit molekularen Daten bestätigt, die Stellung im System der Ascomyceten konnte jedoch nicht geklärt werden. Die Existenz der Gattungen Neoheppia und Phyllopeltula konnte mittels molekularer Marker nicht bestätigt werden. Sie werden als taxonomische Konsequenz mit dem älteren Gattungsnamen Peltula synonymisiert, womit die Familie monogenerisch wird. Die vorhandenen Inkongruenzen zwischen den molekularen Markern deuten auf genetisch nicht isolierte Taxa hin. Die Peltulaceae werden nun als ein Spezieskomplex mit bisher ungeklärter Spezieszahl gedeutet. Die morphologische Speziesumschreibung bedarf einer Neubewertung, da sie sich größtenteils nicht mit molekularen Daten bestätigen ließ. Die Klärung der Ausgangsfrage nach dem geographischen Ursprung der Peltulaceae muss die Überarbeitung der Speziesabgrenzungen abwarten.
Im Rahmen der vorliegenden Arbeit wurden sowohl neuartige polymere Hochleistungsverbundwerkstoffe als auch unterschiedliche Modellprüfmethoden zur Nachbildung abrasiver Verschleißbedingungen entwickelt. Ausgangspunkt für diese Themenstellung war, Verbundwerkstoffe als alternative Gleitlagermaterialien in hermetisch dichten Pumpen für aggressive und abrasive Medien einzusetzen. Stand der Technik sind hierbei keramische Gleitlager, insbesondere aus monolithischem Siliziumkarbid. Das Ziel war somit zu untersuchen, ob Polymerwerkstoffe derart modifiziert werden können, dass ein vergleichbares Verschleißverhalten erreicht wird. Auf der Basis von Epoxidharz wurde die elementare Werkstoffentwicklung, durch Variation von Füll- und Verstärkungsstoffe, hinsichtlich Art, Größe und Menge, durchgeführt. Die Formulierung mit den in Summe günstigsten Eigenschaften wurde anschließend auf einen weiteren Duroplasten (Vinylester) und einen Thermoplasten (Etylentetrafluorethylen) übertragen. Auf diese Weise konnte gezeigt werden, dass das Verschleißverhalten bei hochgefüllten Systemen maßgeblich von den Füll- und Verstärkungsstoffen geprägt wird und durch die Übertragung der Formulierung ähnliche Verschleißraten erzielt werden. Weiterhin wurde der Einfluss der Aushärtungstemperatur, und somit des Herstellungsprozesses, auf die Werkstoffeigenschaften dargestellt. Durch eine weiterführende Werkstoffmodifikation, den Einsatz multimodaler Korngrößenverteilungen, war es zudem möglich die tribologischen Eigenschaften nochmals zu verbessern. Der Vergleich der Werkstoffeigenschaften erfolgte mittels mechanischer und tribologischer Prüfungen. Letztere waren jedoch nur bedingt anwendbar, um einen Vergleich zwischen den neu entwickelten Hochleistungsverbundwerkstoffen und dem Referenzwerkstoff Siliziumkarbid zu ermöglichen. Aus diesem Grunde wurde ein spezieller Medienprüfstand konstruiert und aufgebaut, um verschiedenste abrasive Prüfbedingungen, ob geschmiert oder ungeschmiert, simulieren zu können. Mit Hilfe abrasiver Gegenkörper war es möglich die Testzeit von 20 Stunden auf 60 Sekunden zu verkürzen. Die anschließende Validierung der Ergebnisse ergab eine gute Übereinstimmung. Zur Ableitung allgemein gültiger Aussagen wurden die Ergebnisse anhand dreier Verschleißmodelle für abrasive Bedingungen (Archard, Budinski, Ratner et al) überprüft. Dabei erwies sich jedoch keines der Modell als passend, um alle experimentellen Werte abbilden zu können. Dennoch lies sich erkennen, dass das Deformationsverhalten bei abrasiven Verschleißvorgängen eine bedeutende Rolle spielt. Deshalb wurde das Deformationsverhalten von drei exemplarischen Verbundwerkstoffen bei einer dynamischen Mikrohärteprüfung mittels der Finiten Elemente Methode (FEM) simuliert. Es zeigte sich, dass zum einen die Berechnungen und die experimentellen Ergebnisse sehr gut übereinstimmen. Zum anderen sind die entwickelten FEM Modelle sehr gut geeignet, um das Verschleißverhalten zu erklären.
In der biotechnologischen Herstellung von Proteinen ist die Fällung mit Hilfe von Salzen (z. B. Ammoniumsulfat) ein unkompliziertes und verbreitetes Verfahren, wobei die biologischen Eigenschaften der Proteine (meistens) erhalten bleiben. Dieses Verfahren basiert auf dem sogenannten „Aussalzeffekt“. Obwohl das „Aussalzen“ von Proteinen seit langem bekannt ist, ist das Phasenverhalten in Systemen aus Proteinen, Salzen und Wasser weitgehend ungeklärt. Das Phasenverhalten eines proteinhaltigen Systems wird durch eine Vielzahl von Parametern, z. B. Art und Konzentration der Stoffe, Temperatur, pH-Wert und Ionenstärke, beeinflusst. Darüber hinaus können beim Ausfällen der Proteine sowohl stabile als auch metastabile Phasengleichgewichte auftreten. In der vorliegenden Arbeit wurden experimentelle Untersuchungen zum Phasenverhalten ternärer Systeme (Protein + Salz + Wasser) bei Umgebungstemperatur durchgeführt. Das Ausfällen von Lysozym, Bovin Serum Albumin, Ovalbumin und Trypsin mit Hilfe verschiedener Salze (Ammoniumsulfat, Natriumsulfat und teilweise der flüchtigen Salze Ammoniumcarbamat und Ammoniumbicarbonat) wurde untersucht. Die experimentellen Untersuchungen erfolgten einerseits durch Bestimmung der Trübungskurven und andererseits durch Bestimmung der Zusammensetzung der koexistierenden Phasen. Zusätzlich wurden mikroskopische Untersuchungen durchgeführt, um die Struktur der proteinreichen Phase (amorph, kristallin) aufzuklären. Die vorliegende Arbeit trägt zur Aufklärung der das Ausfällen von Proteinen verursachenden physikalisch-chemischen Effekte am Beispiel einiger Modellsysteme bei. Es wurde gezeigt, dass flüchtige Salze (d. h. die Salze auf Basis von Ammoniak und Kohlendioxid) erfolgreich für die Aufarbeitung der wässrigen Proteinlösungen eingesetzt werden können. Die Ergebnisse der experimentellen Untersuchungen sollen die Grundlage für eine in weiterführenden Arbeiten vorgesehene Modellierung solcher Phasengleichgewichte bilden.
Zwölf Testpflanzen des Weinbauinstituts Freiburg wurden auf deren Resistenzeigenschaften gegenüber dem Virusvektor Xiphinema index und dem GFLV getestet. Das Hauptziel dieser Arbeit lag in der Entwicklung eines in-vitro-Testsystems für Reben, das detaillierte Einblicke in das Wurzel-Nematoden-System erlaubt. Anhand dieses in-vitro-Testsystems konnten zwei unterschiedliche Reaktionen der Wurzeln dieser Testreben auf die Saugtätigkeit der Nematoden festgestellt werden. Es konnte sowohl eine Gallenbildung als auch eine Nekrosenbildung bei den unterschiedlichen Kreuzungen der Testpflanzen beobachtet werden. Alle Testpflanzen aus verschiedenen Kreuzungen zeigten eine Abwehrreaktion gegenüber den Nematoden. Dies resultierte in Auftreten von Transkripten der Phenylalanin-Ammonium-Lyase (PAL) und der Bildung von Superoxid-Radikalen. Bei zwei V. rotundifolia-Hybriden war zusätzlich die Callose-Synthase aktiv und es kam außerdem zu einer Callose-Deposition an den betroffenen Stellen im Wurzelgewebe. Bis auf Testpflanze 46, einem V. rotundifolia-Hybrid waren alle getesteten Reben nach vier Wochen Versuchsdauer sensitiv für eine Transmission des GFLV. Dieser Hybrid war an den Wurzeln durch die Saugtätigkeit der Nematoden nekrosenbildend und zeigte eine Callose-Synthase-Aktivität. X. index findet seine Wirtspflanzen durch Chemotaxis. Er orientiert sich anhand von Wurzelexudaten, die von Wurzeln ins Medium abgeben werden. Totes Wurzelgewebe kann der Nematode nicht lokalisieren und stellt keinen Stimulus dar. Bei knappem Nahrungsangebot nutzt der Nematode vorhandene Nahrungsressourcen aller Rebsorten mit verschiedenster Beschaffenheit. Mit dem Pflanzenhormon Methyljasmonat behandelte Wurzeln wurden gezielt gemieden. Zwei mit dem GFLV infizierte Rebflächen an verschiedenen Standorten zeigten innerhalb dreijähriger Beobachtung eine Zunahme von virustragenden Rebstöcken. Ein Hinweis auf die Verbreitung durch virusübertragende Nematoden konnte durch Bodenproben bisher nicht bestätigt werden.
Indirubin wurde als aktive Komponente einer aus der traditionellen chinesischen Medizin stammenden Wirkstoffmischung namens Danggui Longhui Wan identifiziert, welche sich unter anderem als ein wirksames Mittel gegen chronisch myeloische Leukämie (CML) erwiesen hat. Erste Untersuchungen zum Wirkmechanismus zeigten, dass es sich bei Indirubin und dessen Derivaten um potente Inhibitoren cyclin-abhängiger Kinasen (CDKs) handelt. Diese Enzyme spielen eine essentielle Rolle bei der Regulation des Zellzyklus’, welche bei Tumorzellen meist außer Kontrolle ist. Inkubation verschiedener Tumorzellen (u.a. MCF-7) mit dem Derivat Indirubin-3’-oxim führte zu einem konzentrationsabhängigen Zellzyklus-Arrest bei G1/S bzw. G2/M. Diese Beobachtungen machen Indirubin und dessen Derivate für einen eventuellen Einsatz als Tumortherapeutikum interessant. Für die Verwendung als Tumortherapeutikum erweist sich die geringe Wasserlöslichkeit und die damit einhergehende geringe Bioverfügbarkeit des Indirubins und vieler seiner Derivate als nachteilig. Im Rahmen dieser Arbeit sollte das Molekülgerüst des Indirubins durch das Einbringen geeigneter Substituenten so modifiziert werden, dass eine höhere Wasserlöslichkeit bei gleichzeitig starker inhibitorischer Wirkung auf CDKs (untersucht am CDK2/Cyc E Komplex) und starker Cytotoxizität (untersucht mittels SRB-Test an der MCF-7 Tumorzellinie) erzielt wird. Bei den dafür verwendeten Substituenten handelt es sich vorwiegend um ein- oder mehrfach hydroxylierte Alkylgruppen oder um ionische Gruppen wie die Carbonsäuregruppe, die an den Positionen 3’ bzw. 5 des Indirubinmoleküls eingeführt werden. Ergebnisse: Durch das Einführen hydroxylierter Alkyl-Substituenten in Position 3’ des Indirubingrundgerüstes konnte die Wasserlöslichkeit der entstandenen Derivate im Vergleich zum Indirubuin etwa 10- bis 50-fach erhöht werden (1 bis 5 mg/ml im Vergleich zu 0,1 mg/ml). Das Einführen einer Carboxygruppe in Position 5 (5-Carboxyindiruin, E810) führt zu einer noch höheren Wasserlöslichkeit von 41 mg/ml. Die inhibitorische Aktivität auf den CDK2/Cyc E Komplex einiger der synthetisierten Derivate liegt mit etwa 0,2 µM unter dem entsprechenden IC50-Wert des Indirubins (etwa 7 µM), und auch die Cytotoxizität liegt bei einigen Derivaten mit IC50-Werten von 0,1 bis 0,9 µM unter dem IC50-Wert von Indirubin (4 µM).
Die enorme Nachfrage nach neuartigen Naturstoffen sowie Leitstrukturen für die (Teil-) Synthese pharmazeutischer Produkte verlangt ständig nach neuen Innovationen. Ein bedeutender Impuls ist dabei von der Marinen Biotechnologie zu erwarten, die seit einigen Jahren versucht, die sich bietenden medizinischen Potentiale auszuschöpfen. So können neuartige Wirkstoffe bzw. die für deren Produktion verantwortlichen Organismen und Enzyme isoliert und bereitgestellt werden. Häufig ist das Wachstum der Organismen jedoch stark limitiert sowie eine Produktion der Ziel-Metabolite nur unter bestimmten Bedingungen möglich, weshalb ein enormes Interesse an neuen Optimiermethoden zur Lösung des Problems besteht. Neuartige Lösungsansätze sollten daher im Rahmen dieser Arbeit verfolgt werden. Untersucht wurde eine „biochemische“ Wachstums- und Produktionsoptimierung mariner Bakterien durch einen Zusatz von Homoserinlactonen zum Kultivierungsmedium. Dabei konnte neben einem verbesserten Wachstum diverser Prokaryonten eine leichte Variation im Metabolitspektrum ermittelt sowie eine geringfügig erhöhte Produktion biologisch aktiver Substanzen detektiert werden. Soll das Wachstum von (marinen) Mikroorganismen optimiert werden, wird vom Anwender häufig eine unstrukturierte one-factor-at-a-time-Methode angewendet. Da diese in der Regel keine Beeinflussung der zu optimierenden variablen Parameter beachtet, wurden in dieser Arbeit alternativ rechnergestützte Optimierungen zur Umgehung dieses Problems durchgeführt. Zum Einsatz kam dabei eine Kombination aus einem Genetischen Algorithmus, welcher die Identifikation des globalen Optimums erlaubt und einem Simplex-Algorithmus, der zur Verfeinerung des bereits aufgefundenen Optimums dient. Hiermit konnte die Produktion einer marinen L-Serindehydratase im Rahmen einer Nährmediumsoptimierung um mehr als 50 % im Vergleich zum Referenzmedium gesteigert werden. Des Weiteren wurde ein im Polyketidscreening positiv aufgefallenes Bakterium (Halomonas marina) als Modellorganismus für ein neuartiges rechnergestütztes Verfahren eingesetzt, welches eine schnelle Identifizierung der Güte von Wachstumsparametern erlaubt und dabei eine repetitiv geführte Batch-Betriebsweise von Bioreaktoren nutzt. Ein weiterer Schwerpunkt dieser Arbeit ist die Charakterisierung einer rekombinant exprimierten Tryptophan-5-Halogenase. Hierbei konnte nach der Identifizierung des Aktivitätsoptimums hinsichtlich des einzustellenden pH-Werts sowie der Temperatur die Halbwertszeit des Enzyms bei verschiedenen Temperaturen bestimmt und mittels 2 D-Gelelektrophorese der pI-Wert des Enzyms erstmalig determiniert werden. Ein Fokus dieser Untersuchungen lag auf der Optimierung der Enzymkinetik. Dabei konnte insgesamt eine Verbesserung der Ausbeute um den Faktor 1,6 erzielt werden.
Diese Arbeit beschäftigt sich mit Methoden zur Klassifikation von Ovoiden in quadratischen Räumen. Die Anwendung der dazu entwickelten Algorithmen erfolgt hauptsächlich in achtdimensionalen Räumen speziell über den Körpern GF(7), GF(8) und GF(9). Zu verschiedenen, zumeist kleinen, zyklischen Gruppen werden hier die unter diesen Gruppen invarianten Ovoide bestimmt. Die bei dieser Suche auftretenden Ovoide sind alle bereits bekannt. Es ergeben sich jedoch Restriktionen an die Stabilisatoren gegebenenfalls existierender, unbekannter Ovoide.
For almost thirty years bast fibers such as flax, hemp, kenaf, sisal and jute have been
used as reinforcing material in the molding process of both thermoplastic and thermoset
matrices. The main application areas of these natural fiber reinforced composites
in Europe are limited almost exclusively to the passenger car range. Typical
components are door panels, rear parcel shelves, instrument boards and trunk linings.
Natural fiber reinforced composites have become prevalent due to their good
mechanical properties and their low production costs. The main advantage in applying
natural fibers as reinforcement in composite materials is the price. Nowadays this
argument becomes more and more important due to the scarcity of synthetic raw materials
and consequently, their rising prices. Additionally the low density (approx.
1.5 g/cm³) of natural fibers confers them a very good lightweight potential. Other advantageous
features of natural fiber composites include very good processing and
acoustic properties. Further benefits such as good life cycle assessment and easier
processability compared to glass fiber material should also be taken into account.
Disadvantages of natural fibers are unevenness of the fiber quality and varying fiber
characteristics due to differences in soil, climate and fiber separation and their low
heat resistance (at temperatures exceeding 220 °C, some fiber components start
thermal degradation). Another disadvantage of natural fiber reinforced materials is
that with some matrices (mostly thermoplastic polymers) a sufficient impregnation of
the fibers can only be achieved if the fiber content in the composite is kept low, usually
below 50 wt.-%. Under these conditions the best performance of the natural fiber
reinforcement can not be realized. Another disadvantage of non-impregnated thermoplastic
prepregs is the long processing cycle times, which result from heating up the enclosed air in the prepreg during the process. Alternatively pure natural fiber
based non-woven fabrics are impregnated with thermoset systems. Due to the relatively
simple handling compared to alternative procedures, the thermoforming of thermoset
bonded prepregs is a very promising method for manufacturing natural fiber
reinforced components.
In this work, a novel general concept for natural fiber reinforced composites with a
natural fiber content of approx. 80 wt.-% and a thermoset matrix is developed. A suitable
material combination as well as an optimal process execution that help to meet the technical requirements for the natural fiber reinforced composites will be demonstrated.
Hemp and kenaf have been chosen as reinforcement fibers. In this work it is shown
that hemp and kenaf can be used as successful reinforcement alternatives to the
more established flax fibers in composite materials. Short flax fibers, which are commonly
used as reinforcement in composites (approx. 67 % for the German automotive
applications), are the “waste” of the long fiber production and their availability
and price strongly depend on the demand of the long fibers from the textile industry
and therefore their cost can strongly fluctuate, as it has been demonstrated in the
past few years. In contrast fiber plants such as hemp and kenaf are especifically cultivated
for technical applications and their availability and price is much more stable.
For their application a profound knowledge of the structural and mechanical properties
of the fibers is indispensable. In this work single filament tensile tests on these
two types of natural fibers are carried out. The cross-section area of both fibers, necessary
for the calculation of the tensile properties, was intensively studied using light
microscopy and Scanning Electron Microscopy (SEM) analysis. Because the occurrence
of flaws within the fiber is random in nature, tensile strength data of these fibers
was statistically analyzed using the Weibull distribution. The strengths were estimated
by means of Weibull statistics and then were compared to experimentally
measured strengths.
For a better handling of the material, both kenaf and hemp fibers were manufactured
to needle punched fiber mats. For the impregnation of the natural fiber mats, a Foulard-
process with the thermoset matrix as an aqueous solution was employed. The
reproducibility of this impregnation process was examined. Different matrix Systems with different chemical compositions were applied on the needle punched fiber mats.
The impregnated prepregs were heated and consolidated to components in a onestep-
process. A big advantage of this procedure is the short cycle times, since no
additional pre-heating process is required, in contrast to thermoplastic bonded prepregs.
Additionally, a parameter study of the mechanical properties of the composites
was performed. The best matrix system satisfying the work conditions and properties
of the composites was chosen to carry out the next working step, namely optimization of the compression molding process for the thermoset bonded natural fiber prepregs.
Apart from the material composition of prepregs, general processing parameters
such as temperature, time and pressure play a decisive role for the quality of structures
made of natural fiber reinforced polymers. The impregnated prepregs were
consolidated in a one-step-process to components. A systematic parameter study of
the influence of the relevant process parameters on the characteristics of manufactured
components was performed. Mould temperatures over 200 °C lead to thermal
degradation of the fibers. This temperature should not be exceeded when working
with natural fibers. Furthermore, the composites clearly display a dependence on the
processing pressure. The flexural properties increase with increasing manufacturing
pressures between 15 and 60 bar, reaching a maximum at 60 bar. At higher pressures
(80 to 200 bar) a decrease of the flexural properties is demonstrated. SEM images
of the fracture surface of the composites show that the decrease of the mechanical
properties is related to structural damage of the fiber.
A new technology allowing pressing under vacuum conditions was developed and tested. The press is equipped with a vacuum chamber and achieves very short cycle
processing times (up to less than one minute during the compression molding). The
aspiration connections of the vacuum chamber ensure that the residual moisture and
the condensation products of the matrix chemical reaction could be directly evacuated.
This type of press ensures also very safe processing and working conditions.
The properties of the components fulfill the technical specifications for natural fiber
reinforced polymers for use in the car interior. This versatile composite material is not
only limited to automotive applications, but may also be used for product manufacturing
in other industries. This work shows that the process parameters can be optimized
to fit a particular application.
Zwei zentrale Probleme der modernen Finanzmathematik sind die Portfolio-Optimierung und die Optionsbewertung. Während es bei der Portfolio-Optimierung darum geht, das Vermögen optimal auf verschiedene Anlagemöglichkeiten zu verteilen, versucht die Optionsbewertung faire Preise von derivativen Finanzinstrumenten zu bestimmen. In dieser Arbeit werden Fragestellungen aus beiden dieser Themenbereiche bearbeitet. Die Arbeit beginnt mit einem Kapitel über Grundlagen, in dem zum Beispiel das Portfolio-Problem von Merton dargestellt und die Black/Scholes-Formel zur Optionsbewertung hergeleitet wird. In Kapitel 2 wird das Portfolio-Problem von Morton und Pliska betrachtet, die in das Merton-Modell fixe Transaktionskosten eingeführt haben. Dabei muß der Investor bei jeder Transaktion einen fixen Anteil vom derzeitigen Vermögen als Kosten abführen. Es wird die asymptotische Approximation dieses Modells von Atkinson und Wilmott vorgestellt und die optimale Portfoliostrategie aus den Marktparametern hergeleitet. Danach werden die tatsächlichen Transaktionskosten abgeschätzt und ein User Guide zur praktischen Anwendung dieses Transaktionskostenmodells angegeben. Zum Schluß wird das Modell numerisch analysiert, indem unter anderem die erwartete Handelszeit und die Güte der Abschätzung der tatsächlichen Transaktionskosten berechnet werden. Ein Portfolio-Problem mit internationalen Märkten wird in Kapitel 3 vorgestellt. Dem Investor steht zusätzlich zu seinem Heimatland noch ein weiteres Land für seine Vermögensanlagen zur Verfügung. Dabei werden die Preisprozesse für die ausländischen Wertpapiere mit einem stochastischen Wechselkurs in die Heimatwährung umgerechnet. In einer statischen Analyse wird unter anderem berechnet, wieviel weniger Vermögen der Investor benötigt, um das gleiche erwartete Endvermögen zu erhalten wie in dem Fall, wenn ihm keine Auslandsanlagen zur Verfügung stehen. Kapitel 4 behandelt drei verschiedene Portfolio-Probleme mit Sprung-Diffusions-Prozessen. Nach der Herleitung eines Verifikationssatzes wird das Problem bei Anlagemöglichkeit in eine Aktie und in ein Geldmarktkonto jeweils für eine konstante und eine stochastische Zinsrate untersucht. Im ersten Fall wird eine implizite Darstellung für den optimalen Portfolioprozeß und eine Bedingung angegeben, unter der diese Darstellung eindeutig lösbar ist. Außerdem wird der optimale Portfolioprozeß für verschiedene Verteilungen für die Sprunghöhe untersucht. Im Falle einer stochastischen Zinsrate kann nur ein Kandidat für den optimalen Lösungsprozeß angeben werden. Dieser hat wieder eine implizite Darstellung. Das letzte Portfolio-Problem ist eine Abwandlung des Modells aus Kapitel 3. Wird dort der Wechselkurs durch eine geometrisch Brownsche Bewegung modelliert, ist er hier ein reiner Sprungprozeß. Es wird wieder der optimale Portfolioprozeß hergeleitet, wobei ein Anteil davon unter Umständen nur numerisch lösbar ist. Eine hinreichende Bedingung für die Lösbarkeit wird angegeben. In Kapitel 5 werden verschiedene Bewertungsansätze für Optionen auf Bondindizes präsentiert. Es wird eine Methode vorgestellt, mit der die Optionen anhand von Marktpreisen bewertet werden können. Für den Fall, daß es nicht genug Marktpreise gibt, wird ein Verfahren angegeben, um den Bondindex realitätsnah zu simulieren und künstliche Marktpreise zu erzeugen. Diese Preise können dann für eine Kalibrierung verwendet werden.
Im Rahmen der vorliegenden Arbeit wurden pflanzliche Membranproteine mit strukturellen Ähnlichkeiten zu Anion:Cation-Symportern, insbesondere zu den Transportern der NaPi1- Familie aus Tieren untersucht. Neben den bereits bekannten Anion-Transporter (ANTR) aus Arabidopsis thaliana (ROTH et al., 2004) wurde in dieser Arbeit eine homologe Proteinfamilie aus Oryza sativa identifiziert. Dabei konnte die funktionelle Verwandtschaft der Proteine AtANTR5 aus A. thaliana und OsANTR5.1 aus O. sativa mittels Komplementation der antr5-Mutante nachgewiesen werden. Der Schwerpunkt der Arbeit lag in der Charakterisierung der physiologischen Bedeutung des AtANTR5-Proteins in der Phosphathomöostase, im Stickstoffstoffwechsel oder bei Pathogenbefall. Mittels GFP-Fusionsexperimenten konnte für AtANTR5 eine subzelluläre Lokalisierung im Golgi-Apparat festgestellt werden. Durch AtANTR5-Promotor-GUS-Pflanzen wurde die gewebe- und entwicklungsspezifische Expression des Membranproteins untersucht. AtANTR5 weist in den meisten Geweben eine sehr geringe Transkriptmenge auf und ist mittels GUS-Färbung nur in Pollen detektierbar. Dennoch ist das AtANTR5-Protein für die ganze Pflanze von essentieller Bedeutung, da eine Inaktivierung des Gen zu gravierenden phänotypischen Veränderungen, gekennzeichnet durch zwergenhaften Wuchs, eingerollten Blättern und Blattläsionen. Aufgrund der Ähnlichkeit zu tierischen Phosphattransportern, wurde zunächst der Einfluss von AtANTR5 auf die Phosphathomöostase in entsprechenden „knock out“-Mutanten untersucht. Es konnte jedoch keine Veränderungen im Phosphathaushalt festgestellt werden. Vielmehr weist die antr5-Mutante eine erhöhte Sensitivität gegenüber Aminosäuren, Ammonium und Salz auf. Offensichtlich ist die durch AtANTR5 Transportaktivität innerhalb des Golgi-Apparates von außerordentlichen Wichtigkeit für den pflanzlichen Stoffwechsel. Des weiteren konnte ein Zusammenhang zwischen AtANTR5 und Pathogenabwehr festgestellt werden. „Northern-Blot“-Analysen zeigten eine Induktion der AtANTR5-Expression als Antwort auf Pathogenbefall durch P. syringae. Zytologische sowie histochemische Analysen haben bei antr5-Pflanzen die Ausprägung zahlreicher Abwehrmechanismen, wie Ablagerungen von Callose in den Zellwänden, Akkumulation von phenolischen Metaboliten, Salizylsäure, PR Proteinen und Wasserstoffperoxid oder Absterben der Zellen, gezeigt. Weiterhin konnte eine erhöhte Resistenz der antr5-Pflanzen gegenüber dem Befall von P. syringae ermittelt werden. Durch die Expression des NahG-Gens in antr5-Mutanten konnte gezeigt werden, dass die Expression der PR-Gene Salizylsäure abhängig, das spontane Absterben der Zellen jedoch Salizylsäure unabhängig war. Dieses Befund lässt den Schluss zu, dass erhöhte SA-Akkumulation und die dadurch aktivierte Abwehr, sekundäre Effekte der AtANTR5-Inaktivierung darstellen.
Im Rahmen der vorliegenden Arbeit konnte eine Prozesstechnologie entwickelt werden,
die das Einsatzgebiet von endlosfaserverstärkten Thermoplasten (Organoblechen)
auf den Bereich von schnellbewegten Getriebebauteilen im Maschinenbau erweitert.
Zum Thermoformen von kohlenstofffaserverstärkten Thermoplasten wurde erstmals
die induktive Erwärmung als Heizquelle eingesetzt. Dies ermöglicht die Erwärmung
des untersuchten Halbzeuges (CF/PA66) an zwei lokal begrenzten Bereichen in weniger
als 30 Sekunden auf Umformtemperatur. Dieser lokale Energieeintrag bietet die
Grundlage für den anschließenden partiellen Thermoformprozess, mit dem Ziel
der gleichzeitigen Umformung mehrerer Formnester auf einem Halbzeug.
Durch Koppelung dieses Verfahren mit einem Werkzeugkonzept zur dickenadaptiven
Umformung war eine Erhöhung der Halbzeugdicke in definierten Bereichen um
bis zu 200 % möglich. In Organobleche mit einer Dicke von 2 mm wurden Lagersitze
mit einer Lagersitzbreite von 6 mm eingeformt, ohne dass Material von außen nachgeführt
oder extern dem Prozess zugeführt werden musste. Auch ein Verfahren zum
Ausformen von Lagersitzen und dem gleichzeitigen Fügen metallischer Lager wurde
realisiert und ein Modell von geometrisch möglichen Lagersitzdimensionen in Abhängigkeit
der Organoblechdicke erstellt.
Die Kombination aus Prozess Neu- und Weiterentwicklungen führt zu einer Prozesskettenverkürzung
mit einer daraus resultierenden Prozesszeiteinsparung von
bis zu 37 % gegenüber dem partiellen Thermoformen, was entscheidend zur Kostensenkung
bei der Herstellung beiträgt.
Die Prozesskette wurde an einem Demonstratorbauteil, einem schnellbewegten Hebel
(Fadenhebel) einer Industrienähmaschine, exemplarisch abgebildet. Dieser Fadenhebel
besitzt zwei metallische Rillenkugellager, die in einem Schritt in ein zuvor
ebenes Halbzeug eingeformt und gefügt wurden. Bei der Bauteilprüfung zeigte sich
neben einer Netto-Gewichtsreduzierung von 50 % gegenüber der bestehenden Aluminiumvariante
eine Reduzierung der Schallemission um bis zu 1 dB(A). Dies ist auf
das hohe Dämpfungsvermögen des thermoplastischen Ausgangsmaterials zurückzuführen, und unterstreicht das große Potenzial dieser Werkstoffklasse in dynamisch
belasteten Bauteilen.
In der vorliegenden Arbeit wird das Tragverhalten von Verbundträgern im Bereich von großen Stegöffnungen analysiert und ein Modell zur Ermittlung der Querkrafttragfähigkeit des Betongurts entwickelt. Die Basis dazu bilden umfangreiche experimentelle und rechnerische Untersuchungen. Des Weiteren wird die Reibung zwischen dem Schaft von einbetonierten Kopfbolzendübeln und dem umgebendem Beton experimentell untersucht. Anhand von 21 großmaßstäblichen Traglastversuchen, die erstmals so konzipiert waren, dass im Öffnungsbereich nahezu die gesamte Querkraft durch den Betongurt übertragen wurde, konnte die Querkrafttragfähigkeit des Betongurts experimentell in engen Grenzen bestimmt werden. Neue Erkenntnisse über den Lastabtragungs- und Versagensmechanismus im Öffnungsbereich wurden durch die Auswertung der Dehnungen der Kopfbolzendübel im Öffnungsbereich und das nachträgliche Aufsägen des Betongurts der Versuchsträger gewonnen. Die Versuche wurden mit einem dreidimensionalen FE-Modell, das die Versuche in ihren wesentlichen Teilen abbildete, simuliert. Durch den Vergleich der rechnerischen mit den experimentell ermittelten Werten wurde dieses Modell überprüft und anschließend wurden damit Parameteruntersuchungen durchgeführt. Mit den Erkenntnissen aus den experimentellen und rechnerischen Untersuchungen konnte der Lastabtragungsmechanismus im Öffnungsbereich umfassend analysiert werden und ein Ingenieurmodell zur Bestimmung und zum Nachweis der Querkrafttragfähigkeit des Betongurts im Öffnungsbereich entwickelt werden.
Nichtlinearer Horizontaler Bettungsmodulansatz für Trägerbohlwände in mitteldicht gelagertem Sand
(2007)
In der allgemeinen Baugrubenstatik für Trägerbohlwände werden haltende Kräfte vor dem im Baugrund einbindenden Teil des Trägers dem Erdwiderstand gleichgesetzt. Der Erwiderstand kann jedoch nur im Grenzzustand vollständig mobilisiert werden, was ausreichend große Verschiebungen am Trägerfuß voraussetzt. Die Abhängigkeit der tatsächlich mobilisierten Erdwiderstandsspannungen von den Verschiebungen kann mathematisch durch den hori-zontalen Bettungsmodul ausgedrückt werden. Bislang liegen zum horizontalen Bettungsmodul nur grobe Näherungsansätze vor, die die tatsächlichen Wechselwirkungen zwischen Spannun-gen und Verschiebungen für beliebige Verschiebungsbilder nicht realitätsnah erfassen. Ziel dieser Arbeit ist eine realitätsnahe Beschreibung des horizontalen Bettungsmoduls und damit einer realistischere Berechnung des Trag- und Verformungsverhaltens von Trägerbohl-wänden. Zur Ermittlung des Bettungsmoduls in Größe und Verlauf sowie zur Untersuchung von Einflussfaktoren auf den Bettungsmodul werden dreidimensionale Berechnungen nach der Finiten-Elemente-Methode (FEM) durchgeführt. Dabei werden die maßgebendenden Einfluss-faktoren im Rahmen von Parameterstudien für in der Praxis häufig vorkommende Werte-intervalle untersucht. Die FEM-Berechnungen erfolgen für freistehende, einfach rückverankerte und zweifach rückverankterte Trägerbohlwände in mitteldicht gelagertem Sand. Den Berechnungen liegt ein nichtlineares, elastoplastisches Stoffgesetz zugrunde. Die FEM-Berechnungen werden an den Messergebnissen vorhandener Großversuche kalibriert. Die FEM-Parameterstudien belegen eine Abhängigkeit des Bettungsmoduls von der Verschiebung u, der Tiefe z/t und der Druckflächenbreite b. Aus den FEM-Parameterstudien abgeleitet wird ein iterativer, nichtlinearer Berechnungsansatz für den horizontalen Bettungsmodul ksh erarbeitet. Darüber hinaus wird als Anfangswert der Iteration in der Ingenieurpraxis ein einfacher, linearer Näherungsansatz für den horizontalen Bettungsmodul ermittelt.
In der betriebswirtschaftlichen Literatur hat sich bisher keine einheitliche Controllingkon-zeption durchsetzen können. Deswegen ist auch weitestgehend unklar, welche Instrumente dem Controlling zugeordnet werden können, obwohl eine starke instrumentelle Prägung des Controllings zu beobachten ist. Dieser Beitrag versucht, mit Hilfe kognitionswissen-schaftlicher Erkenntnisse und auf Basis einer breiten Literaturanalyse eine konsistente Zuordnung der betriebswirtschaftlichen Instrumente auf die betrieblichen Funktionsberei-che vorzunehmen. Dabei werden sechs Instrumentengruppen identifiziert, die unterschied-liche Arten von Methoden- und Faktenwissen benötigen. Diese Gruppen können zu weiten Teilen eindeutig einzelnen Funktionsbereichen zugeordnet werden. Auf diese Weise kann für eine ganze Reihe von betriebswirtschaftlichen Instrumenten die Controllingrelevanz präzise herausgearbeitet werden.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung fluoreszenzmarkierter Pyrrolin-N-oxide sowie von Stilbennitronen. Diese Verbindungen sind aufgrund ihrer chemischen Struktur zum Abfangen kurzlebiger Radikale befähigt, wobei sie selbst zu einem langlebigen Radikal-Addukt reagieren. Diese Methode ist unter dem Namen „Spin-Trapping“ bekannt und wird bevorzugt zum Nachweis reaktiver Sauerstoffspezies in biologischen Systemen eingesetzt. Zu diesem Zweck wurde zunächst die Synthese der Spin-Trap EMPO etabliert und versucht, diese durch Umesterung mit einem Fluoreszenzfarbstoff zu markieren. Da dieser Syntheseweg erfolglos blieb, wurden die neuen Spin-Trap-Verbindungen BocAEMPO, AEMPO, BocEAEMPO und EAEMPO synthetisiert. Versuche zur Umsetzung dieser Verbindungen mit einer Reihe von Fluoreszenzfarbstoffen verliefen jedoch ebenfalls ohne Erfolg. Ursache hierfür ist die ausgeprägte Reaktivität der zum Spin-Trapping benötigten Nitron-Gruppe. Die hierzu benötigten NBD- und BODIPY-Farbstoffderivate wurden ebenfalls selbst synthetisiert. Weiterhin wurden Versuche zur Direktsynthese einer fluoreszenzmarkierten Spin-Trap unternommen. Ziel war hierbei, vor dem Erzeugen der Nitron-Gruppe bereits ein Fluorophor im Molekül einzubauen. Diese Versuche scheiterten jedoch an der Empfindlichkeit der verwendeten Farbstoffe. In einem Fall konnte zwar ein BODIPY-System erfolgreich unter den Bedingungen der Nitronsynthese erhalten werden, jedoch war das erhaltene Produkt nicht eindeutig charakterisierbar. Weiterhin wurde die Synthese von DEPMPO etabliert und erste Versuche zur Modifikation dieser Spin-Trap unternommen. Die neu synthetisierten Spin-Traps wurden mit sechs verschiedenen Radikalen zu ihren Addukten umgesetzt und durch ESR-Spektroskopie charakterisiert. Aus den durchgeführten Kinetikmessungen wurden die Zerfallskonstanten und die Halbwertszeiten der Spin-Addukte bestimmt. In einem weiteren Teil dieser Arbeit wurden Stilbennitrone hergestellt. Hierbei wurde die Synthese von Stilbenaldehyd-Derivaten mittels Heck-Reaktionen etabliert und im Anschluss drei verschiedenen Stilbennitrone synthetisiert. Diese wurden sowohl ESR- als auch UV- und Fluoreszenz-spektroskopisch charakterisiert. Mit der Verbindung Nitrostilbennitron wurden erste Versuche zum Fluoreszenzquenching und zur Inkubation von COS7-Zellen unternommen. Bei den Quenchingversuchen konnten die erwarteten Effekte bei der Reaktion mit OH-Radikalen gemessen werden. Die Inkubation der COS7-Zellen verlief ebenfalls erfolgreich, wobei hier jedoch aufgrund technischer Limitierungen auf Seiten der verfügbaren Mikroskope keine Aussagen zur Spezifität der erreichten Färbung getroffen werden können.
Die fortschreitende Verbreitung von Ethernet-basierten Strukturen mit dezentralen und verteilten Anwendungen in der Automatisierung führt zu den so genannten netzbasier-ten Automatisierungssystemen (NAS). Diese sind zwar in Anschaffung und Betrieb kostengünstiger, moderner und flexibler als herkömmliche Strukturen, weisen jedoch nicht-deterministische Verzögerungen auf. Die genaue Analyse der resultierenden Antwortzeiten ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen, Fragen der Verlässlichkeit zu klären. In diesem ersten von zwei Beiträgen wird hierfür zunächst die für die speziellen Bedürfnisse der Strukturbeschreibung von netzbasierten Automatisierungssystemen entwickelte Modellierungssprache DesLaNAS vorgestellt und auf ein einführendes Beispiel angewendet. Im zweiten Beitrag wird darauf aufbauend gezeigt, welchen Einfluss die einzelnen System-komponenten (SPS, Netzwerk, I/O-Karten) sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse selbst wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) angewendet.
Netzbasierte Automatisierungssysteme (NAS) sind das Ergebnis der zunehmenden Dezentralisierung von Automatisierungssystemen mittels neuerer Netzwerkstrukturen. Eine ganze Fülle von Einflussfaktoren führt jedoch zu einem Spektrum von nicht-deterministischen Verzögerungen, die direkten Einfluss auf Qualität, Sicherheit und Zuverlässigkeit der Automatisierungsanlagen haben. Eine genaue Analyse dieser Einflussfaktoren ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen Fragen der Verlässlichkeit zu klären. In diesem Beitrag wird gezeigt, welchen Einfluss einzelne Komponenten sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) verwendet. Umfangreiche Messungen wurden zur Validierung der Ergebnisse durchgeführt.
Die Architekturen vieler technischer Systeme sind derzeit im Umbruch. Der fortschreitende Einsatz von Netzwerken aus intelligenten rechnenden Knoten führt zu neuen Anforderungen an den Entwurf und die Analyse der resultierenden Systeme. Dabei spielt die Analyse des Zeitverhaltens mit seinen Bezügen zu Sicherheit und Performanz eine zentrale Rolle. Netzbasierte Automatisierungssysteme (NAS) unterscheiden sich hierbei von anderen verteilten Echtzeitsystemen durch ihr zyklisches Komponentenverhalten. Das aus der asynchronen Verknüpfung entstehende Gesamtverhalten ist mit klassischen Methoden kaum analysierbar. Zur Analyse von NAS wird deshalb der Einsatz der wahrscheinlichkeitsbasierten Modellverifikation (PMC) vorgeschlagen. PMC erlaubt detaillierte, quantitative Aussagen über das Systemverhalten. Für die dazu notwendige Modellierung des Systems auf Basis wahrscheinlichkeitsbasierter, zeitbewerteter Automaten wird die Beschreibungssprache DesLaNAS eingeführt. Exemplarisch werden der Einfluss verschiedener Komponenten und Verhaltensmodi auf die Antwortzeit eines NAS untersucht und die Ergebnisse mittels Labormessungen validiert.
In der vorliegenden Arbeit werden Sekundärstrukturmotive von isolierten Peptiden und Peptid-Aggregaten in der Gasphase analysiert. Zur Untersuchung ihrer intrinsischen Eigenschaften werden die isolierten Peptide durch adiabatische Abkühlung in Molekularstrahlen erzeugt. Durch die Anwendung hochsensitiver Techniken der Doppelresonanzspektroskopie, Resonante zwei Photonen Ionisation (R2PI) und Infrarot/Resonante zwei Photonen Ionisation (IR/R2PI), werden die Peptide und Peptid-Aggregate hinsichtlich ihrer Elektronen – und Schwingungsübergängen analysiert. Die Schwingungsfrequenzen im Bereich der Amid A, I, II Moden und im oberen „Fingerprintbereich“ von Peptiden sind sehr signifikant für die Geometrie des Rückgrates und der Seitenketten, z.B. unterscheiden sich Schwingungen von Gruppen, die an Wasserstoffbrückenbindungen beteiligt sind, sehr stark durch ihre Lage und Intensität gegenüber Schwingungen von frei vorliegenden Gruppen. Ein Vergleich mit berechneten Schwingungsfrequenzen aus ab initio und Dichtefunktionaltheorie Rechnungen ermöglicht eine Zuordnung zu einer bestimmten Struktur. Es werden in dieser Arbeit verschiedene Sekundärstrukturen über die Analyse von geschützten Aminosäuren, Di- und Tripeptiden untersucht. Insbesondere gelang es erstmals, ein ß-Faltblattmodellsystem für ein isoliertes Dimer eines Peptids nachzuweisen. Weiterhin werden zum molekularen Verständnis der Mikrosolvatation Aggregate mit Wassermolekülen betrachtet und somit der Einfluss auf die Sekundärstruktur durch sukzessive Aggregation von Wassermolekülen analysiert. In Kooperation mit Prof. Schrader (Universität Duisburg-Essen) werden Templatmoleküle charakterisiert, um ihre Fähigkeiten zur Anlagerung an schädliche ß-Faltblattstrukturen zu untersuchen, die in sogenannten neurodegenerativen Krankheiten häufig auftreten. Die Effizienz ist sowohl über die Analyse der Zahl und Stärke der inter- und intramolekularen Wasserstoffbrückenbindungen als auch über die gebildete Clusterstruktur untersucht worden.
Von sicherheitsrelevanten Bauteilen im Automobilbau verlangt man, dass beim Kunden bis zur Zeit/Strecke q0 höchstens ein Anteil p0 ausgefallen ist. Die Verifikation dieses Quantils geschieht in einer Reihe von Versuchen, bei denen die Bauteile mit einer typischen Kraft zyklisch belastet werden, bis ein gewisses, im Vorfeld festgelegtes, Schadensbild auftritt und die Anzahl Ti der Zyklen („Schwingspiele“) als Lebensdauer notiert wird. Typischerweise ist der Stichprobenumfang N dabei sehr gering (N < 10), während gleichzeitig ein extremes Quantil 0 p0 0, 1 verifiziert werden soll. Verwendet man als Lebensdauerverteilung eine Weibulloder Lognormalverteilung, so tritt in den Quantilschätzern ein deutlicher Bias auf, der beseitigt werden soll. Da es sich hierbei in der Regel um einen positiven Bias handelt, würde man Bauteile als serientauglich einstufen, obwohl sie möglicherweise deutlich unter den Vorgaben liegen. Die Berechnung von Konfidenzintervallen für Quantile geschieht über Delta-Methoden, die ebenfalls schlechte Resultate liefern (in Form einer zu geringen empirischen Signifikanz linksseiter Intervalle). Im Folgenden werden Verallgemeinerungen der Bootstrap- und Jackknife- Biaskorrektur vorgestellt, welche nicht nur versuchen den Bias zu beseitigen, sondern direkt den mittleren quadratischen Fehler des Schätzers weitestgehend zu reduzieren. Simulationsstudien zeigen, dass dies für geringe Stichprobenumfänge gelingt. Außerdem wird untersucht, inwiefern die Methode in Kombination mit der Bootstrap-Quantil-Methode einen verbesserten Intervallschätzer für Quantile liefert. Dabei werden simulierte Daten betrachtet, deren Parameter repräsentativ für Lebensdauerverteilungen von sicherheitsrelevanten Bauteilen sind.
Wässrige Lösungen sowohl neutraler als auch ionischer Polymerer gewinnen ein zunehmendes Interesse in vielen Bereichen. Für den Einsatz solcher Systeme muss deren Phasenverhalten bekannt sein. Die vorliegende Arbeit liefert einen Beitrag zum Phasengleichgewicht solcher Systeme. Als Bausteine der Polymere werden dabei sowohl die neutrale organischen Komponente Vinylpyrrolidon (VP) als auch ein ionisches Monomer auf Basis von Imidazolium (3-Methyl-1-vinyl-1H-Imidazoliummethylsulfat - QVI), als niedrigmolekularer Elektrolyt ausschließlich Natriumsulfat verwendet. Die vorliegende Arbeit hat zum Ziel, das Phasenverhalten einer Reihe technisch interessierender Systeme in experimentellen Untersuchungen bei 25 und 65°C zu bestimmen und damit eine Datenbasis für theoretische Arbeiten zu liefern, die im Anschluss an diese Untersuchungen im Zusammenhang mit der Entwicklung von Modellen zur Korrelation bzw. Vorhersage solcher Phasengleichgewichte vorgesehen sind. Die Grenze zwischen einem einphasigen, flüssigen Bereich und Zwei- bzw. Drei-Phasen-Gebieten wurde durch visuelle Bestimmung der Trübung bei der Titration einer wässrigen Lösung (entweder des Polymeren oder des Salzes) bestimmt. Die Zusammensetzung der koexistierenden Phasen wurde in Phasengleichgewichtsexperimenten bestimmt, bei denen Proben der koexistierenden Phasen analysiert wurden. Dazu wurden mehrere Analysenmethoden entwickelt/erprobt (z. B. die Gefriertrocknung, die thermische (gravimetrische) Analyse, die Gaschromatographie und die Ionenchromatographie). Insgesamt wurden für 42 Systeme der Verlauf der Trübungskurve und für 34 Systeme das Phasengleichgewicht bestimmt. Dabei handelte es sich überwiegend um ternäre Systeme aus einem Polymeren (auf Basis von VP und/bzw. QVI), Natriumsulfat und Wasser, teilweise auch um quaternäre Systeme aus den zuvor erwähnten Komponenten und einem der Monomeren (VP bzw. QVI). Dabei zeigte die Mehrzahl der untersuchten Systeme eine flüssig-flüssig Entmischung, teilweise jedoch auch nur die häufiger anzutreffenden Fest-Flüssig-Phasengleichgewichte (z.B. Ausfall eines Salzes als Feststoff). Die experimentellen Untersuchungen wurden insbesondere bei hohen Polymerkonzentrationen durch die Zähigkeit der wässrigen Lösungen erschwert. Neben den Untersuchungen zum Phasengleichgewicht in ternären und quaternären Systemen wurden im Hinblick auf die in weiterführenden Arbeiten geplanten Modellierungsarbeiten auch experimentelle Untersuchungen an binären Subsystemen durchgeführt. Dabei handelte es sich ausschließlich um sogenannte isopiestische Messungen an wässrigen Lösungen der Polymere bzw. der Monomere. In solchen Untersuchungen wird der Einfluss der Wechselwirkungen zwischen den Molekülen eines in Wasser gelösten Stoffes auf den Dampfdruck der Lösung bestimmt. Der dabei quantitativ bestimmte Einfluss von Art und Menge des Polymeren auf den Dampfdrucks des Lösungsmittels soll in weiterführenden Arbeiten zur Bestimmung von Parametern thermodynamischer Modelle zur Beschreibung der Gibbsschen Exzessenergie wässriger Polymerlösungen verwendet werden. Die Ergebnisse der experimentellen Untersuchungen zum Flüssig-Flüssig bzw. Fest-Flüssig-Phasengleichgewicht lassen sich folgendermaßen charakterisieren: In fast allen Systemen mit Polymeren auf Basis von Vinylpyrrolidon wurden Flüssig-Flüssig-Gleichgewichte mit einer salzreichen, nahezu polymerfreien wässrigen Phase und einer polymerreichen wässrigen auch salzhaltigen flüssigen Phase gefunden. D. h. in einem Gibbsschen Dreiecksdiagramm, in dem die Zusammensetzung einer ternären Mischung (mit Hilfe des Konzentrationsmaßes „Massenanteil“ ausgedrückt) durch einen Punkt dargestellt wird zeigt die Phasengrenze zwischen dem einphasigen und dem mehrphasigen Gebiet eine starke Asymmetrie. Der Wassergehalt der polymerreichen Phase ist dabei häufig deutlich geringer als der Wassergehalt der salzreichen Phase. In Systemen mit (Natriumsulfat und) Polymeren auf Basis des Imidazoliumsalzes QVI wurden dagegen überwiegend Fest-Flüssig-Gleichgewichte beobachtet. Es zeigte sich, dass die Molmasse der verwendeten Polymere nur einen vergleichsweise geringen Einfluss auf die Ausdehnung des einphasigen flüssigen Gebietes hat. I. d. R. nimmt mit steigender Molmasse die Ausdehnung der Mischungslücke zu. Auch der Temperatureinfluss auf die beobachteten Phasengleichgewichte ist relativ gering. Dies war im Fall der Polymere auf Basis von Vinylpyrrolidon aus früheren Untersuchungen an wässrigen, salzfreien Lösungen dieser Polymere zu erwarten. Wie schon erwähnt, sind die Ergebnisse der vorliegenden Arbeit im Zusammenhang mit dem Einsatz solcher polymer- und salzhaltigen Systeme in verschiedenen Bereichen von Interesse. Sie bilden aber auch die Datenbasis für anstehende theoretische Arbeiten, die sich mit der Entwicklung thermodynamischer Modelle zur Beschreibung von Phasengleich- gewichten salz- und polymerhaltiger, wässriger Systeme beschäftigen werden.
Software stellt ein komplexes Werkzeug dar, das durch seine umfassenden Möglichkeiten die moderne Gesellschaft entscheidend geprägt hat. Daraus ergibt sich eine Abhängigkeit von Funktion und Fehlfunktion der Software, die eine an den funktionalen Anforderungen orientierte Entwicklung und Qualitätssicherung der Software notwendig macht. Die vorliegende Arbeit schafft durch Formalisierung und Systematisierung der Verfahren im funktionsorientierten Test eine fundierte Basis für eine Hinwendung zu den funktionsorientierten Techniken in Softwareentwicklung und –qualitätssicherung. Hierzu wird in der Arbeit zunächst ein formales Modell für das Vorgehen im dynamischen Test beschrieben, das sich an der Begriffsbildung der Literatur und dem Verständnis der Praxis orientiert. Das Modell beruht auf wenigen zentralen Annahmen, eignet sich für formale Untersuchungen und Nachweise und ist wegen seiner sehr allgemein gehaltenen Definitionen breit anwendbar und einfach erweiterbar. Auf dieser Basis werden Vorgehen und Verfahren zum funktionsorientierten Test analysiert. Zunächst wird dazu das Vorgehen im funktionsorientierten Test im Rahmen des Modells dargestellt. Darauf aufbauend werden zentrale Verfahren des funktionsorientierten Tests analysiert, die zum Gegenstand die systematische Prüfung der Umsetzung von weitgehend informal beschriebenen Anforderungen in einem Softwareprodukt haben. Betrachtet werden Verfahren der funktionalen Partitionierung, der funktionalen Äquivalenzklassenanalyse und Grenzwertbildung, Verfahren zur Prüfung von kausalen Zusammenhängen zwischen Ursachen und Wirkungen, Verfahren zur Prüfung von graphisch spezifizierter Funktionalität in Syntaxdiagrammen, Aktivitätsdiagrammen, Sequenz- und Kollaborationsdiagrammen und Petrinetzen, Verfahren zum Test zustandsbasierter Systeme sowie Ansätze einer funktionalen Dekomposition. Die Analyse und Diskussion der bekannten Verfahren im formalisierten Rahmenwerk führt zu zahlreichen Ergebnissen und Verfahrensergänzungen. So zeigt sich, dass in den klassischen, informalen Beschreibungen häufig Unklarheiten bestehen. Diese werden hier adressiert und durch Angabe von Kriterien präzisiert, Optimierungsmöglichkeiten werden aufgezeigt. Darüber hinaus wird an der einheitlichen formalen Darstellung der in der Literatur meist separat betrachteten Verfahren deutlich, welche Vergleichbarkeit zwischen den Verfahren besteht, welche Verfahrenskombinationen sinnvoll sind und wie durch ein kombiniert funktions- und strukturorientiertes Vorgehen eine hohe Aussagekraft in der analytischen Qualitätssicherung erreicht werden kann. Bei der Formulierung der Verfahren im Rahmen des Modells wird herausgearbeitet, wo zur Verfahrensdurchführung die kreative Leistung des Testers notwendig ist und welche Anteile formalisiert und damit automatisiert unterstützt werden können. Diese Betrachtungen bilden die Grundlage für die Skizzierung einer integrierten Entwicklungsumgebung, in der ein funktionsorientiertes Vorgehen in Entwicklung und Qualitätssicherung umgesetzt wird: Hier helfen funktionsorientierte Beschreibungsformen bei der Angabe der Spezifikation, ihrer Verfeinerung und ihrer Vervollständigung, sie unterstützen die Entwicklung durch Modellbildung, sie liefern die Basis für eine funktionsorientierte Testdatenselektion mit Adäquatheitsprüfung, sie können bei geeigneter Interpretierbarkeit über den Datenbereichen zur automatisierten Testfallgenerierung genutzt werden und unterstützen als suboptimale Testorakel eine automatisierte Auswertung des dynamischen Tests. Diese Skizze zeigt die praktische Umsetzbarkeit der vorwiegend theoretischen Ergebnisse dieser Arbeit und setzt einen Impuls für ein verstärktes Aufgreifen funktionsorientierter Techniken in Wissenschaft und Praxis.
Mit der Novellierung des Energiewirtschaftsgesetzes im Jahr 2005 wurde die Bundesnetzagentur damit beauftragt, ein Regulierungskonzept für den Energiesektor zu entwickeln. Im Sommer 2006 hat die Regulierungsbehörde einen Entwurf zur Anreizregulierung vorgelegt, der in Form einer Verordnung im Sommer 2007 in Kraft treten wird. Die Anwendung der Anreizregulierung ab dem 1.1.2009 ist ein weiterer Meilenstein auf dem Weg zum angepeilten wettbewerbsorientierten und nachhaltigen Stromsystem. Dieses Ziel wird seit Beginn der Liberalisierung in den 90er Jahren vor allem auf gesamteuropäischer Ebene verfolgt, und Schritt für Schritt auf die nationale Ebene übertragen. Da die Netzentgeltregulierung wie in den meisten europäischen Ländern auch in Deutschland als Anreizregulierung ausgestaltet wird, besteht die Herausforderung darin,in diesem Verfahren die Anreize so zu setzen, dass die Netzbetreiber den angedeuteten Umbau des Stromsystems im eigenen ökonomischen Interesse unterstützen oder ihn zumindest nicht behindern. Ziel dieser Arbeit ist es das Regulierungskonzept der Bundesnetzagentur daraufhin zu untersuchen, welche Anreizstrukturen für Stromnetzbetreiber geschaffen werden. Schließlich ergibt sich aus den Regulierungsanreizen die Bedeutung der Anreizregulierung für dezentrale Stromversorgung. Als Maßstab für den Grad der Zielerreichnung dient das Ideal des gleichberechtigten Spielfeldes, das einen Handlungsrahmen setzt, in dem faire Bedingungen sowohl für dezentrale als auch für zentrale Stromoptionen herrschen.
Stadtentwicklungsplanung erfährt in Mittelstädten im Strukturwandel und Schrumpfungsprozess einen Bedeu-tungszuwachs. Die Renaissance einer umfassenderen integrierten Entwicklungsplanung durch die Programme „Soziale Stadt“ und „Stadtumbau-West“ führt dazu, dass ressortübergreifende Zusammenarbeit innerhalb der Kommunalverwaltung einer Steuerung durch die Stadtentwicklungsplanung bedarf. Die Aufgabe der Erstellung integrativer Konzepte, der Beobachtung von Entwicklungsprozessen, der Schaffung von Ämternetzwerken und besonderer Organisationsformen außerhalb der Hierarchie im Rahmen des Projektmanagements, die Aktivierung der Bürgerschaft und neue Formen der Zusammenarbeit mit wirtschaftlichen Akteuren erfordern eine stärkere Einbeziehung der Stadtentwicklungsplanung in die strategische Verantwortung im Rahmen des Neuen Steuerungsmodells. Schrumpfende Städte bedürfen einer verstärkten Teilhabe aller Bevölkerungsgruppen an einer nachhaltigen Stadtentwicklung. Die kommunale Finanznotlage und ein verstärktes Demokratiebedürfnis führen zu einer Forderung nach einer aktiven Bürgerkommune, die Teilbereiche des öffentlichen Lebens übernimmt. Der Wandel im Selbstverständnis der Verwaltung vom government zur governance ist untrennbar verbunden mit einer verstärkten Einbeziehung der gesellschaftlichen und wirtschaftlichen Akteure in die Stadtentwicklung und führt zu einem neuen Rollenverständnis der Stadtentwicklungsplanung. Die vergangenen Anforderungen der Industriegesellschaft unterscheiden sich von den aktuellen Anforderungen der Dienstleistungs- und Wissensgesellschaft an die städtische Infrastruktur und Gesellschaft. Nachhaltigkeit einer neu zu erarbeitenden Stadtentwicklungsstrategie kann daher nur erzeugt werden, wenn die Änderungsprozesse erfasst und in das Anforderungsprofil der Stadtentwicklung miteinbezogen werden. Zusammen mit den Forderungen nach mehr Partizipation und Kommunikation folgt daraus für die Raumplanung, dass nicht nur ein verantwortungsvoller und handwerklich genauer Einsatz der ingenieurwissenschaftlichen Methoden und Instrumente gefragt ist, sondern auch im verstärkten Maße eine soziale und kommunikative Kompetenz der Planerinnen und Planer gefordert ist. Vor dem Hintergrund der aktuellen Schrumpfungsprozesse und dem Wandel der Industriegesellschaft zur Dienstleistungs- und Wissensgesellschaft wird dem in der wissenschaftlichen Diskussion teilweise in Frage gestellten Leitbild der Europäischen Stadt eine neue Bedeutung zugemessen. Indem die Kernstädte Infrastruktur-leistungen bündeln, ein größeres Angebot für verschiedene Lebensstile zulassen und als Kommunikations- und Knotenpunkt für neue Akteure in der Dienstleistungs- und Wissensgesellschaft dienen, wächst wieder die Be-deutung der Kernstädte im Verhältnis zu den Umlandgemeinden. Zusammenfassend ist festzustellen, dass eine nachhaltige zukunftsorientierte Urban Governance geprägt ist von einer kommunalen Kooperations- und Kommunikationsstruktur, in der Politik, Verwaltung – und hier insbeson-dere die Stadtentwicklungsplanung- gemeinsam mit den Akteuren aus Bürgerschaft und Wirtschaft tragfähige Visionen entwickeln, Ziele und Maßnahmen formulieren und gemeinsam realisieren.
Unternehmen sind heute mit einem globalen Wettbewerb und großen Herausforderungen konfrontiert, wie z. B. kurzen Produktlebenszyklen oder hohen Anforderungen an die Prozess- und Ergebnissicherheit. Verschiedene daten- und technologiegetriebene sowie prozessorientierte Ansätze der Produktionsgestaltung versuchen, Lösungen für Produktionssysteme zu entwickeln, um diese Herausforderungen zu bewältigen und im globalen Wettbewerb bestehen zu können. Jede einzelne Richtung der Produktionsgestaltung weist dabei Vorteile und Defizite auf. Durch „Smart Production Systems“ werden die Grundideen der einzelnen Ansätze, die bisher als unvereinbar galten, zusammengeführt. Dadurch können einzelne Defizite ausgeglichen werden, ohne auf die bekannten Vorteile zu verzichten. Der Grundgedanke von „Smart Production Systems“ ist es, „wissensinkorporierte Objekte“ in Produktionsprozessen einzusetzen, um die Abläufe jederzeit nachvollziehbar und damit das zugehörige Produktionssystem sicher, effizient und flexibel zu gestalten. Wissensinkorporierte Objekte stellen dabei Produktionsobjekte dar, die neben ihrer eigentlichen Funktion informationstechnische Funktionen besitzen, mittels derer sie Daten speichern und wieder bereitstellen können. Der Einsatz wissensinkorporierter Objekte in „Smart Production Systems“ kann mit Hilfe des Konzepts Gestaltungswürfels „Smart Cube“ strukturiert analysiert, geplant, konzeptioniert, bewertet, implementiert, genutzt und gesichert werden. Das Konzept des Gestaltungswürfels „Smart Cube“ wird durch ein Organisations-, ein Referenz-, ein Umsetzungsmodell und mehrere spezifische Anwendungsmodelle beschrieben: 1) Das Organisationsmodell erläutert als Ansatzpunkt von „Smart Production Systems“ die Stellung des Informationsflusses und Materialfluss sowie den Zusammenhang zwischen Datenmenge und Entscheidungsreichweite innerhalb einer Produktionsorganisation. 2) Das Referenzmodell wird aus den drei räumlichen Achsen Wirkungs-, Objekt- und Prozess- sowie Informationsstruktur aufgebaut. Es erfüllt folgende Aufgaben: - Es beschreibt die grundsätzlichen Ausprägungen von Wirkungs-, Objekt- und Prozess- sowie Informationsstrukturen und deren Kombinationsmöglichkeiten innerhalb von Produktionssystemen. - Es erläutert die Zusammenhänge zwischen Technologie-, Logistik- und Kommunikationskomplexität und ermöglicht damit die Einordnung von spezifischen Produktionssystemen in das Referenzmodell. - Mit den verschiedenen Koordinaten der einzelnen Achsen liefert es eine Systematik zur Bezeichnung der verschiedenen möglichen Kombinationen, die es ermöglicht, Anwendungsmodelle aus dem Referenzmodell abzuleiten. 3) Die Anwendungsmodelle konkretisieren das Referenzmodell hinsichtlich der in einem Produktionssystem enthaltenen Objekte und Prozesse. Aufgrund der verschiedenen möglichen Kombinationen der Ausprägungen der einzelnen Strukturen im Referenzmodell lassen sich 27 verschiedene Anwendungsmodelle bilden. 4) Das Umsetzungsmodell beschreibt das Vorgehen bei der Gestaltung von Produktionssystemen mit Hilfe des Gestaltungswürfels „Smart Cube“ . Am Beispiel eines Neugestaltungsprojektes in einem Unternehmen aus der Automobilzulieferindustrie wird gezeigt, wie mit Hilfe des entwickelten Konzeptes Gestaltungswürfel „Smart Cube“ der Einsatz von wissensinkorporierten Objekten systematisch gestaltet werden kann: - Mit der Gestaltung von Kanbankarten zu wissensinkorporierten Objekten kann der manuelle Buchungsaufwand minimiert und der Anteil nicht-wertschöpfender Tätigkeiten klein gehalten werden. - Mit Hilfe des Einsatzes wissensinkorporierter Objekte in einem Fabriksystem können Zielkonflikte zwischen Sicherheit und Effizienz gelöst werden.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2006.
Congress Report 2007.02
(2007)
Congress Report 2007.03-04
(2007)
Congress Report 2007.05
(2007)
Congress Report 2007.06-07
(2007)
Congress Report 2007.08-09
(2007)
Congress Report 2007.10
(2007)
Congress Report 2007.11-12
(2007)
Congress Report 2007.01
(2007)
Jahresbericht 2006
(2007)