Refine
Year of publication
- 2004 (36) (remove)
Document Type
- Doctoral Thesis (36) (remove)
Language
- German (36) (remove)
Has Fulltext
- yes (36)
Keywords
- Simulation (3)
- Flüssig-Flüssig-Extraktion (2)
- Harnstoff (2)
- 2-D-Elektrophorese (1)
- ADAM10 (1)
- Abgasnachbehandlung (1)
- Acetylcholinrezeptor (1)
- AhR (1)
- Aluminium (1)
- Aluminiumphosphate (1)
- Antigenspezifische Immunsuppression (1)
- Apoptose (1)
- Apoptosis (1)
- Ausdrucksfähig (1)
- Ausdrucksfähigkeit (1)
- Automation (1)
- Autonomer Agent (1)
- Autoprozessierung (1)
- B-CLL (1)
- BRCA2 (1)
- Bakteriophage (1)
- Basische Feststoffkatalysatoren (1)
- Bayes method (1)
- Bayes-Verfahren (1)
- Benutzeroberfläche (1)
- Bindiger Boden (1)
- Broutman-Versuch (1)
- CAD (1)
- CFD (1)
- CYP1A (1)
- Caedibacter (1)
- Cobalt (1)
- Combined Sewer Overflow (1)
- Comet Assay (1)
- Containertypen (1)
- Containertypes (1)
- Cytotoxizität (1)
- DNS-Strangbruch (1)
- Datenausgabegerät (1)
- Dienstgüte (1)
- Dienstschnittstellen (1)
- Differenzierung (1)
- Dosierung (1)
- Duromere (1)
- EPR (1)
- ESR (1)
- ESTELLE (1)
- Effizienter Algorithmus (1)
- Effizienz (1)
- Effizienzsteigerung (1)
- Eierstockkrebs (1)
- Emission (1)
- Epoxidharzverbunden (1)
- Expressiveness (1)
- FICTION (1)
- FISH (1)
- FOF1-ATP-Synthase (1)
- FasLigand (1)
- Faser-Kunststoff-Verbund-Laminate (1)
- Faser-Kunststoff-Verbunde (1)
- Faserorientierungen (1)
- Finite-Elemente-Methode (1)
- Formale Beschreibungstechnik (1)
- Freiformfläche (1)
- Freiheitsgrad (1)
- Funktioneller Gradientenwerkstoff (1)
- Funktionsanalyse (1)
- Furocumarine (1)
- Gebäudetechnik (1)
- Gelonin (1)
- Glucocorticoidrezeptor (1)
- Glykosylierung (1)
- Grundwassersanierung (1)
- Harze (1)
- Harzinjektionsverfahren (1)
- Hydrodynamik (1)
- Hydrolyse (1)
- Implementation (1)
- Implementierung (1)
- In vitro (1)
- In vivo (1)
- Integrated Operation (1)
- Integrine (1)
- Ionentauscher (1)
- Kanalisation (1)
- Katalyse (1)
- Keratinozyten (1)
- Kinetik (1)
- Kläranlage (1)
- Komplexaufklärung (1)
- Komponentenmodell (1)
- Kontextbezogenes System (1)
- Kultivierung (1)
- Kurbelgehäuse (1)
- Kühni (1)
- L1 (1)
- Leichtbau (1)
- Leittechnik (1)
- Limonen-Umsetzung (1)
- MSR (1)
- Magnesium (1)
- Mehragentensystem (1)
- Metalloproteinasen (1)
- Miniplant (1)
- Mischwasser (1)
- Mischwasserbehandlung (1)
- Mobile Computing (1)
- Modellierung (1)
- Modelling (1)
- Monte Carlo (1)
- Monte Carlo simulation (1)
- Monte-Carlo-Simulation (1)
- Myasthenia gravis (1)
- NOx (1)
- Nahrung (1)
- Neurales Zell-Adhäsionsmolekül (1)
- Nickel (1)
- Nitridierung (1)
- Numerisches Modell (1)
- Oberflächenprotein (1)
- Object-orientation (1)
- Objektorientierung (1)
- Ochratoxin A (1)
- Open Estelle (1)
- Ortspezifische Mutagenese (1)
- Oxidativer Stress (1)
- PFGE (1)
- Phasengleichgewicht (1)
- Phasenverhalten (1)
- Phasenwechselmaterial (1)
- Phosphor-Metall-Komplexe (1)
- Phosphorkomplexe (1)
- Plasmid (1)
- Pn-Liganden (1)
- Pn-ligands (1)
- Polychlorierte Biphenyle (1)
- Polymere (1)
- Proteinkinase C (1)
- Proteinstruktur (1)
- Pyrolyse (1)
- Quality (1)
- Qualität (1)
- Reaktivextraktion (1)
- Real-Time Control (1)
- Repeat (1)
- Repeats (1)
- Repression (1)
- SBR-Verfahren (1)
- SCR (1)
- SCR-Verfahren (1)
- SKY (1)
- Satelliten-DNS (1)
- Schrumpfen (1)
- Sequencing Batch Reactor (1)
- Sequenz (1)
- Serinproteinasen (1)
- Service Access Points (1)
- Signaling (1)
- Socs-3 (1)
- Software (1)
- Stoffaustausch (1)
- Stoffübergang (1)
- Streptococcus pneumoniae (1)
- Tastwahrnehmung (1)
- Thermische Harnstoffaufbereitung (1)
- Thermolyse (1)
- Thermoplaste (1)
- Transkription (1)
- Transparente Wärmedämmung (1)
- Transskriptionsaktivität (1)
- Tribologie (1)
- Trockenharnstoff (1)
- Tumorpromotion (1)
- Tumorzytogenetik (1)
- Unsicherheit (1)
- Verbrennungsmotor (1)
- Verbundguss (1)
- Vesikel (1)
- Visualisierung (1)
- Wassertransport (1)
- Weißer Phosphor (1)
- Winsor-System (1)
- Winsor-system (1)
- XEC (1)
- Zellmigration (1)
- Zeolith (1)
- Zugfestigkeit (1)
- Zylinderblock (1)
- aftertreatment (1)
- aluminum (1)
- catalysis (1)
- cell adhesion molecule (1)
- cell migration (1)
- combustion engine (1)
- compound casting (1)
- coordinative stabilisation (1)
- crank case (1)
- cylinder block (1)
- data output unit (1)
- degree of freedom (1)
- finite element method (1)
- flüssiges Polymer (1)
- food (1)
- free-form surface (1)
- functionally graded material (1)
- furocoumarins (1)
- groundwater remediation (1)
- haptic perception (1)
- heterogene Werkstoffe (1)
- hydrodynamics (1)
- ion exchanger (1)
- koordinative Stabilisierung (1)
- lightweight design (1)
- liquid-liquid-extraction (1)
- magnesium (1)
- mass transfer (1)
- mass transfer kinetics (1)
- metalloproteases (1)
- miniplant (1)
- model uncertainty (1)
- nachwachsende Rohstoffe (1)
- native Aufreinigung (1)
- numerical model (1)
- organotypische Kokultur (1)
- ovarian carcinoma (1)
- oxidative DNA-Schäden (1)
- pKAP298 (1)
- phase behavior (1)
- phosphorous-metall-complexes (1)
- polymer (1)
- prädiktive Regelung (1)
- reactive extraction (1)
- solares Bauen (1)
- solid urea (1)
- thermisches Gebäudeverhalten (1)
- triboligy (1)
- user interface (1)
- vesicle (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (13)
- Kaiserslautern - Fachbereich Chemie (10)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich ARUBI (3)
- Kaiserslautern - Fachbereich Informatik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Physik (1)
Die formale Spezifikation von Kommunikationssystemen stellt durch die mit ihr verbundene Abstraktion und Präzision eine wichtige Grundlage für die formale Verifikation von Systemeigenschaften dar. Diese Abstraktion begrenzt jedoch auch die Ausdrucksfähigkeit der formalen Beschreibungstechnik und kann somit zu problemunangemessenen Spezifikationen führen. Wir untersuchen anhand der formalen Beschreibungstechnik Estelle zunächst zwei solche Aspekte. Beide führen speziell in Hinsicht auf die Domäne von Estelle, der Spezifikation von Kommunikationsprotokollen, zu schwerwiegenden Beeinträchtigungen der Ausdrucksfähigkeit. Eines dieser Defizite zeigt sich bei dem Versuch, in Estelle ein offenes System wie z. B. eine Protokollmaschine oder einen Kommunikationsdienst zu spezifizieren. Da Estelle-Spezifikationen nur geschlossene Systeme beschreiben können, werden solche Komponenten immer nur als Teil einer fest vorgegebenen Umgebung spezifiziert und besitzen auch nur in dieser eine formale Syntax und Semantik. Als Lösung für dieses Problem führen wir die kompatible syntaktische und semantische Estelle-Erweiterung Open-Estelle ein, die eine formale Spezifikation solcher offener Systeme und ihres Imports in verschiedene Umgebungen ermöglicht. Ein anderes Defizit in der Ausdrucksfähigkeit von Estelle ergibt sich aus der strengen Typprüfung. Wir werden zeigen, dass es in heterogenen, hierarchisch strukturierten Kommunikationssystemen im Zusammenhang mit den dort auftretenden horizontalen und vertikalen Typkompositionen zu einer unangemessenen Modellierung von Nutzdatentypen an den Dienstschnittstellen kommt. Dieses Problem erweist sich beim Versuch einer generischen und nutzdatentypunabhängigen Spezifikation eines offenen Systems (z. B. mit Open-Estelle) sogar als fatal. Deshalb führen wir die kompatible Containertyp-Erweiterung ein, durch die eine formale Spezifikation nutzdatentypunabhängiger und somit generischer Schnittstellen von Diensten und Protokollmaschinen ermöglicht wird. Als Grundlage für unsere Implementierungs- und Optimierungsexperimente führen wir den „eXperimental Estelle Compiler“ (XEC) ein. Er ermöglicht aufgrund seines Implementierungskonzeptes eine sehr flexible Modellierung des Systemmanagements und ist insbesondere für die Realisierung verschiedener Auswahloptimierungen geeignet. XEC ist zudem mit verschiedenen Statistik- und Monitoring-Funktionalitäten ausgestattet, durch die eine effiziente quantitative Analyse der durchgeführten Implementierungsexperimente möglich ist. Neben dem vollständigen Sprachumfang von Estelle unterstützt XEC auch die meisten der hier eingeführten Estelle-Erweiterungen. Neben der Korrektheit ist die Effizienz automatisch generierter Implementierungen eine wichtige Anforderung im praktischen Einsatz. Hier zeigt sich jedoch, dass viele der in formalen Protokollspezifikationen verwendeten Konstrukte nur schwer semantikkonform und zugleich effizient implementiert werden können. Entsprechend untersuchen wir anhand des Kontrollflusses und der Handhabung von Nutzdaten, wie die spezifizierten Operationen effizient implementiert werden können, ohne das Abstraktionsniveau senken zu müssen. Die Optimierung des Kontrollflusses geschieht dabei ausgehend von der effizienten Realisierung der Basisoperationen der von XEC erzeugten Implementierungen primär anhand der Transitionsauswahl, da diese speziell bei komplexen Spezifikationen einen erheblichen Teil der Ausführungszeit bansprucht. Wir entwickeln dazu verschiedene heuristische Optimierungen der globalen Auswahl und der modullokalen Auswahl und werten diese sowohl analytisch wie auch experimentell aus. Wesentliche Ansatzpunkte sind dabei verschiedene ereignisgesteuerte Auswahlverfahren auf globaler Ebene und die Reduktion der zu untersuchenden Transitionen auf lokaler Ebene. Die Überprüfung der Ergebnisse anhand der ausführungszeitbezogenen Leistungsbewertung bestätigt diese Ergebnisse. Hinsichtlich der effizienten Handhabung von Daten untersuchen wir unterschiedliche Ansätze auf verschiedenen Ebenen, die jedoch in den meisten Fällen eine problemunangemessene Ausrichtung der Spezifikation auf die effiziente Datenübertragung erfordern. Eine überraschend elegante, problemorientierte und effiziente Lösung ergibt sich jedoch auf Basis der Containertyp-Erweiterung, die ursprünglich zur Steigerung des Abstraktionsniveaus eingeführt wurde. Dieses Ergebnis widerlegt die Vorstellung, dass Maßnahmen zur Steigerung der effizienten Implementierbarkeit auch immer durch eine Senkung des Abstraktionsniveaus erkauft werden müssen.
Im Hinblick auf die Gewichtsreduktion am Gesamtfahrzeug zur Verbesserung der Fahrdy-namik und zur Reduktion des Kraftstoffverbrauchs wurde ein Vierzylinder-Kurbelgehäuse auf Basis des leichten Konstruktionswerkstoffs Magnesium konzipiert und konstruiert. Unter der Zielvorgabe einer spezifischen Leistung von mindestens 65 kW/l lag der Fokus auf einer zum Serienmotor mindestens gleichwertigen Belastbarkeit und Akustik und auf der Behebung der Kriech- und Korrosionsproblematik von Magnesium. Durch die Kombination verschiedener Leichtbauprinzipien wie Konzept-, Gestalt- und Ver-bundleichtbau, ist es mittels lokalem Werkstoffengineering gelungen, die Nachteile des Mag-nesiums zu kompensieren und seine Vorteile bestmöglich zu nutzen. Das Ergebnis ist ein zur Aluminiumbasis um ca. 6,5kg und zur Graugussbasis um ca. 23kg leichteres Magnesi-um-Hybrid-Zylinderkurbelgehäuse. Die short-skirt Bauweise in Verbindung mit einem zur Ölwanne nahezu komplett geschlossenen Bedplate ergibt ein hochsteifes Kurbelgehäuse mit einer im Vergleich zum Serien-Aluminium-ZKG höheren Belastbarkeit. Das flexible Kurbel-gehäusekonzept ermöglicht es ausserdem, auf Basis des für Magnesium sehr wirtschaftli-chen Druckgussverfahrens, Zylinderkurbelgehäuse sowohl in open-deck als auch in closed-deck-Bauweise herzustellen. Kernstück des neuen Motorblocks ist ein multifunktionaler, 3,8kg leichter Zylindereinsatz aus Aluminium, der die Funktion der Zylinderlaufbahn, der Zylinderkopf- und Hauptlagerver-schraubung sowie der Kühlwasserführung übernimmt. Zur Verbesserung der Verbundeigen-schaften zwischen dem Zylindereinsatz und dem umgebenden Magnesium wurden umfang-reiche Gießversuche und metallographische Untersuchungen durchgeführt. Eine durch Plasmaspritzen aufgebrachte AlSi12-Beschichtung erzielte schließlich die besten Ergebnisse in Bezug auf ertragbare Zug- und Schubbelastungen in der Verbundzone. Zur Absicherung des Herstellungsprozesses wurden mit der Finite Elemente Methode ver-schiedene Abstützvarianten des closed-deck-Zylindereinsatzes für das prozesssichere Ein-gießen im Druckguss untersucht. Die Befüllung des Einsatzes mit Sand erwies sich dabei als die robusteste Lösung und wurde später in den Gießversuchen umgesetzt. Der Festigkeitsnachweis für das Magnesium-Hybrid-Zylinderkurbelgehäuse wurde mit Hilfe der Finite Elemente Methode unter Einbeziehung der Ergebnisse der metallographischen Untersuchungen sowie unter Berücksichtigung nichtlinearer Werkstoffkennwerte und der Kriechproblematik von Magnesium erbracht. Ausgangspunkt für den Festigkeitsnachweis waren Eigenspannungsberechnungen, die das Abkühlen der Gussteile aus der Gießhitze, eine Warmauslagerung und die Bearbeitung der wichtigsten Funktionsflächen beinhaltete. Der Nachweis für die Dauerhaltbarkeit der Lagerstühle des Kurbelgehäuses wurde erbracht. Parameterstudien zeigten dabei einen positiven Einfluss der Eigenspannungen und eine geringe Sensitivität der Konstruktion in Bezug auf Reibungsvariationen zwischen Umguss und Eingussteilen. Kriechdehnungen im Bereich der Hauptlagerverschraubungen führten allerdings bei Verwendung der Standard Magnesiumlegierung AZ91 nach 500 Stunden bei 150°C zu einem Abfall der Schraubenvorspannkräfte um bis zu 75%. Es konnte gezeigt wer-den, dass dieses Problem bei Verwendung von kriechfesteren Legierungen (z.B. MRI 153M) mit ca. 10-20fach besserer Kriechfestigkeit bzw. Relaxationsbeständigkeit behoben werden kann. Der rechnerisch erbrachte Nachweis für die Dauerhaltbarkeit des Zylinderkurbelgehäuses konnte kurz vor Fertigstellung dieser Arbeit in einem Motorversuch (Polyzyklischer Dauer-lauf, 100h) bestätigt werden. Der Motor zeigte nach Ende der Laufzeit keine Auffälligkeiten und konnte weiter betrieben werden.
In dieser Arbeit wird gezeigt, wie durch eine Automatisierung von Software-Entwicklungsaktivitäten sowohl Effizienz- als auch Qualitätsgewinne erzielt und komplexe Aktivitäten beherrschbar gemacht werden können. Dazu wird zunächst eine solide Basis für eine modellbasierte Software-Entwicklung geschaffen. Nach der Identifikation der Probleme der bisher üblicherweise eingesetzten Metamodellierung wird eine verbesserte Multiebenenmodellierung vorgeschlagen, welche die explizite Angabe der Instanziierbarkeit (Tiefe und Automatismus der Instanziierung) der Modellelemente erlaubt und damit eine deutliche Vereinfachung und bessere Verständlichkeit der Metamodelle ermöglicht. Zur operationalen Beschreibung von Modelltransformationen im Kontext dieser Multiebenenmodellierung wird sodann die Aktionssprache AL++ konzipiert. Insbesondere durch die Einführung von Sprachelementen für die Handhabung von Relationen und Attributen und die Aufnahme von Reflexionskonstrukten in die Sprache AL++ werden Transformationen kompakt und generisch beschreibbar. Anwendung finden diese Ansätze in der modellbasierten Entwicklung reaktiver Systeme. Dazu wird eine existierende Entwicklungsmethode erweitert, um eine durchgängige Automatisierung realisieren zu können. Die wichtigste Erweiterung ist dabei die modifizierte Automatenmodellierung, bei welcher erweiterte Endliche Automaten durch die Komposition getrennt modellierter Zustandsübergänge spezifiziert werden, was eine eindeutige Verfolgbarkeit zu den Anforderungen erlaubt. Eingesetzt werden obige Techniken für die statische Analyse von Spezifikationen, wobei insbesondere die automatische Detektion von Feature-Interaktionen (also die Feststellung kritischer Wechselwirkungen zwischen Produktmerkmalen) in dieser Form erstmalig für den Bereich der reaktiven Systeme durchgeführt wird. Daneben werden automatisierte dynamische Analysen auf der Basis generierter Prototypen betrachtet. Die Analyseergebnisse können automatisiert für die Modifikation und Neukonstruktion der Prototypen genutzt werden, womit Software-Entwicklungsexperimente vollständig in einem „virtuellen Labor“ durchgeführt werden können. Wichtigstes experimentelles Ergebnis ist, dass eine statische Parametrisierung einer „intelligenten“ Temperaturregelung möglich ist und daher eine Reduktion der notwendigen Produktmerkmale (und damit der Komplexität) erreicht werden kann. In Fallstudien wird am Ende der Arbeit nachgewiesen, dass alleine durch die automatische Erzeugung von Entwicklungsdokumenten und die konsistente Änderung vorhergehender Dokumente durch die in dieser Arbeit implementierten Werkzeuge ein Effizienzgewinn von 54 % erreicht werden kann. Die Erstellung der eingesetzten Werkzeuge hätte sich dabei bereits nach zwei ähnlichen Projekten bezahlt gemacht.
Die Arbeit beschäftigt sich im wesentlichen mit den aktuell zur Verfügung stehenden Werkzeugen der Behandlung von Unsicherheiten in den Ergebnissen von Grundwassermodellen im Zusammenhang mit der Anwendung der Modelle bei der Planung von hydraulischen Sanierungen des Untergrundes. Untersucht wird die Eignung verschiedener Verfahren für eine praxisbezogene Anwendung. Als Ergebnis werden Empfehlungen zur Verwendung der Methoden in Abhängigkeit der hydrogeologischen Gegebenheiten und Hinweise zur Weiterentwicklung der Verfahren formuliert. Die Resultate von Grundwassermodellen werden zu Prognosezwecken in unterschiedlichen Zusammenhängen eingesetzt. Dazu gehören u.a. die Konzipierung von hydraulischen Sanierungsmaßnahmen. Für eine effiziente Ausführung einer Sanierung sollten Überdimensionierungen der notwendigen Einrichtungen (Brunnen, Pumpen, Aufbereitung) vermieden werden. Die hier untersuchten Methoden können dabei vorteilhaft eingesetzt werden, da sie es prinzipiell erlauben, die notwendigen Sicherheitszuschläge zu verringern und Erfolgswahrscheinlichkeiten für unterschiedliche Auslegungsvarianten anzugeben. Erfolgswahrscheinlichkeit bedeutet z.B. mit welcher Wahrscheinlichkeit ein einzuhaltender Grenzwert an einem bestimmten Punkt unterschritten wird. Die aktuell in der Praxis eingesetzten deterministischen Modelle können stattdessen nur einen Wert liefern, der eine nicht bekannte Eintretenswahrscheinlichkeit besitzt. In dieser Arbeit wird gezeigt, dass Methoden der stochastischen Simulation, zusammen mit einer Grundwassermodellierung einen wesentlichen Beitrag zur Verbesserung der oben dargestellten Situation leisten können. Hierzu wird das SUFIX-Verfahren eingesetzt, das es erlaubt neben den Verfahren der Geostatistik (z.B. stochastische Simulation) auch den Sachverstand des Hydrogeologen, der sich meist nicht in ’harten’ Zahlenwerten ausdrücken lässt, zwanglos zu integrieren. Beispiele hierfür sind Kenntnisse über großskalige Strukturen, wie Paläorinnen, die mit den Voraussetzungen für den Einsatz von stochastischen Simulationen nicht vereinbar sind Auch sind vorhandene Informationen, die mit einer relative hohen Unsicherheit behaftet sind (soft data) in diesem Konzept verwertbar. Die Eingangsdaten eines Grundwassermodells liegen i.d. Regel nur als sporadische Punktmessungen vor und müssen durch Interpolation oder stochastische Simulation generiert werden, um ein lückenloses Abbild des Untergrundes bzw. der Eigenschaften des Untergrundes zu erhalten. Liegt ein vollständiges interpoliertes Abbild (hydrogeologisches Modell) vor, muss wiederum eine Vereinfachung vorgenommen werden, da ein numerisches Modell nur punkt- bzw. flächengemittelte Eingabedaten verwenden kann. Der hierdurch bedingte Verlust an Information über die Variabilität der Modellparameter unterhalb der räumlichen Modelldiskretisierung wirkt sich vor allem bei der Stofftransportmodellierung aus, da hier die Ausbreitung entlang bevorzugter Fließwege eine entscheidende Rolle spielen kann. Eine zusätzliche Quelle der Unsicherheit entsteht dadurch, dass die Lage dieser Strukturen und ihr räumlicher Zusammenhang (Topologie) nicht hinreichend bekannt sind. Anhand zweier Fallbeispiele aus der praktischen Anwendung von numerischen Modellen wird nachgewiesen, dass sich das SUFIX-Verfahren generell als geeignet zur Quantifizierung von Prognoseunsicherheiten darstellt. Vorteile des Verfahrens sind die Kombinationsmöglichkeiten mit beliebigen Methoden zur Abbildung der Untergrundheterogenität. Es können z.B. stochastische Simulationen oder auch eine konstante manuelle Zonierung verwendet werden. Ein weiterer gewichtiger Vorteil ist der, dass die Berechnungsmethodik der Grundwasserströmung und des Stofftransportes keinen Einschränkungen, wie Linearisierung der Gleichungen u.ä. unterworfen ist. Ebenso sind beliebige Randbedingungen verwendbar, wobei auch der Typ der Bedingungen als unsicherer Parameter eingesetzt werden kann. Sollen die Parameter optimiert werden, ist in praktischen Anwendungsfällen die Kopplung von stochastischer Simulation und z.B. einem Bayes'schen Updating-Verfahren eine einfach zu implementierende Lösung. Hiermit ist dann auch die Kalibrierung beliebiger Randbedingungen möglich, die z.B. als Parameter mit einer nominalen Kodierung berücksichtigt werden können. Die Untersuchungsergebnisse zeigen, dass das Verfahren zur Abbildung der Heterogenität dem Aquifer angepasst gewählt werden muss. Gauss-basierte Verfahren, wie Turning-Bands, sind demnach am ehesten für die Simulation von relativ homogenen Aquiferen geeignet, während bei sehr heterogenen Strukturen, d.h. großer Variabilität der Parameterwerte, am ehesten Indikator-basierte Verfahren in Frage kommen. Noch besser schneidet in diesem Fall die manuelle Zonierung ab, was vor allem damit zu erklären ist, dass bei sehr heterogenen Untergrundverhältnissen v.a. die Struktur mit eventuell nur deterministisch erfassbaren übergeordneten Elementen von ausschlaggebender Bedeutung ist. Als Simulationsverfahren mit dem größten Entwicklungspotential kann man generell diejenigen Verfahren ansehen, die auch nicht Gauss-verteilte Daten verwenden, wie z.B. die hier verwendeten Indikatorbasierten Verfahren. Als ebenfalls sehr gut geeignete Verfahren stellten sich Simulated Annealing in der Variante als Postprozessor zusammen mit einem frei definierbaren ’Trainingsbild’ dar. Die Untersuchungsergebnisse zeigten aber auch, dass neben der Wahl der geeigneten mathematischen Methoden eine weitere grundlegende Bedingung erfüllt sein muss, nämlich ein widerspruchsfreies und stimmiges, an den Einsatzzweck angepasstes konzeptionelles hydrogeologisches Modell. Zu dessen Konzeption muss der Anwender bzw. Modellierer über Kenntnisse der großräumigen Strukturen verfügen, die sich aus der Genese des Untergrundes ergeben und nur durch eine fachliche Interpretation erreichbar sind. Hierzu gehören Schichtungen, Paläorinnen, anisotrope Bodeneigenschaften durch Terrassierung, usw.. Die Einbeziehung dieser Expertenkenntnisse, sowie die Sicherstellung eines geeigneten hydrogeologischen Modells für die numerische Modellierung sind Themenbereiche, die im Zusammenhang mit einer Unsicherheitsanalyse noch erheblichen Forschungsbedarf aufweisen.
Bei Frauen ist Brustkrebs mit einem Viertel aller Krebserkrankungen die am häufigsten diagnostizierte Krebsart, während die Inzidenz bei Männern wesentlich geringer ist. Nur 10-15% aller Brustkrebserkrankungen können auf familiär prädisponierende Faktoren wie BRCA1 und BRCA2 zurückgeführt werden. Eine genetische Prädisposition bei hereditärem männlichem Brustkrebs wird für BRCA2 bestätigt. Funktionelle Analysen geben Grund zur Annahme, dass BRCA2 eine duale Rolle besitzt. Neben der Caretaker-Funktion für genomische Stabilität, ist auch eine Gatekeeper-Funktion bei der Transkriptionsregulation beschrieben. Die Basis dieser Arbeit beruht auf der Beobachtung, dass männliche BRCA2-Mutationsträger von 3 verschiedenen Familien mit hereditärem Brustkrebs auffällige chromosomale Veränderungen der Region 9p23-24 aufweisen. Vorarbeiten ließen einen kausalen Zusammenhang zwischen BRCA2-Mutation und 9p-Veränderung möglich erscheinen. Das Ziel der Arbeit bestand darin, durch molekularbiologische Methoden die Bruchpunkte in 9p23-24 bei BRCA2-Mutationsträgern unabhängiger Familien zu identifizieren und damit einen weiteren Hinweis auf die Entstehung dieser Instabilität zu geben. In dieser Arbeit konnten mittels FISH, PFGE und bioinformatischer Techniken sowohl Inversionen als auch Duplikationen festgestellt werden. Eine überlappende Inversion zeigte sich hierbei deutlich bei allen untersuchten Mutationsträgern. Mit einer FISH-Analyse konnte bei den Mutationsträgern der Familien 1 bis 3 eine Inversion im Bereich der STS-Marker D9S267 und D9S775 detektiert werden. Ferner konnte durch Interphasen-FISH eine Duplikation im Bruchpunktbereich um den STS-Marker D9S268 identifiziert werden. Southern-Analysen konnten Bruchpunkte in den Mutationsträgern der Familien 1 und 2 mittels der Enzyme EcoRI und SacI bestätigen. In dieser Arbeit konnte weiterhin gezeigt werden, dass sich die Inversionsbruchpunkte der Mutationsträger 3.3, 3.4 und 3.5 von Familie 1 in der unmittelbaren Nähe von low-copy repeats befinden, deren Größe 5kb-8kb beträgt. Die identifizierte Inversion überspannt im Wesentlichen die Gene TYRP1 und mPDZ. Bei dem durch die Inversion direkt betroffenen Gen handelt es sich um das mPDZ-Gen. Das Protein besitzt 13 PDZ-Domänen, deren Interaktionspartner beschrieben sind. Die Genexpression beider Gene konnte in lymphoblastoiden Zellen nachgewiesen werden. Die Erkenntnisse erlauben die Schlussfolgerung, dass Repeat-Sequenzen in der Umgebung der Bruchpunkte bei der Entstehung von Rearrangements auch in diesen BRCA2-Mutationsträgern eine große Rolle spielen.
Die Bindung von F1 an FO in der ATP-Synthase erfolgt über zwei Stiele. Während man davon ausgeht, dass der erste Stiel direkt an der ATP-Synthese beteiligt ist, so ist die Funktion des zweiten Stiels, der u.a. aus der b-Untereinheit besteht, noch recht unklar. Ein erster Schritt die Funktion des zweiten Stiels aufzuklären ist das Verständnis der Struktur der als Dimer auftretenden Untereinheit b. Mit Hilfe der ESR-Spektroskopie sollten neue Erkenntnisse bezüglich der Quartärstruktur von b2 erhalten werden. Die Untersuchungen wurden an einer verkürzten, wasserlöslichen Form von b, die als bsyn oder b24-156 bezeichnet wird, durchgeführt. bsyn lag hierbei alleine bzw. im Komplex mit F1 vor. bsyn konnte so in einem Bereich von 14 Aminosäuren, d.h. von knapp vier Helixumdrehungen (3,6 Aminosäuren pro Umdrehung) untersucht werden. Die Proteine wurden mit IAAT modifiziert und bei 193 K vermessen. Durch Simulation der so erhaltenen Spektren war es möglich Spin-Spin-Abstände zu bestimmen. Desweiteren wurden die bsyn-Mutanten Crosslink-Experimenten unterzogen, bei denen es in Abhängigkeit der relativen Abstände und Orientierung der Cysteine zueinander zur Ausbildung von Disulfidbindungen kommt. So war es möglich, über die Stärke der Crosslinks Rückschlüsse auf die Cystein-Cystein-Abstände zu ziehen.
Die vorliegende Arbeit gliedert sich in die drei Themenschwerpunkte FICTION-Technik (Fluorescence-Immunophenotyping and Interphase Cytogenetic as a Tool for Investigation of Neoplasms), SKY-Technik (Spectral Karyotyping) und Kultivierungsverfahren. Mittels der FICTION-Technik konnte gezeigt werden, dass die Trisomie 12 bei 53 untersuchten B-CLL-Patienten mit etwa 11% deutlich seltener auftrat, als in der Literatur beschrieben. Es scheint eine Assoziation zwischen dem Auftreten einer Trisomie 12 und einer atypischen B-CLL vorzuliegen, da drei der sechs Fälle mit Trisomie 12 eine atypische B-CLL Variante darstellten. Bei einem Fall konnte der Trisomie 12 tragende Klon über 13 Monate beobachtet werden und zeigte in diesem Zeitraum keine signifikante Veränderung. Der Klon blieb weitestgehend stabil. Eine aus Vorversuchen von Doris Herrmann vermutete Existenz einer Monosomie 12 bei B-CLL-Patienten (persönliche Miteilung) hat sich nicht bestätigt. Bei allen untersuchten Proben lagen die Zellen mit Monosomie 12 unter dem ermittelten cut off level von 10,2% für die Hybridisierung. Als zweiter Schwerpunkt wurde die Einsatzfähigkeit der SKY-Technik in der Tumorzytogenetik durch die Analyse von 20 Tumorfällen ausgetestet. Unter den 20 untersuchten tumorzytogenetischen Fällen konnte bei 12 der durch G-Bänderung erhobene Befund verbessert und erweitert werden. Bei drei Fällen wurden neue, in der G-Bandenanalyse nicht gefundene Aberrationen identifiziert und in fünf Fällen bestätigte sich der G-Bandenbefund. Die SKY-Technik erwies sich als wertvolle Methode zur weiteren Charakterisierung von komplex aberranten Karyotypen oder zur Identifikation von Markerchromosomen, wobei nicht alle Aberrationen aufklärt werden konnten. Unter den 20 untersuchten Fällen wurde bei zwei myeloischen Erkrankungen neben einer Monosomie 7 die Translokation t(3;21)(q26;q22) gefunden. Möglicherweise kommt diese häufiger als bisher beschrieben in myeloischen Erkrankungen vor, weil sie durch die G-Bandenanalyse nicht sicher erkannt wird. Vorzugsweise scheint sie neben einer Monosomie 7 aufzutreten. In dem Schwerpunkt, der sich mit der Kultivierung von neoplastischen B-Zellen beschäftigte, konnte ein neues Kultivierungsverfahren für B-Zellen entwickelt werden. Eine Kultivierung mit MP-6 Zellen konditioniertem ISCOVE-Medium und dem Phorbolester TPA zeigte in 15 von 20 Proben einen synergistischen Effekt auf die Proliferationssteigerung (um das 1,5-21 fache) gegenüber dem TPA-Standardansatz in RPMI-Medium. Durch eine Metaphasenanalyse von fünf Fällen mit numerischen Mosaikbefunden konnte gezeigt werden, dass das Verhältnis zwischen aberranten und normalen Klonen bei beiden Kultivierungsarten etwa gleich blieb. Eine Lebend-Tot-Bestimmung vor und nach der Kultivierung zeigte, dass nach 72-stündiger Kultivierung in den Kulturen mit dem höchsten Mitoseindex die durchschnittlich Lebendzellzahl am geringsten (ca. 70%) war.
Ochratoxin A (OTA) ist ein nierentoxisches und -kanzerogenes Mykotoxin, das von verschiedenen Aspergillus- und Penicillium-Stämmen gebildet wird. Kontaminationen mit OTA sind vor allem in pflanzlichen Produkten wie Getreide und Getreideprodukte, Kaffee, Traubensaft und Wein, Bier, Nüsse, Gewürze aber auch in Fleisch nachweisbar. Verbraucher nehmen in Deutschland wöchentlich ca. 5 ng/kg KG OTA auf. In subakuten und subchronischen Studien wurde ausgeprägte Nierentoxizität gezeigt, zudem ist OTA als immunsuppressiv, teratogen, neurotoxisch und hepatokanzerogen beschrieben. Eine Beteiligung von OTA an der beim Menschen auftretenden endemischen Balkannephropathie (BEN) wird diskutiert. Der Mechanismus der kanzerogenen Wirkung von OTA ist noch immer unklar. Die in Studien zur Genotoxizität erhaltenen, widersprüchliche Resultate könnten möglicherweise auf sekundäre Mechanismen wie oxidativem Stress zurückzuführen sein. Die Generierung reaktiver Sauerstoffspezies und die Induktion von Lipidperoxidation wurde beobachtet, eine Reihe toxischer Effekte in vitro und in vivo war durch Gabe von Antioxidantien abgeschwächt. Mit verschiedenen Endpunkten (Nekrose, Wachstumshemmung, Apoptose) wurde in Zelllinien (V79, CV-1) und in primären proximalen Tubuluszellen der Ratte (PNZ) die Induktion von Zytotoxizität durch OTA untersucht. OTA zeigte in Kurzzeitinkubations-Experimenten (1 h) kein Potenzial, die Viabilität von Zelllinien und PNZ zu verringern. Nach 24stündiger Inkubation war nur in V79-Zellen die Membranintegrität (Trypanblauausschluss) beeinträchtigt. Eine starke Wachstumshemmung mit IC50-Werten um 2 µmol/L wurde in beiden verwendeten Zelllinien gemessen. Mittels eines immunchemischen Tests und der Durchflusszytometrie wurde bei Konzentrationen über 1 µmol/L OTA (24 h) die Induktion von Apoptose beobachtet. Die in CV-1-Zellen beobachteten Parameter für Zytotoxizität, insbesondere die durchflusszytometrischen Untersuchungen, zeigten, dass die Effekte in einem relativ eng begrenzten, µmolaren Konzentrationsbereich zu beobachten sind, also möglicherweise nicht spezifisch Nekrose oder Apoptose induziert wird. Zu den Mechanismen, über die unspezifisch Nekrose und Apoptose in Zellen induziert werden kann, gehören z.B. oxidativer Stress und DNA-Schädigung. Mit Hilfe des Comet-Assays wurde in den Zelllinien und PNZ die Induktion von (oxidativen) DNA-Schäden durch OTA untersucht. Die DNA-Basisschädigung war nur nach Kurzzeitinkubation (1h) mit sehr hohen OTA-Konzentrationen (> 500 µmol/L) in den Zelllinien bzw. nach 24 h in V79-Zellen erhöht. FPG-sensitive Stellen in der DNA wurden in allen verwendeten in vitro-Testsystemen nachgewiesen. Nach einstündiger Inkubation waren PNZ deutlich sensitiver gegenüber der Induktion von oxidativen DNA-Schäden (ca. Faktor 20) als die Zelllinien. Dies deutet darauf hin, dass die PNZ im Vergleich zu den Zelllinien stoffwechselbedingte Besonderheiten aufweisen, die die erhöhte Sensitivität bedingen. Nach 24stündiger Inkubation mit OTA lagen die Konzentrationen, die in den Zelllinien und den PNZ oxidative DNA-Schäden induzierten in einem vergleichbaren µmolaren Bereich. Der Verlust der erhöhten Sensitivität der PNZ könnte auf eine Umstellung des Stoffwechsels nach der insgesamt 48stündigen Kultivierung zurückzuführen sein. Das gemeinsame Auftreten von oxidativem Stress, Nierentoxizität und Zellproliferation könnten evtl. einen alternativen Mechanismus der Nierenkanzerogenität von OTA bilden. In Kooperation mit Dr. Turesky (NCTR, Jefferson, USA) wurde ein Tierversuch durchgeführt, in dem das DNA-schädigende Potenzial von OTA in Leber und Niere von Ratten, die über vier Wochen mit OTA behandelt worden waren, untersucht wurde. Die mit dem Comet-Assay in den Organen dieser Tiere gefundenen oxidativen DNA-Schäden, die grundsätzlich als prämutagenes Ereignis angesehen werden können, geben also möglicherweise einen ersten mechanistischen Hinweis auf die nierenkanzerogene Wirkung von OTA. Untermauert wird dies durch die beobachtete Abnahme des GSH-Gehaltes, die evtl. auf eine Depletion durch LPO-Produkte zurückzuführen ist. Nach 24stündiger Inkubation wurde eine Erhöhung des GSH-Gehaltes in den inkubierten CV-1-Zellen gemessen, die mit einer GSH-Neusynthese als Gegenreaktion zum oxidativen Stress begründet werden kann. Die in vitro Untersuchungen zeigen, dass die Konzentrationen, die in den Zellen oxidative DNA-Schäden verursachen, etwas niedriger sind (Faktor 5), als die Konzentrationen, die zytotoxische Effekte induzieren. Es kann also nicht ausgeschlossen werden, dass OTA über die Bildung oxidativer DNA-Schäden auch initiierendes Potenzial besitzt. In diesem Zusammenhang wäre zu klären, ob die in der Literatur beschriebene Proteinbiosynthesehemmung sich auf die antioxidative Abwehr in Zellen und Organismen auswirkt, so dass induzierte oxidative DNA-Schäden möglicherweise nicht mehr ausreichend repariert werden können und es so zur Tumorentstehung in vivo kommt.
Zentrales Ziel dieser Arbeit ist die genaue theoretische Charakterisierung des Autoionisationsprozesses in Stößen metastabiler Argon-Atome mit Quecksilber- und Wasserstoff-Atomen, Ar*(4s 3P2,3P0) + Hg und Ar*(4s 3P2,3P0) + H(1s). Diese Untersuchungen wurden durch neue, in der Arbeitsgruppe von Prof. H. Hotop unter Verwendung zustandsselektierter Ar*-Atome durchgeführte elektronenspektrometrische Experimente an diesen Stoßsystemen motiviert. Zur Überprüfung der quantenchemischen Beschreibung des Quecksilber-Atoms und seiner van der Waals-Wechselwirkung wurden im Rahmen dieser Arbeit außerdem die Grundzustandspotentiale der Alkali-Quecksilber-Moleküle LiHg, NaHg und KHg im Detail untersucht. Dabei konnten die in der Literatur zu findenden Widersprüche zwischen den aus Rechnungen und verschiedenen Experimenten bestimmten Potentialen aufgeklärt werden, und es wurden verbesserte Wechselwirkungspotentiale erhalten, welche mit allen verfügbaren experimentellen Daten kompatibel sind.
Im Informationszeitalter haben die Menschen überall und jederzeit Zugang zu einer kontinuierlich ansteigenden Fülle von Informationen. Hierzu trägt vor allem die explosionsartig wachsende globale Vernetzung der Welt, insbesondere das Internet, maßgeblich bei. Die Transformation der verfügbaren Informationen in Wissen sowie die effiziente Nutzung dieses Wissens stellen dabei entscheidende Faktoren für den Erfolg eines Unternehmens oder eines Einzelnen dar. Es stellt sich also die Frage: Leben wir im Informationszeitalter? Diese Frage erinnert an die von Immanuel Kant in [65] gestellte Frage "Leben wir jetzt in einem aufgeklärten Zeitalter?" und dessen Antwort "Nein, aber wohl in einem Zeitalter der Aufklärung.". Entsprechend lässt sich auch die Frage "Leben wir in einem informierten Zeitalter?" mit "Nein, aber wohl in einem Zeitalter der Information" beantworten (vergleiche [14]). Das Problem, dass sich die überwältigende Fülle an Information ohne geeignete Hilfsmittel vom Menschen nicht oder nur schwer beherrschen lässt, hat im Laufe des letzten Jahrzehnts maßgeblich zur Entwicklung des äußerst dynamischen Forschungs- und Anwendungsgebietes der Visualisierung als Teilgebiet der Computergrafik beigetragen. Der Grund hierfür liegt in der Tatsache, dass der Mensch wesentlich besser mit visuellen Eindrücken als mit abstrakten Zahlen oder Fakten umgehen kann. Die Erkennung von Mustern in Daten (z. B. Gruppierungen und Häufungen) wird durch die Visualisierung stark vereinfacht und lässt vielmals Zusammenhänge zwischen Daten überhaupt erst greifbar werden. Unter computergestützter Visualisierung versteht man die in der Regel interaktive grafische Umsetzung von Daten. Handelt es sich dabei um physikalische Daten (z. B. entstanden durch Messvorgänge), so spricht man von Scientific Visualization. Handelt es sich eher um abstrakte bzw. nicht-physikalische Daten, so ordnet man die entsprechenden Verfahren der Information Visualization zu. Beide Teilgebiete der Visualisierung verfolgen jedoch das gemeinsame Ziel, Informationen dem Menschen sichtbar und verständlich zu machen und verwenden hierzu geeignete visuelle Paradigmen, häufig verbunden mit entsprechenden Interaktionsmöglichkeiten. Die vorliegende wissenschaftliche Arbeit ist in den Bereich der angewandten Computergrafik, speziell der interaktiven Visualisierung, einzuordnen. Die primären Ziele lagen dabei in der Übertragung des Begriffes kontextsensitiv auf den Bereich der Visualisierung zur Sicherstellung effizienter und kontextsensitiver Visualisierungsapplikationen sowie die Anwendung in aktuellen praktischen Aufgabenstellungen. Die Umsetzung einer kontextsensitiven Visualisierung gelingt im Rahmen dieser Arbeit durch die zukunftsweisende Kopplung von Visualisierungspipeline und Agententechnologie. Basierend auf der Identifikation zentraler Szenarien der kontextsensitiven Visualisierung wird eine agentenbasierte Visualisierungskontrolle durch intelligente Überwachung und Regelung der Visualisierungspipeline vorgestellt. Nach einer Zusammenfassung der relevanten Grundlagen aus den Gebieten der Visualisierung und der Agententechnologie folgen eine theoretische Klassifizierung und ein Überblick über existierende Systeme und Anwendungen aus beiden Bereichen. Anschließend wird das im Rahmen dieser Arbeit erarbeitete Paradigma der kontextsensitiven Visualisierung vorgestellt und die praktische, komponentenbasierte Umsetzung erläutert. Einen nicht unerheblichen Anteil der Arbeit machen drei innovative, auf der kontextsensitiven Visualisierung basierende Visualisierungsapplikationen aus, welche die Möglichkeiten und die Funktionsfähigkeit der entwickelten Architektur aufzeigen. Die Entwicklung einer plattformunabhängigen interaktiven Visualisierung beschäftigt sich insbesondere mit dem Auffinden der aktuell maximal möglichen Performance durch Abwägung der gegenläufigen Hauptparameter Qualität und Interaktivität und behandelt damit vor allem den System- und Interaktionskontext. Der Gedanke der plattformunabhängigen interaktiven Visualisierung wird anschließend auf mobile Informationssysteme ausgeweitet. Hier ist neben den Performanceaspekten vor allem die Art des Ausgabemediums, d. h. der Darstellungskontext, ein entscheidender Faktor. Die dritte Anwendung stellt eine agentenbasierte Applikation für die Bekleidungsindustrie in Form eines interaktiven Individual-Katalogs dar und behandelt insbesondere den Daten- und den Benutzerkontext. Eine kurze Zusammenfassung sowie ein Ausblick auf geplante zukünftige Entwicklungen runden letztlich die Betrachtungen ab.