Refine
Year of publication
- 2004 (64) (remove)
Document Type
- Doctoral Thesis (36)
- Periodical Part (12)
- Working Paper (6)
- Report (3)
- Book (2)
- Master's Thesis (2)
- Preprint (2)
- Habilitation (1)
Language
- German (64) (remove)
Has Fulltext
- yes (64)
Keywords
- Controlling (4)
- Simulation (3)
- Flüssig-Flüssig-Extraktion (2)
- Harnstoff (2)
- 2-D-Elektrophorese (1)
- ADAM10 (1)
- Abgasnachbehandlung (1)
- Acetylcholinrezeptor (1)
- AhR (1)
- Aluminium (1)
- Aluminiumphosphate (1)
- Ambient Intelligence (1)
- Antigenspezifische Immunsuppression (1)
- Apoptose (1)
- Apoptosis (1)
- Aspektorientierte Programmierung (1)
- Ausdrucksfähig (1)
- Ausdrucksfähigkeit (1)
- Automation (1)
- Autonomer Agent (1)
- Autoprozessierung (1)
- B-CLL (1)
- BRCA2 (1)
- Bakteriophage (1)
- Balanced Scorecard (1)
- Basische Feststoffkatalysatoren (1)
- Bayes method (1)
- Bayes-Verfahren (1)
- Benutzeroberfläche (1)
- Bindiger Boden (1)
- Bloch oscillations (1)
- Bloch-Oszillationen (1)
- Bose-Einstein-Kondensation (1)
- Broutman-Versuch (1)
- Budgetierung (1)
- CAD (1)
- CFD (1)
- CYP1A (1)
- Caedibacter (1)
- Cobalt (1)
- Combined Sewer Overflow (1)
- Comet Assay (1)
- Containertypen (1)
- Containertypes (1)
- Controlling Kognition Funktion Institution (1)
- Cytotoxizität (1)
- DNS-Strangbruch (1)
- Datenausgabegerät (1)
- Dienstgüte (1)
- Dienstleistung (1)
- Dienstschnittstellen (1)
- Differenzierung (1)
- Domänenspezifische Sprachen (1)
- Dosierung (1)
- Duromere (1)
- EPR (1)
- ESR (1)
- ESTELLE (1)
- Effizienter Algorithmus (1)
- Effizienz (1)
- Effizienzsteigerung (1)
- Eierstockkrebs (1)
- Elektrotechnik (1)
- Emission (1)
- Empirie (1)
- Epoxidharzverbunden (1)
- Expressiveness (1)
- FICTION (1)
- FISH (1)
- FOF1-ATP-Synthase (1)
- FasLigand (1)
- Faser-Kunststoff-Verbund-Laminate (1)
- Faser-Kunststoff-Verbunde (1)
- Faserorientierungen (1)
- Finite-Elemente-Methode (1)
- Formale Beschreibungstechnik (1)
- Freiformfläche (1)
- Freiheitsgrad (1)
- Funktioneller Gradientenwerkstoff (1)
- Funktionsanalyse (1)
- Furocumarine (1)
- Gebäudetechnik (1)
- Gelonin (1)
- Geodäsie (1)
- Glucocorticoidrezeptor (1)
- Glykosylierung (1)
- Gravitationsfeld (1)
- Gravitationsmodell (1)
- Grundwassersanierung (1)
- Harze (1)
- Harzinjektionsverfahren (1)
- Hydrodynamik (1)
- Hydrolyse (1)
- Implementation (1)
- Implementierung (1)
- In vitro (1)
- In vivo (1)
- Integrated Operation (1)
- Integrine (1)
- Ionentauscher (1)
- Kanalisation (1)
- Katalyse (1)
- Keratinozyten (1)
- Kinetik (1)
- Kläranlage (1)
- Kognition (1)
- Komplexaufklärung (1)
- Komponentenmodell (1)
- Kontextbezogenes System (1)
- Kultivierung (1)
- Kultur (1)
- Kurbelgehäuse (1)
- Kühni (1)
- L1 (1)
- Leichtbau (1)
- Leittechnik (1)
- Limonen-Umsetzung (1)
- MDA <Vorgehensmodell> (1)
- MSR (1)
- Magnesium (1)
- Mehragentensystem (1)
- Mehrskalenanalyse (1)
- Metalloproteinasen (1)
- Miniplant (1)
- Mischwasser (1)
- Mischwasserbehandlung (1)
- Mobile Computing (1)
- Modellierung (1)
- Modelling (1)
- Monte Carlo (1)
- Monte Carlo simulation (1)
- Monte-Carlo-Simulation (1)
- Myasthenia gravis (1)
- NOx (1)
- Nahrung (1)
- Networked Control Systems (1)
- Netzwerk (1)
- Neurales Zell-Adhäsionsmolekül (1)
- Nickel (1)
- Nitridierung (1)
- Numerisches Modell (1)
- Oberflächenprotein (1)
- Object-orientation (1)
- Objektorientierung (1)
- Ochratoxin A (1)
- Open Estelle (1)
- Ortspezifische Mutagenese (1)
- Oxidativer Stress (1)
- PFGE (1)
- Phasengleichgewicht (1)
- Phasenverhalten (1)
- Phasenwechselmaterial (1)
- Phosphor-Metall-Komplexe (1)
- Phosphorkomplexe (1)
- Plasmid (1)
- Pn-Liganden (1)
- Pn-ligands (1)
- Polychlorierte Biphenyle (1)
- Polymere (1)
- Proteinkinase C (1)
- Proteinstruktur (1)
- Pyrolyse (1)
- Quality (1)
- Qualität (1)
- Quantenmechanisches System / Dissipatives System (1)
- Reaktivextraktion (1)
- Real-Time Control (1)
- Rechnungswesen (1)
- Regelung (1)
- Repeat (1)
- Repeats (1)
- Repression (1)
- Resonanzen (1)
- SBR-Verfahren (1)
- SCR (1)
- SCR-Verfahren (1)
- SKY (1)
- SQL (1)
- Satelliten-DNS (1)
- Schrumpfen (1)
- Sequencing Batch Reactor (1)
- Sequenz (1)
- Serinproteinasen (1)
- Service Access Points (1)
- Signaling (1)
- Socs-3 (1)
- Software (1)
- Stadtplanung (1)
- Stoffaustausch (1)
- Stoffübergang (1)
- Streptococcus pneumoniae (1)
- Streutheorie (1)
- Szenario (1)
- Tastwahrnehmung (1)
- Thermische Harnstoffaufbereitung (1)
- Thermolyse (1)
- Thermoplaste (1)
- Transkription (1)
- Transparente Wärmedämmung (1)
- Transskriptionsaktivität (1)
- Tribologie (1)
- Trockenharnstoff (1)
- Tumorpromotion (1)
- Tumorzytogenetik (1)
- Unsicherheit (1)
- Verbrennungsmotor (1)
- Verbundguss (1)
- Versionierungssysteme (1)
- Vesikel (1)
- Visualisierung (1)
- Wannier-Stark systems (1)
- Wannier-Stark-System (1)
- Wassertransport (1)
- Wavelet (1)
- Weißer Phosphor (1)
- Winsor-System (1)
- Winsor-system (1)
- XEC (1)
- Zellmigration (1)
- Zeolith (1)
- Zugfestigkeit (1)
- Zylinderblock (1)
- aftertreatment (1)
- aluminum (1)
- aspect-oriented programming (1)
- balanced (1)
- catalysis (1)
- cell adhesion molecule (1)
- cell migration (1)
- combustion engine (1)
- compound casting (1)
- controllership (1)
- controlling rechnungswesen konvergenz intern extern (1)
- coordinative stabilisation (1)
- crank case (1)
- cylinder block (1)
- data output unit (1)
- degree of freedom (1)
- domain-specific language (1)
- finite element method (1)
- flüssiges Polymer (1)
- food (1)
- free-form surface (1)
- functionally graded material (1)
- furocoumarins (1)
- generative Programmierung (1)
- generative programming (1)
- groundwater remediation (1)
- haptic perception (1)
- heterogene Werkstoffe (1)
- hydrodynamics (1)
- intentional programming (1)
- ion exchanger (1)
- koordinative Stabilisierung (1)
- lightweight design (1)
- liquid-liquid-extraction (1)
- magnesium (1)
- mass transfer (1)
- mass transfer kinetics (1)
- metalloproteases (1)
- miniplant (1)
- model uncertainty (1)
- nachwachsende Rohstoffe (1)
- native Aufreinigung (1)
- numerical model (1)
- optical lattices (1)
- optische Gitter (1)
- organotypische Kokultur (1)
- ovarian carcinoma (1)
- oxidative DNA-Schäden (1)
- pKAP298 (1)
- phase behavior (1)
- phosphorous-metall-complexes (1)
- polymer (1)
- prädiktive Regelung (1)
- reactive extraction (1)
- resonances (1)
- scorecard (1)
- scoring (1)
- software (1)
- solares Bauen (1)
- solid urea (1)
- thermisches Gebäudeverhalten (1)
- triboligy (1)
- user interface (1)
- vesicle (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (13)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Chemie (10)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (6)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Informatik (5)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Mathematik (2)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (2)
- Universität (1)
- Universitätsbibliothek (1)
Die wirtschaftswissenschaftliche Literatur gibt unterschiedliche Empfehlungen für die Ausgestaltung der Kostenrechnungssysteme für den Dienstleistungsbereich ab. Um zu überprüfen, ob ein ebenso diffuses Bild in der Unternehmensrealität zu finden ist, wurde eine Umfrage unter börsennotierten Unternehmen in Deutschland durchgeführt. Es konnte aufgezeigt werden, dass zwischen Dienstleistungsbereichen und sonstigen Bereichen Unterschiede bei der Verwendung spezieller Kostenrechnungssystemen existieren. Wo bei letzteren eine vergleichsweise hohe Affinität zur Grenzplankostenrechnung festgestellt werden konnte, wurden in den Dienstleistungsbereichen sowohl die Prozesskostenrechnung als auch die Vollkostenrechnung verstärkt bevorzugt. Diese Tendenzaussagen fanden bei der Angabe eines „Wunschverrechnungssystems“ sogar noch stärkere Unterstützung.
Mit Hilfe von Trifluormethansulfonsäure gelang die chemische Deglykosylierung von natürlichem Gelonin. Durch die Charakterisierung mit Hilfe von SDS-PAGE, wurden Hinweise auf das Vorliegen der Aminosäurensequenz von Nolan et al. gefunden. Durch Auswertung massenspektrometrischer Daten wurde ein mögliches Glykosylierungsmuster vorgeschlagen. Die Expression von rekombinantem Gelonin in E.coli und anschließende Isolierung mit Hilfe der Nickel-Affinitätschromatographie führte zu einem Produkt, das trotz fehlender Glykosylierung um den Faktor 2 toxischer war als natürliches Gelonin und vergleichbare immunologische Eigenschaften aufwies. Durch molekularbiologische Arbeiten wurde der Expressionsvektor für ein AChR-Fragment (a-Untereinheit, AS 4-181) um die DNA-Information für die Aminosäuren 182-208 erweitert. Eine Expression führte zur Bildung eines nativen Produktes, während die native Isolierung des verkürzten Fragmentes nicht erfolgreich war. Ein rekombinant hergestelltes Fusionsprotein aus Gelonin und einem AChR-Fragment (a-Untereinheit, AS 4-181) konnte in hoher Ausbeute und Reinheit mit Hilfe von Nickel-Affinitätschromatographie isoliert werden. Da eine denaturierende Aufarbeitung notwendig war, wurde eine geeignete Renaturierungsmethode entwickelt. Trotz Optimierung fielen allerdings noch bis zu 80% des Fusionsproteins als falsch-gefaltete, unlösliche Proteinaggregate aus. Durch Einführung einer „Recyclingmethode“ konnte der Proteinverlust deutlich minimiert werden. Beide Domänen zeigten sich nativ gefaltet. Allerdings war das Gelonin-Fragment um den Faktor 11 untoxischer als rekombinantes Gelonin alleine. Das Fusionsprotein wurde in einem Tiermodell der Myasthenia gravis auf seine potentiellen antigenspezifischen immunsuppressiven Eigenschaften gestestet. Nach der Induktion der Erkrankung in Ratten durch Gabe von komplettem AChR, wurde die Erkrankung durch repetitive Nervenstimulation untersucht. Eine Methode die auch bei humaner Myasthenie angewendet wird. Nach der Gabe des Fusionsproteins verschwanden die myasthenen Symptome in der Ratte innerhalb einer Woche. Damit zeigte das Fusionsprotein einen therapeutischen Effekt. Langzeitstudien wurden allerdings nicht durchgeführt.
Die formale Spezifikation von Kommunikationssystemen stellt durch die mit ihr verbundene Abstraktion und Präzision eine wichtige Grundlage für die formale Verifikation von Systemeigenschaften dar. Diese Abstraktion begrenzt jedoch auch die Ausdrucksfähigkeit der formalen Beschreibungstechnik und kann somit zu problemunangemessenen Spezifikationen führen. Wir untersuchen anhand der formalen Beschreibungstechnik Estelle zunächst zwei solche Aspekte. Beide führen speziell in Hinsicht auf die Domäne von Estelle, der Spezifikation von Kommunikationsprotokollen, zu schwerwiegenden Beeinträchtigungen der Ausdrucksfähigkeit. Eines dieser Defizite zeigt sich bei dem Versuch, in Estelle ein offenes System wie z. B. eine Protokollmaschine oder einen Kommunikationsdienst zu spezifizieren. Da Estelle-Spezifikationen nur geschlossene Systeme beschreiben können, werden solche Komponenten immer nur als Teil einer fest vorgegebenen Umgebung spezifiziert und besitzen auch nur in dieser eine formale Syntax und Semantik. Als Lösung für dieses Problem führen wir die kompatible syntaktische und semantische Estelle-Erweiterung Open-Estelle ein, die eine formale Spezifikation solcher offener Systeme und ihres Imports in verschiedene Umgebungen ermöglicht. Ein anderes Defizit in der Ausdrucksfähigkeit von Estelle ergibt sich aus der strengen Typprüfung. Wir werden zeigen, dass es in heterogenen, hierarchisch strukturierten Kommunikationssystemen im Zusammenhang mit den dort auftretenden horizontalen und vertikalen Typkompositionen zu einer unangemessenen Modellierung von Nutzdatentypen an den Dienstschnittstellen kommt. Dieses Problem erweist sich beim Versuch einer generischen und nutzdatentypunabhängigen Spezifikation eines offenen Systems (z. B. mit Open-Estelle) sogar als fatal. Deshalb führen wir die kompatible Containertyp-Erweiterung ein, durch die eine formale Spezifikation nutzdatentypunabhängiger und somit generischer Schnittstellen von Diensten und Protokollmaschinen ermöglicht wird. Als Grundlage für unsere Implementierungs- und Optimierungsexperimente führen wir den „eXperimental Estelle Compiler“ (XEC) ein. Er ermöglicht aufgrund seines Implementierungskonzeptes eine sehr flexible Modellierung des Systemmanagements und ist insbesondere für die Realisierung verschiedener Auswahloptimierungen geeignet. XEC ist zudem mit verschiedenen Statistik- und Monitoring-Funktionalitäten ausgestattet, durch die eine effiziente quantitative Analyse der durchgeführten Implementierungsexperimente möglich ist. Neben dem vollständigen Sprachumfang von Estelle unterstützt XEC auch die meisten der hier eingeführten Estelle-Erweiterungen. Neben der Korrektheit ist die Effizienz automatisch generierter Implementierungen eine wichtige Anforderung im praktischen Einsatz. Hier zeigt sich jedoch, dass viele der in formalen Protokollspezifikationen verwendeten Konstrukte nur schwer semantikkonform und zugleich effizient implementiert werden können. Entsprechend untersuchen wir anhand des Kontrollflusses und der Handhabung von Nutzdaten, wie die spezifizierten Operationen effizient implementiert werden können, ohne das Abstraktionsniveau senken zu müssen. Die Optimierung des Kontrollflusses geschieht dabei ausgehend von der effizienten Realisierung der Basisoperationen der von XEC erzeugten Implementierungen primär anhand der Transitionsauswahl, da diese speziell bei komplexen Spezifikationen einen erheblichen Teil der Ausführungszeit bansprucht. Wir entwickeln dazu verschiedene heuristische Optimierungen der globalen Auswahl und der modullokalen Auswahl und werten diese sowohl analytisch wie auch experimentell aus. Wesentliche Ansatzpunkte sind dabei verschiedene ereignisgesteuerte Auswahlverfahren auf globaler Ebene und die Reduktion der zu untersuchenden Transitionen auf lokaler Ebene. Die Überprüfung der Ergebnisse anhand der ausführungszeitbezogenen Leistungsbewertung bestätigt diese Ergebnisse. Hinsichtlich der effizienten Handhabung von Daten untersuchen wir unterschiedliche Ansätze auf verschiedenen Ebenen, die jedoch in den meisten Fällen eine problemunangemessene Ausrichtung der Spezifikation auf die effiziente Datenübertragung erfordern. Eine überraschend elegante, problemorientierte und effiziente Lösung ergibt sich jedoch auf Basis der Containertyp-Erweiterung, die ursprünglich zur Steigerung des Abstraktionsniveaus eingeführt wurde. Dieses Ergebnis widerlegt die Vorstellung, dass Maßnahmen zur Steigerung der effizienten Implementierbarkeit auch immer durch eine Senkung des Abstraktionsniveaus erkauft werden müssen.
Im Mittelpunkt dieser Arbeit standen die Synthese und Charakterisierung neuartiger basischer Feststoffkatalysatoren. Für die Herstellung dieser neuen Materialien wurden Zeolithe, mesoporöse Molekularsiebe sowie mikroporöse und amorphe Aluminiumphosphate bei Temperaturen von 700 °C bis 850 °C im Ammoniakstrom behandelt. Die Charakterisierung erfolgte mittels Röntgen-Pulverdiffraktometrie, Stickstoffadsorption, Thermogravimetrie/Massenspektrometrie, temperaturprogrammierter Desorption von Pyrrol und DRIFT-spektroskopischen Untersuchungen. Die katalytischen Eigenschaften wurden mit der Knoevenagel-Kondensation von Benzaldehyd mit Malonsäuredinitril bzw. Cyanessigsäureethylester sowie der Umsetzung von Limonen in der Gasphase getestet. Als Referenzmaterial wurde Zeolith NaY, der mit verschiedenen Kationen ausgetauscht bzw. mit Cäsiumacetat imprägniert wurde, verwendet. Sowohl die Röntgen-Pulverdiffraktogramme als auch die Bestimmung der spezifischen Oberflächen durch Stickstoffadsorption ergaben, dass nach der Ammoniakbehandlung die Struktur der verwendeten Katalysatoren im Wesentlichen erhalten blieb. Anhand von DRIFT-Spektren, die während der Ammoniakbehandlung aufgenommen wurden, konnte nachgewiesen werden, dass ein Einbau von Stickstoff in die Gerüste der Zeolithe, mesoporösen Molekularsiebe und Aluminiumphosphate erfolgte. Mit Hilfe der temperaturprogrammierten Desorption von Pyrrol konnten verschiedene basische Zentren bei den einzelnen Katalysatoren detektiert werden. Durch die Nitridierung wurde bei fast allen Katalysatoren eine Veränderung der Adsorptionseigenschaften von Pyrrol gemessen, die auf eine größere Anzahl bzw. auf stärker basische Zentren hindeutet. IR-spektroskopische Untersuchungen zur Adsorption von Pyrrol zeigten, dass die Ammoniakbehandlung zu einer Zunahme der Stärke von basischen Zentren führt. Die katalytischen Tests in der Knoevenagel-Kondensation ergaben, dass in fast allen Fällen eine Aktivitätssteigerung des ammoniakbehandelten Katalysators im Vergleich zum unbehandelten Ausgangsmaterial erfolgte. Die Aktivität ist dabei abhängig von den Modifizierungsbedingungen wie z.B. Behandlungsdauer und Behandlungstemperatur, aber auch von den Lagerungsbedingungen. Als weitere Testreaktion wurde die Umsetzung von Limonen gewählt. Anhand von mit Alkalimetall ausgetauschten Zeolithen mit FAU-Struktur konnte gezeigt werden, dass die p-Cymol-Ausbeute ein Maß für die Basizität der Katalysatoren ist. Bei fast allen Katalysatoren wurde eine Steigerung der p-Cymol-Ausbeute infolge der Ammoniakbehandlung gefunden. Neben dem Si:Al-Verhältnis spielen auch die Gegenionen und die Anzahl von Silanolgruppen eine entscheidende Rolle.
Liquid Composite Moulding (LCM) has become an economic technique for the manufacture
of advanced composite lightweight structures in many cases. Meanwhile the
acronym LCM represents more than a dozen of varying process types, which all have
the principle in common that a liquid monomer is firstly injected into a cavity filled with
a reinforcing fibre preform and secondly it forms the part by chemically reacting to a
solid polymer network. A distinctive feature of the LCM process variations is their
applicability to the fabrication of a variety of different part sizes and shapes. Within
this development numerical process simulation has become an important engineering
tool for mould design and process control. Thereby the research focuses on the
simulation of resin flow through a fibrous reinforcement, because this turned out to be
the most critical process within the manufacture of composites by applying LCMTechnologies.
With the software commercially available the mould-filling pattern can
be simulated depending on the locations and number of inlet and outlet gates, resin
rheology, injection rate and pressure, thermal effects and the physics of liquid flow
through fibre preforms. Hereby the standard flow modelling bases on a proportional
relationship between the flow rate and the applied pressure gradient, which is known
as D´Arcy’s law. The describing proportional factor is called the permeability. Its
value depends on the considered flow direction because of a non-isotropic structural
arrangement of the fibre reinforcement. It becomes clear that the permeability affects
the injection process crucially and so the knowledge about it is indispensable for the
realistic prediction of a filling pattern by flow simulation.
Due to the complexity of the inner structure of a textile reinforcement the resulting
multiphase flow cannot be described adequately by an analytical model at the current
stage of research, so that the permeabilities of planar textile reinforcements like woven or non-crimped fabrics is usually obtained from flow measurements. A variety
of experimental set-ups were developed, which allow the tracking of the fluid flow
through the textile reinforcement. The permeability is derived from the flow data by
applying D´Arcy´s law. Most of these test-rigs allow the determination of the in-plane
flow characteristics only, because they are dominant in the most classical processing
techniques. But the simulation of these processes produces still significant errors,
which result from neglecting the out-of-plane flow. Since new liquid composite moulding
processes like SCRIMP™ or resin film infusion were developed, the knowledge of
the permeability in thickness direction becomes as important as the in-plane charac teristics so that researchers started to measure flow in thickness direction and developed
flow models which include the principle permeability in thickness direction. The
main arising difficulties are the measuring and the modelling for the calculation of the
permeability from flow front data. The objective of this work is to overcome these
problems by the development of a test-rig for the measure of the flow in thickness
direction and by determining a transformation rule, which addresses the unsolved
geometric boundary condition at the injection port.
After investigating the existing instrumentation for measuring flow in thickness direction
a new sensor concept is developed on the basis of ultrasound transmission,
which enables a steady collection of the actual position of a flow front. The applicability
of this test-rig was tested within the measure of the flow through different woven
and non-crimped fabrics. The permeability values, which were obtained from the flow
data with the aid of the improved analytic model, were validated by two-dimensional
radial flow experiments.
Die Nähtechnik in Verbindung mit Harzinfusions- und -injektionstechniken eröffnet
ein erhebliches Gewichts- und Kosteneinsparpotential primär belasteter
Strukturbauteile aus Faser-Kunststoff-Verbundwerkstoffen. Dabei ist es unter
bestimmten Voraussetzungen möglich, durch Vernähungen gezielte Steigerungen
mechanischer Eigenschaften zu erreichen. Ein genaues Verständnis wirksamer
Zusammenhänge bezüglich der Änderung mechanischer Kennwerte verglichen mit
dem unvernähten Verbund ist unverzichtbar, um einen Einsatz dieser Technologie im
zivilen Flugzeugbau voranzubringen.
Im Rahmen dieser Arbeit wird eine breit angelegte experimentelle Parameterstudie
zum Einfluss verschiedener Nähparameter auf Scheiben-Elastizitäts- und
Festigkeitseigenschaften von kohlenstofffaserverstärkten Epoxidharzverbunden unter
Zug- und Druckbelastung durchgeführt. Neben der Stichrichtung, der Garnfeinheit,
dem Nahtabstand und der Stichlänge wurde auch die Belastungsrichtung variiert. Bei
einigen Parametereinstellungen konnten keine Änderungen des Elastizitätsmoduls
oder der Festigkeit in der Laminatebene festgestellt werden, wohingegen in anderen
Fällen Reduktionen oder Steigerungen um bis zu einem Drittel des Kennwerts des
unvernähten Laminats beobachtet wurden. Dabei ist vor allem der Einfluss der
Garnfeinheit dominierend.
Die Fehlstellenausbildung infolge eines Stichs in Abhängigkeit der gewählten
Parameter und der Orientierung der Einzelschicht wurde anhand von Schliffbildern in
der Laminatebene untersucht. Ein erheblicher Einfluss der einzelnen Parameter auf
die Fehlstellenausbildung ist festzustellen, wobei wiederum die Garnfeinheit
dominiert. Anhand der Ergebnisse der Auswertung der Fehlstellenausbildung in den
Einzelschichten wurde ein empirisches Modell generiert, womit charakteristische
Fehlstellengröße n wie die Querschnittsfläche, die Breite und die Länge in
Abhängigkeit der genannten Parameter berechnet werden können.
Darauf aufbauend wurde ein Finite-Elemente-Elementarzellenmodell generiert, mit
welchem Scheiben-Elastizitätsgrößen vernähter Laminate abgeschätzt werden
können. Neben der Berücksichtigung der genannten Nähparameter ist der zentrale
Aspekt hierbei die Beschreibung eines Stichs in Form von Reinharzgebiet und
Faserumlenkungsbereich in jeder Einzelschicht.
Stitching technology in combination with Liquid Composite Molding techniques offers
a possibility to reduce significantly weight and costs of primarily loaded structural
parts made of Fiber Reinforced Polymers. Thereby, it is possible to enhance
mechanical properties simultaneously. It is essential to understand effective
correlations of all important parameters concerning changes in mechanical
characteristics due to additional stitching if stitching technologies have to be
established in the civil aircraft industry.
In this thesis, a broad experimental study on the influence of varying stitching
parameters on the membrane tensile and compressive modulus and strength of
carbon fiber reinforced epoxy laminates is presented. The direction of stitching,
thread diameter, spacing and pitch length as well as the direction of testing had been
varied. In some cases, no changes in modulus and strength could be found due to
the chosen parameters, whereas in other cases reductions or enhancements of up to
30 % compared to the unstitched laminate were observed. Thereby, the thread
diameter shows significant influence on these changes in mechanical properties.
In addition, the stitch and void formation in the thickness direction due to the stitching
parameters was investigated by evaluating micrographs in each layer of the laminate.
Again, the thread diameter showed an outstanding influence on the characteristics of
matrix pure area (void) and fiber disorientation. A mathematical model was evaluated
in order to predict in-plane characteristics of stitches and voids, from which the cross
sectional area, the width and the length of a void due to the chosen stitching
parameters can be derived.
Finally, a Finite Element based unit cell model was established to calculate elastic
constants of stitched FRP laminates. With this model it is possible to consider a stitch
as a matrix pure region and additionally an area of in-plane fiber disorientation
depending on the stitching parameters as introduced above. The model was
validated using the experimental data for tensile and compressive loading.
The outstanding flexibility of this FE unit cell approach is shown in a parametric
study, where different void formations as well as stitching parameters were varied in
a stitched, unidirectional laminate. It was found that three different aspects influence
significantly the in-plane elastic constants of stitched laminates. First of all, the
stitching parameters as well as the laminate characteristics define the shape of the
unit cell including the areas of the stitch and the fiber disorientation. Secondly,
stitching changes the fiber volume fraction in all layers, which causes changes in
elastic properties as well. Thirdly, the type and the direction of loading has to be
considered, because each change in the architecture of the laminate results in
different effects on the in-plane elastic constants namely tensile, compressive or
shear moduli as well as the Poisson´s ratios.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für die Jahr 2003.
Die Budgetierung ist seit langem ein, wenn nicht das zentrale Controllinginstrument. Jenseits der Budgetierung setzt demnach ein neues Controllingverständnis ein. Es mangelt nicht an Stimmen, die ein rasant gesteigertes Maß an Komplexität und Dynamik in der unternehmerischen Wirklichkeit feststellen und ihre Schlussfolgerungen in neue Konzepte und Instrumente zur Überwindung dieser Herausforderungen fließen lassen. Die Protagonisten des Beyond Budgeting (BB) bedienen sich der für diese Phänomene typischen Rhetorik, bieten aber, statt eines isoliert zu betrachtenden Instrumentes, eine neue Controllingphilosophie der radikalen Dezentralisierung und Delegation zur Überwindung der aktuellen Herausforderungen an. Es handelt sich dabei „um einen bestimmten Mindset, um eine bestimmte Denke, nämlich […], zu versuchen, von einer festen Sicht der Welt zu einer dynamischen Sicht der Welt zu kommen.“ Beyond Budgeting kommt einer Revolution der Unternehmensführung gleich, welche nicht nur konzeptionell, sondern auch in Abhängigkeit von Marktgegebenheiten und sozio-kulturellen Kontextfaktoren landestypischer und unternehmensspezifischer Natur auf ihre Erfolgschancen hin zu überprüfen ist. Protagonisten sprechen hier von einer notwendigen organisatorischen und kulturellen Reife für die Einführung des Beyond Budgeting. Ziel der vorliegenden Arbeit ist es, basierend auf der klassischen Studie von Hofstede, einen kulturellen Ordnungsrahmen für die fiktive Beyond-Budgeting-Kultur zu entwickeln und mit der Landeskultur mehrerer Industrienationen zu vergleichen. Bestehende Kompatibilitäten und Inkompatibilitäten sollen anhand dieses Ordnungsrahmens aufgezeigt und bewertet werden. Abgeschlossen wird der vorliegende Artikel mit Überlegungen, in wie weit durch die angestrebte Unternehmenskultur auch die Rolle des Controllers einer Anpassung oder gar Neudefinition bedarf.
Caloric Restriction (CR) is the only intervention proven to retard aging and extend maximum lifespan in mammalians. A possible mechanism for the beneficial effects of CR is that the mild metabolic stress associated with CR induces cells to express stress proteins that increase their resistance to disease processes. In this article we therefore model the retardation of aging by dietary restriction within a mathematical framework. The resulting model comprises food intake, stress proteins, body growth and survival. We successfully applied our model to growth and survival data of mice exposed to different food levels.
Congress Report 2004.01
(2004)
Congress Report 2004.02
(2004)
Congress Report 2004.03
(2004)
Congress Report 2004.04
(2004)
Congress Report 2004.05
(2004)
Congress Report 2004.06
(2004)
Congress Report 2004.07-08
(2004)
Congress Report 2004.09
(2004)
Congress Report 2004.10
(2004)
Congress Report 2004.11-12
(2004)
Von einer Controllingkonzeption ist zu fordern, dass sie konsistente Aussagen zur funktionalen, institutionalen und instrumentalen Komponente des Controllings enthält. Eine derartige konsistente Konzeption ist bislang jedoch für das Controlling noch nicht formuliert worden. Hieraus erwächst die Notwendigkeit, die konzeptionelle Fundierung des Controllings weiter zu entwickeln. Dazu werden im Folgenden die kognitiven Beschränkungen realer Entscheidungsträger als Ausgangspunkt gewählt und damit letztlich die Frage, wie das Controlling einen betrieblichen Entscheidungsträger befähigen kann, „bei seinen intellektuellen Vorhaben effektiver zu sein“. Als konzeptionelle Basis hierfür dient die „...fast ausschließlich US-amerikanische[.]“managerial and organizational cognition theory, in deren Rahmen seit Anfang der neunziger Jahre Entscheidungsprozesse von Managern auf Basis entscheidungstheoretischer und kognitionswissenschaftlicher Erkenntnisse thematisiert werden. Danach sind Manager in erster Linie information workers, „...who are confronted with the task of making sense of very complex and ambiguous environments.“ und deren Arbeit in der Aufnahme, Analyse und Weitergabe von Informationen besteht.
Die Grundgleichungen der Physikalischen Geodäsie (in der klassischen Formulierung) werden einer Multiskalenformulierung mittels (sphärisch harmonischer) Wavelets unterzogen. Die Energieverteilung des Störpotentials wird in Auflösung nach Skala und Ort durch Verwendung von Waveletvarianzen beschrieben. Schließlich werden zur Modellierung der zeitlichen Variationen des Schwerefeldes zeit- und ortsgebundene Energiespektren zur Detektion lokaler sowie periodischer/saisonaler Strukturen eingeführt.
Die Balanced Scorecard ist seit den ersten Veröffentlichungen zu diesem Konzept Anfang der neunziger Jahre in vielen Unternehmen und anderen Institutionen als ein Instrument zur Verwirklichung eines ganzheitlichen Performance-Measurement-Ansatzes eingeführt worden. Hervorgerufen durch die unterschiedlichen Abgrenzungen, die zwischen der Institution und dem Aufgabenbereich des Managements und des Controllings vorgenommen werden, wird die BSC in der Literatur, der gewählten Abgrenzung entsprechend, sowohl als Management-Instrument als auch als Controlling-Instrument tituliert. Ziel der empirischen Untersuchung, die diesem Arbeitspapier zu Grunde liegt, war es herauszufinden, welche Institution im Unternehmen welchen Schritt bei der Ein- und Fortführung der BSC übernimmt bzw. dabei federführend ist. Der Fokus liegt dabei auf der Zuteilung zum Management bzw. Controlling. Dazu wurde eine breit angelegte Umfrage unter deutschen Unternehmen vorgenommen.
Diese Arbeit befasst sich mit der Quantendynamik in gekippten periodischen Strukturen, den so genannten Wannier-Stark-Systemen. Eine wichtige experimentelle Realisierung eines solchen Systems ist die Dynamik ultrakalter Atome in optischen Gittern unter dem Einfluß einer externen Kraft, z.B. der Gravitation. Zunächst wird die Dynamik eines einzelnen quantenmechanischen Teilchens in zweidimensionalen Wannier-Stark-Systemen analysiert. Dieses Teilchen zeigt Lissajous-artige Oszillationen, deren Dynamik sehr sensitiv von der Richtung der externen Kraft abhängt. Im zweiten Teil der Arbeit wird die Dynamik eines Bose-Einstein-Kondensats im Rahmen eine mean-field-Näherung (Gross-Pitaevskii-Gleichung) untersucht. Neue Phänomene wie eine Zusammenbruch und Wiederaufleben der Oszillationen können mittels einer Entwicklung nach Wannier-Stark-Funktionen in einem einfachen Modell erklärt werden. Schließlich werden die Eigenschaften von gebundenen und Resonanz-zuständen der Gross-Pitaevskii-Gleichung für zwei einfache Modellsysteme (delta-Potential und delta-shell-Potential) untersucht.
Ein maßgeschneidertes Kommunikationssystem für eine mobile Applikation mit Dienstgüteanforderungen
(2004)
In diesem Beitrag wird die Maßschneiderung eines Ad-Hoc-Kommunikationssystems zur Fernsteuerung eines Luftschiffs über WLAN vorgestellt. Dabei steht die Dienstunterstützung bei der Übertragung mehrerer Datenströme im Vordergrund. Es werden verschiedene Dienstgütemechanismen erklärt und deren Entwicklung und Integration in ein Kommunikationsprotokoll mit Hilfe eines komponentenbasierten Ansatzes genauer erläutert.
In Deutschland und einigen anderen Ländern ist das Mischsystem weit verbreitet. Aus diversen Gründen (z.B. aus Kostenaspekten) ist es aber bei Regenwetter nicht immer möglich, den gesamten Mischwasserabfluss auch zur Kläranlage weiter zu leiten. Ein gewisser Anteil des Mischwasserabflusses muss daher entweder im Kanalnetz zwischengespeichert oder aber über Entlastungsbauwerke direkt in die Einleitgewässer abgeschlagen werden, woraus erhebliche Gewässerbelastungen resultieren können. Hinzu kommt, dass die Teilsysteme "Kanalnetz" und "Kläranlage" meist noch unabhängig voneinander betrieben werden, sodass es zu Entlastungsereignissen kommen kann, obwohl zur gleichen Zeit an anderer Stelle im Gesamtsystem noch freie Speicher- und/oder Behandlungskapazitäten zur Verfügung stehen. Deshalb gewinnen seit einigen Jahren sog. integrierte Ansätze an Bedeutung, die versuchen, Kanalnetz und Kläranlage mit Hilfe von MSR-Technik in Abhängigkeit der jeweils aktuellen Leistungsfähigkeit dieser Teilsysteme zu betreiben, um dadurch die Emissionen und ggf. die Kosten zu verringern. Man kann daher in der neueren Literatur zahlreiche Veröffentlichungen zu diesem Themenkomplex finden, die sich jedoch bisher praktisch nur mit Durchlaufkläranlagen beschäftigt haben. SBR-Kläranlagen wurden diesbezüglich bisher vernachlässigt, obwohl diese Technologie prinzipiell durch eine ganze Reihe von Vorteilen gekennzeichnet ist. Zahlreiche großtechnische SBR-Kläranlagen belegen zudem, dass sich dieses Verfahren auch sehr gut zur Mischwasserbehandlung eignet. Wegen dieser Randbedingungen erschien es sinnvoll, auch integrierte MSR-Strategien für SBR-Anlagen zu entwickeln. Im Rahmen dieser Arbeit wurden daher auf der 2000 in Betrieb genommenen SBR-Kläranlage Messel (5.500 EW) zahlreiche Untersuchungen durchgeführt, um den Nutzen und die Machbarkeit derartiger Konzepte zu untersuchen. Diese nach den üblichen Regelwerken für Nitrifikation, Denitrifikation, biologische Phosphorelimination und aerobe Schlammstabilisierung bemessene Kläranlage ist typisch für eine Reihe weiterer ähnlicher Anlagen. Um das Potenzial eines integrierten Ansatzes zu ermitteln, wurden detaillierte Kanalnetz- und Kläranlagenmodelle erstellt und kalibriert, mit denen zahlreiche Untersuchungen durchgeführt wurden. Ferner wurden die umfangreichen Betriebsdaten ausgewertet. Dabei konnte festgestellt werden, dass die Anlage über beachtliche Reserven verfügt, die z.B. für Zwecke einer erhöhten Mischwasserbehandlung genutzt werden könnten. Mit Hilfe der Modelle und ergänzender großtechnischer Untersuchungen wurden anschließend verschiedene integrierte MSR-Strategien am Computer entwickelt und bezüglich ihres Nutzens bewertet. Die Ergebnisse der integrierten Simulation zeigen beispielsweise, dass es mit Hilfe dieser Strategien möglich erscheint, die Zuflussmenge zur Kläranlage um bis zu 50 % über den Planungswert zu erhöhen, ohne die strengen Überwachungswerte zu überschreiten. Die Ergebnisse zeigen weiterhin, dass es durch eine Erhöhung der Zuflussmenge möglich ist, die Gesamtemissionen aus Kanalnetz und Kläranlage - v.a. bezüglich CSB - und die Anzahl der Entlastungsereignisse deutlich zu verringern. Eine durchgeführte Kostenbetrachtung verdeutlicht, dass ein derartiger Ansatz - trotz der geringen Größe dieser Anlage - nicht nur ökologisch, sondern auch ökonomisch sinnvoll ist. Damit erscheint es wünschenswert, dass zukünftig auch die großtechnische Umsetzung integrierter Ansätze für SBR-Kläranlagen und Mischkanalisationen in Angriff genommen wird, um die bisher gewonnenen Erkenntnisse in der Praxis zu verifizieren.
Entwurf und Optimierung neuer Versuchsanordnungen zur Charakterisierung der Haftung an Grenzflächen
(2004)
Die Beurteilung der mechanischen Haftungsqualität an Grenzflächen ist eine entscheidende Voraussetzung zur aktiven Gestaltung von heterogenen Werkstoffen. Die vorliegende Arbeit zeigt neue Wege für den Entwurf und die Optimierung der dazu nötigen Testverfahren auf. Ausgehend von der zu messenden Größe muß eine Versuchsanordnung
oder eine Probengeometrie entworfen werden, die aufgrund ihrer Konzeption die zu einer verläßlichen Messung notwendigen Voraussetzungen schafft. Mit Hilfe von numerischen Verfahren können auch komplizierte Probengeometrien analysiert und optimiert und die Anwendbarkeit von einfachen Auswerteverfahren überprüft werden.
Ziel ist eine einfache Formel zur Auswertung, die die komplizierte Geometrie nur in Form von einmalig zu bestimmenden Formfaktoren enthält.
Diese Grundidee wird in der vorliegenden Arbeit anhand von drei verschiedenen Versuchsanordnungen ausgeführt, jede wird umfassend analysiert und auch experimentell auf ihre Durchführbarkeit überprüft.
Ausgehend vom BROUTMAN-Versuch (Faser-Matrix-Grenzfläche) beschreibt Kapitel 2 eine Probengeometrie, die eine homogene Grenzflächenbelastung durch eine geeignete Kerbung der Probe aus der äußeren Zugbelastung erzeugt. Die gleichförmige Zugbelastung ist die Voraussetzung für die Anwendbarkeit des Festigkeitskonzeptes.
Zur Berechnung der Festigkeit aus den experimentellen Daten wird eine Näherungsformel abgeleitet, die die Probengeometrie nur als Formfaktoren enthält. Die optimale Probengeometrie und die zugehörigen Formfaktoren folgen aus einer Parameterstudie mit Hilfe der Methode der Finiten Elemente.
Ein experimenteller Vergleich des ursprünglichen BROUTMAN-Versuchs mit dem vorgeschlagenen Zugversuch zeigt die prinzipielle Anwendbarkeit der Versuchsanordungen und des Festigkeitskonzeptes. Der Vergleich stützt weiterhin das Gesamtkonzept, denn die Herstellung der Probenkörper beider Versuchstypen erfolgt sehr ähnlich,während die Grenzflächenbelastung auf sehr unterschiedliche Weise erzeugt wird. Sie stellen deshalb zwei verschiedene Methoden zur Messung derselben Größe dar. In einer zweiseitig gekerbten Zugprobe entsteht durch die Kerbe eine Zugspannung quer zur Hauptbelastungsrichtung. Besteht der Probenkörper aus zwei einseitig gekerbten, beispielsweise durch Kleben zusammengefügten Hälften, so entsteht ebenfalls eine gleichförmige Zugbelastung eines ausgedehnten Bereiches der Grenzfläche.
Diese Idee wird im Kapitel 3 anhand einer Meßreihe aus gleichen Hälften untersucht.
Ein Finite-Elemente-Modell dient außerdem dazu, die optimale Geometrie für einen Probenkörper aus zwei einseitig gekerbten Teilen verschiedenen Materials zu ermitteln.
Es zeigt auch einen weiteren Vorteil dieser Probenform, denn plastische Deformationen beginnen stets im Kerbgrund, nicht an der Grenzfläche. Plastizität beeinflußt die Ergebnisse deshalb weniger, sie bleiben vergleichbar, auch wenn bei einigen Materialsystemen
teilweise plastische Deformationen auftreten.
Treten dagegen vor dem Grenzflächenversagen ausgedehnte plastische Deformationen in der Umgebung der Grenzfläche auf, so entsteht dadurch ein komplexer Spannungszustand, dem das Festigkeitskonzept kaum Rechnung tragen kann. Weiterhin erfolgt Versagen dann zumeist als fortschreitender Riß, so daß ein bruchmechanisches Konzept unumgänglich ist. In dieser Situation wird bei Proben aus homogenem Material mit Anfangsriß das Konzept der realen Brucharbeit bereits erfolgreich angewendet.
Dieses Konzept beschreibt aber auch zufriedenstellend das Versagen von Grenzflächen zwischen unterschiedlichen Materialien, wie anhand einer Versuchsreihe und umfangreichen numerischen Rechnungen im Kapitel 4 gezeigt wird. Das numerische Modell umfaßt ein elastisch-plastisches Materialgesetz mit Verfestigung, Rißausbreitung unter Belastung und ein an die Energiefreisetzungsrate angelehntes Energie-Kriterium
zur Simulation des Rißwachstums. Es geht damit weit über die meisten aus der Literatur bekannten Simulationen hinaus.
Der Glucocorticoid-Rezeptor (GR), der zu den Steroidhormon-Rezeptoren zählt, reguliert physiologische Prozesse durch Aktivierung und Repression spezifischer Zielgene. Der ligandengebundene Rezeptor aktiviert die Genexpression, indem er als Dimer an spezifische DNA-Sequenzen (glucocorticoid response element, GRE) bindet. Der GR reprimiert seine Zielgene entweder durch Bindung an negative GREs (nGREs, Cis-Repression) oder durch DNA-unabhängige Bindung an andere Transkriptionsfaktoren wie AP-1 oder NF-(kappa)B (Trans-Repression). Glucocorticoide sind sehr effektive Medikamente für die Behandlung entzündlicher Erkrankungen. Langzeittherapie mit Glucocorticoiden ist jedoch problematisch wegen der auftretenden Nebenwirkungen. Bisher ging man davon aus, dass die anti-inflammatorischen Wirkungen der Glucocorticoide weitgehend über den Mechanismus der Trans-Repression reguliert werden, wohingegen die Nebenwirkungen vor allem durch DNA-bindungsabhängige Aktivierung (GRE) und Repression (nGRE) von Zielgenen vermittelt werden. In der vorliegenden Arbeit wurde die DNA-bindungsabhängige Cis-Repression untersucht. Dabei wurden sowohl neue nGRE-Bindungselemente identifiziert, als auch bereits bekannte Elemente hinsichtlich der involvierten Kofaktoren näher charakterisiert. Es wurde mit Hilfe des ABCD-Bindungstests die Affinität des GR zum DNA-Element in Abhängigkeit vom Ligandenbindungsstatus (Agonist, Antagonist, ohne Ligand) des Rezeptors untersucht. Der Rezeptor bindet das Konsensus-DNA-Element in vitro weitgehend unabhängig von dem eingesetzten Liganden. Der ABCD-Bindungstest wurde außerdem eingesetzt, um GR-Kofaktoren mittels Western Blot und Massenspektrometrie zu identifizieren. Der Korepressor N-CoR (nuclear receptor corepressor) bindet den GR-DNA-Komplex in vitro in Abhängigkeit vom Ligandenbindungsstatus. Massenspektrometrisch konnten mit dieser Methode Proteine wie Hsp90, Hsp70 und (beta)-Tubulin identifiziert werden. Die Konsensussequenz von nGREs weist erhebliche Unterschiede zu der klassischen GRE-Sequenz auf. Es konnte in vitro gezeigt werden, dass der GR zu nGREs eine deutlich niedrigere Bindungsaffinität hat als zu GREs. Derzeit geht man davon aus, dass die DNA die Konformation des Rezeptors durch allosterische Effekte moduliert. Mit Hilfe des partiellen Proteaseverdaus konnte ein Hinweis dafür erbracht werden, dass der Glucocorticoid-Rezeptor auf einem positive GRE in einer anderen Konformation vorliegt als auf einem negativen GRE, was in einem unterschiedlichen Bandenmuster resultiert. Die mRNA-Expressionsanalyse (Affimetrix) von T-Zellen aus GRwt- bzw. GRdim/dim-Mäusen ergab eine bisher unerwartete Rolle der DNA-abhängigen GR-Genregulation in der inflammatorischen Immunantwort (G. Schütz und P. Krammer, DKFZ). In der vorliegenden Arbeit wurden die Gene FasLigand (CD95L) und SOCS-3 bezüglich vorhandener nGREs sowohl in silico als auch in vitro analysiert. Die GR-vermittelte Repression des FasL spielt bei dem aktivierungs-induzierten Zelltod (AICD) eine Rolle. SOCS-3 blockiert die Wirkung von Zytokinen durch Inhibierung des JAK/STAT-Signaltransduktionsweges und ist in die Regulation der HPA-(hypothalamic-pituitary-adrenal) Achse eingebunden. Um die Hinweise der mRNA-Expressionsanalyse zu bestätigen, wurden Luciferase-Reportergentests mit FasL- bzw. SOCS-3-Promotorkonstrukten bei Kotransfektion von GRwt oder GRdim durchgeführt. Im Vergleich mit bereits charakterisierten Promotoren konnte sowohl für FasL als auch für SOCS-3 der Mechanismus der Cis-Repression nachgewiesen werden. Negative GREs zeigen im Gegensatz zu positiven GREs keine gute Konservierung der DNA-Sequenz. Um potenzielle nGREs in den neuen Zielgenen in silico zu charakterisieren, wurde durch Analyse bereits charakterisierter nGREs ein Suchmuster entwickelt. Die ermittelten DNA-Bereiche wurden im ABCD-Bindungstest auf ihre Affinität zum GR überprüft. Für den FasL-Promotor konnten drei potenzielle GR-Bindungselemente ermittelt werden. Zwei dieser Bindungsstellen binden den GR im Kontext der Zelle (Chromatin-Immunpräzipitation, N. Novac, AG Heinzel). Für den SOCS-3-Promotor wurden zwei GR-Bindungsstellen charakterisiert. In der vorliegenden Arbeit konnte durch die Ermittlung neuer negativer Bindungselemente des GR ein Hinweis dafür erbracht werden, dass nGREs auch im Kontext der Immunsuppression eine Rolle spielen, und dass der Korepressor N-CoR möglicherweise bei der Cis-Repression von Bedeutung ist.
Im industriellen Zeitalter stand zunächst die Funktionstüchtigkeit der Massenprodukte im Vordergrund. Insbesondere mit Einführung und Verbreitung der Rechnerunterstützten Konstruktion ist dieser Aspekt weitgehend beherrschbar geworden. Die Funktionstüchtigkeit wird zudem sowohl durch nationale Gesetze gefordert, als auch durch die in den meisten Fällen vorhandene globale Konkurrenzsituation. Als Folge nimmt die Bedeutung des "Designs" von Konsumgütern aller Art zu, seien es Kaffeemaschinen, Staubsauger oder Automobile. Insbesondere die Entwicklung von Programmen zur rechnerinternen Modellierung von Freiformflächen hat zu diesem Trendwechsel einen Beitrag geliefert. Mit der Aufwertung der Produktform hat auch die Bedeutung der "Entwicklungsschleifen" im Bereich Design zugenommen. Das heißt, nach der rechnerinternen Modellierung und einiger optischer Begutachtungen am Bildschirm wird ein realer Prototyp hergestellt, um die Serienreife des Designs zu beurteilen. Diese wird nur in wenigen Fällen auf Anhieb erreicht, eine Überarbeitung der Flächen ist meistens notwendig. Diese Entwicklungsschleifen sind sowohl zeit- als auch kostenaufwendig. Um die Beurteilung rechnerinterner Freiformflächen zu verbessern, wird im Rahmen der vorliegenden Arbeit ein Gerät entwickelt und getestet, das dem Designer die Möglichkeit eröffnen soll, an seinem CAS-/CAD-Arbeitsplatz die rechnerinternen Flächen nicht nur optisch, sondern auch haptisch und damit präziser beurteilen zu können. Das entwickelte Gerät, "Haptische Hand" genannt, präsentiert mit Hilfe einer in jeder Richtung neigbaren "Taumelscheibe" die Tangentenebene eines beliebigen Punktes der rechnerinternen Flächen. Wenn nun der Designer eine zusammenhängende Folge von Ebenenwerten auf die Taumelscheibe überträgt, so soll er dadurch die Gestalt der Fläche wahrnehmen und erkennen. Es ist außerdem möglich die Taumelscheibe anzuheben, die damit über insgesamt drei von Servomotoren angesteuerte Freiheitsgrade verfügt. Ziel dieses einfachen Konzeptes ist, das Gerät mit einer Standard-Computermaus in einem Gehäuse zu integrieren, um ein preiswertes, marktfähiges Produkt zu erreichen. Um die Behauptung der Wahrnehmbarkeit zu prüfen, wurden zwei Versuchsreichen durchgeführt. In einer ersten Versuchsreihe wurden fünf Flächen nach dem Flächenschema von Koenderink mit einem CAD-System modelliert und in vielen Variationen von mehreren Dutzend Versuchspersonen im wesentlichen haptisch wahrgenommen. Es ergab sich, dass die modellierten Flächen mit einer durchschnittlichen Erkennungsrate von 80% in einer durchschnittlichen Erkennungszeit von 25 sec erkannt werden konnten. In einer zweiten Versuchsreihe in Anlehnung an die VDA-Empfehlung 4955 wurden Unstetigkeiten, Tangentenunstetigkeiten und Krümmungsunstetigkeiten untersucht. Ergebnis war, dass die Versuchspersonen mehrheitlich dann Unstetigkeiten bei Flächenübergängen haptisch wahrnehmen können, wenn diese mehr als 0,1 mm beträgt. Bei tangentialer Unstetigkeit ist ein Mindestwert von 1,2° die Voraussetzung für eine haptische Wahrnehmung durch die Mehrheit der Testpersonen. Die Untersuchung von Flächen mit variablen Krümmungsverläufen zeigte, dass die Mehrheit der Versuchspersonen die Flächenquerschnitte und damit die Krümmungswerte korrekt erkannte. Die Ergebnisse der ersten Versuchsreihe zeigen im Vergleich zu anderen Untersuchungen mit einem anderen, kommerziell verfügbaren Gerät, dass die Eigenentwicklung ähnliche Leistungsmerkmale bei der haptischen Präsentation rechnerinterner Freiformflächen besitzt, zusätzlich aber den Vorteil einer einfachereren und damit preiswerteren Konstruktion aufweist. Aus der zweiten Versuchsreihe hingegen ergibt sich die Verpflichtung zur weiteren Erforschung der bemerkenswerten Unterschiede zwischen der haptischen Wahrnehmbarkeit bei rechnerinternen und bei realen Flächenübergängen. Die Eigenentwicklung ist zum Patent angemeldet und die Anmeldungsschrift offengelegt, um eine Vermarktung zu sichern. Zum Abschluß der Arbeit wird eine Reihe von Verbesserungs- und Ergänzungspotentialen aufgezeigt, die auch der Behebung der genannten Differenzen der Wahrnehmbarkeit zwischen rechnerinternen und realen Flächen dienen sollen. Die durchgeführten Versuche haben ergeben, dass es möglich ist, rechnerinterne Freiformflächen durch eine Folge rechnerextern dargestellter Tangentenebenen haptisch wahrnehmbar zu machen. Mit dem entwickelten Gerät kann also ein Designer an seinem CAS-/CAD-Arbeitsplatz die modellierten Flächen in Echtzeit haptisch wahrnehmen und präziser beurteilen als es durch reine Ansicht der Flächen auf dem Monitor möglich ist. Als Folge einer solchen Erweiterung der Benutzungsschnittstelle von CAS-/CAD-Systemen wird die Notwendigkeit, reale Prototypen zur Beurteilung der rechnerinternen Modelle herstellen zu müssen, abnehmen. Auf diese Weise kann mit geringem Einsatz, verglichen mit kommerziell verfügbaren Geräten, zur notwendigen Senkung der Entwicklungszeiten und Entwicklungskosten beim Styling/Design von Massenprodukten beigetragen werden.
Aufgrund der in der Extraktion vorkommenden physikalischen Vorgänge, wie Benetzung oder Koaleszenz, wird die Auslegung von Extraktionsprozessen auch in absehbarer Zukunft nicht ohne Laborversuche und Pilotierung in den entsprechenden Extraktionsapparaten auskommen. Eine Möglichkeit, die Anzahl an zeit- und kostenintensiven Versuchen in Technikumskolonnen zu verringern, bzw. ganz darauf zu verzichten, stellt der Einsatz von Miniplantextraktoren dar, die mit deutlich reduzierten Volumenströmen betrieben werden können. In dieser Arbeit wurde ein gerührter Miniplantextraktor der Bauart Kühni, mit einem Innendurchmesser von 32 mm, bezüglich Hydrodynamik und Stofftransport untersucht. Bei den Untersuchungen kam das für mittlere Grenzflächenspannungen von der EFCE empfohlene Teststoffsystem n-Butylacetat(d)–Wasser mit Aceton als Übergangskomponent zum Einsatz. Die sich in der Kolonne einstellende Hydrodynamik ist maßgeblich vom Koaleszenzverhalten dieses Stoffsystems abhängig. Beim Einsatz von undestilliertem Butylacetat wirkt sich die verschlechterte Koaleszenzneigung des Stoffsystems in der Ausbildung einer extremen, höhenabhängigen Zunahme des Dispersphasenanteils aus. Aufgrund der hohen Anzahl an einzelnen gerührten Compartments, kommt es schon bei moderaten Rührerdrehzahlen im oberen Teil der Kolonne zu Holdup-Werten nahe am Flutpunkt, während im unteren Teil der Kolonne die Tropfendispergierung unzureichend ist. Bei besser koaleszierenden Systemen ist die Holdup- Problematik in dieser Form nicht zu beobachten. Die Erhöhung der Compartmenthöhe erbrachte eine Steigerung der Belastbarkeit. Wird die freie Querschnittsfläche größer als 30% gewählt, so ist die Kolonne ähnlich belastbar wie eine Pilotkolonne mit Nenndurchmesser 150 mm. Bei den Untersuchungen zum Trennverhalten der Kolonne konnten, wie auch schon in den Arbeiten anderer Autoren, mit steigender Belastung Maxima im Verlauf der Trennwirkung beobachtet werden. Dieses atypische Verhalten der Trennleistung wird bei anderen Testgemischen nicht festgestellt. Eine Reduzierung der Compartmenhöhe wirkt sich im untersuchten Fall förderlich auf die Trennleistung aus. Bei optimalen Betriebsbedingungen liegt die Trennleistung des Miniplantextraktors bei ca. 8,5 Ntheo/m, also deutlich über der Trennleistung der Technikumskolonne. Zur Erklärung dieser erhöhten Trennleistung wurden einphasige Tracerexperimente zur Bestimmung des axialen Dispersionskoeffizienten der kontinuierlichen Phase durchgeführt. Es zeigt sich, dass die gemessenen Dispersionskoeffizienten im Schnitt ca. 3 mal kleiner sind, als in einer Technikumskolonne mit einem Nenndurchmesser von 150 mm. Basierend auf diesen Untersuchungen gelingt es, mit dem eindimensionalen Dispersionsmodell, die in der Kolonne gemessenen Konzentrationsverläufe zu beschreiben. Eine Möglichkeit, den dreidimensionalen Charakter der Strömung in einer Extraktionskolonne zu untersuchen, stellen die durchgeführten CFD-Simulationen dar. Sowohl in der Technikumskolonne, als auch im Miniplantextraktor induziert der Rührer eine torusförmige Strömung in einem Compartment. Ein Vergleich simulierter Axialgeschwindigkeiten mit PIV-Messungen, erbrachte eine zufrieden stellende Übereinstimmung. Die Analyse dieser Axialgeschwindigkeiten auf Stauscheibenhöhe in der Technikumskolonne, zeigt in bestimmten Bereichen deutliche Geschwindigkeitsüberhöhungen und Richtungsumkehr. In der Miniplantkolonne tritt dieser Effekt deutlich abgeschwächt auf, wodurch anzunehmen ist, dass diese "Nichtidealität" die Ursache für größere Dispersionskoeffizienten in Technikumskolonnen ist. Die Kombination aus Gittergröße im Miniplantextraktor und die in der Extraktion üblicherweise zu erwartenden Partikelgröße, beschränkt die Zweiphasensimulation auf die Berechnung des axialen Dispersionskoeffizienten der kontinuierlichen Phase. Die Simulation des Dispersionskoeffizienten der kontinuierlichen Phase, erbrachte mit dem Euler-Lagrange-Modell gute Ergebnisse. Analoge Simulationen mit einem vergrößerten Maßstab (Technikumskolonne mit Nennweite 150 mm) führten dagegen mit beiden Modellen zu deutlichen Abweichungen zu realen Dispersionskoeffizienten. Der für die Bestimmung der Umlaufzahl notwendige radiale Durchsatz des vom Rührer geförderten Volumenstroms, konnte mit CFD gut wiedergegeben werden. Die von Fischer experimentell bestimmten NEWTON-Zahlen werden in den Simulationen etwa 20-30% zu groß wiedergegeben.
Bei Frauen ist Brustkrebs mit einem Viertel aller Krebserkrankungen die am häufigsten diagnostizierte Krebsart, während die Inzidenz bei Männern wesentlich geringer ist. Nur 10-15% aller Brustkrebserkrankungen können auf familiär prädisponierende Faktoren wie BRCA1 und BRCA2 zurückgeführt werden. Eine genetische Prädisposition bei hereditärem männlichem Brustkrebs wird für BRCA2 bestätigt. Funktionelle Analysen geben Grund zur Annahme, dass BRCA2 eine duale Rolle besitzt. Neben der Caretaker-Funktion für genomische Stabilität, ist auch eine Gatekeeper-Funktion bei der Transkriptionsregulation beschrieben. Die Basis dieser Arbeit beruht auf der Beobachtung, dass männliche BRCA2-Mutationsträger von 3 verschiedenen Familien mit hereditärem Brustkrebs auffällige chromosomale Veränderungen der Region 9p23-24 aufweisen. Vorarbeiten ließen einen kausalen Zusammenhang zwischen BRCA2-Mutation und 9p-Veränderung möglich erscheinen. Das Ziel der Arbeit bestand darin, durch molekularbiologische Methoden die Bruchpunkte in 9p23-24 bei BRCA2-Mutationsträgern unabhängiger Familien zu identifizieren und damit einen weiteren Hinweis auf die Entstehung dieser Instabilität zu geben. In dieser Arbeit konnten mittels FISH, PFGE und bioinformatischer Techniken sowohl Inversionen als auch Duplikationen festgestellt werden. Eine überlappende Inversion zeigte sich hierbei deutlich bei allen untersuchten Mutationsträgern. Mit einer FISH-Analyse konnte bei den Mutationsträgern der Familien 1 bis 3 eine Inversion im Bereich der STS-Marker D9S267 und D9S775 detektiert werden. Ferner konnte durch Interphasen-FISH eine Duplikation im Bruchpunktbereich um den STS-Marker D9S268 identifiziert werden. Southern-Analysen konnten Bruchpunkte in den Mutationsträgern der Familien 1 und 2 mittels der Enzyme EcoRI und SacI bestätigen. In dieser Arbeit konnte weiterhin gezeigt werden, dass sich die Inversionsbruchpunkte der Mutationsträger 3.3, 3.4 und 3.5 von Familie 1 in der unmittelbaren Nähe von low-copy repeats befinden, deren Größe 5kb-8kb beträgt. Die identifizierte Inversion überspannt im Wesentlichen die Gene TYRP1 und mPDZ. Bei dem durch die Inversion direkt betroffenen Gen handelt es sich um das mPDZ-Gen. Das Protein besitzt 13 PDZ-Domänen, deren Interaktionspartner beschrieben sind. Die Genexpression beider Gene konnte in lymphoblastoiden Zellen nachgewiesen werden. Die Erkenntnisse erlauben die Schlussfolgerung, dass Repeat-Sequenzen in der Umgebung der Bruchpunkte bei der Entstehung von Rearrangements auch in diesen BRCA2-Mutationsträgern eine große Rolle spielen.
Integrin alpha6beta4 und Proteinkinase C in epidermaler Differenzierung und Haut-Carcinogenese
(2004)
Schlüsselereignisse bei der epidermalen Differenzierung sind das Ablösen der Basalzellen von der Basalmembran und ihre Aufwärtswanderung synchron zur terminalen Differenzierung mit dem Endstadium der Hornschuppen, die die äußerste Barriere bilden. Zellrezeptoren, die bei der Auslösung dieses Prozesses eine wichtige Rolle spielen, sind die Integrine, die einen erheblichen Anteil an der Gewebeorganisation haben. Andererseits sind Integrine auch maßgeblich an der zellulären Signaltransduktion beteiligt. Als Hauptkomponente der Hemidesmososmen, die die Basalzellen mit der darunter liegenden Basalmembran verbinden, kommt Integrin alpha6beta4 eine herausragende Funktion zu. Über seine cytoplasmatischen Domänen interagiert alpha6beta4 mit PKCalpha und PKCdelta, und wird dabei seinerseits modifiziert. Grundlegende Änderungen in der Integrin-Expression und -Verteilung werden bei der Tumorigenese beobachtet. Auffallend bei Hautcarcinomen sind vor allem die Dislokation und Überexpression von Integrin alpha6beta4, was weitreichende Konsequenzen für die PKC-Signaltransduktion hat. Ziel dieser Arbeit war daher die Analyse der Rolle von PKCalpha, PKCdelta und Integrin alpha6beta4 in Keratinozyten und deren mögliche Bedeutung bei der Tumorentstehung. Dabei sollte die Funktion von PKCalpha, PKCdelta und Integrin alpha6beta4 bei der Regulation von Zell-Matrix-Interaktionen, Migration und Differenzierung untersucht werden. Hierfür wurden normale humane primäre Keratinozyten und die humane Keratinozyten-Zell-Linie HaCaT, eine immortale „prämaligne“ Zelle, mit adenoviralen Konstrukten für PKCalpha, PKCdelta, für die Integrin alpha6-Kette und für beta-Gal als Negativkontrolle infiziert. Reproduzierbare Infektionen mit hohen Infektionseffizienzen und die langsam abnehmende Synthese der exogenen Proteine erlaubten funktionelle Analysen in zweidimensionalen Kulturen, als auch in der komplexeren, physiologischen, dreidimensionalen organotypischen Kokultur (OTK). In zweidimensionalen Kulturen erhöhte PKCdelta die Migrationsaktivität der Zellen, vermutlich durch reduzierte Adhäsion an Laminin-5. Erhöhte Integrin alpha6 Level dagegen veränderten das Wachstumsverhalten dramatisch, was schließlich zu einem massiven Absterben der Zellen führte. Daher entwickelten sich in OTKs von alpha6 Zellen nur atrophische Epithelien. Differenzierungsmarker konnten, wahrscheinlich aufgrund der verminderten Lebenszeit der Zellen, nicht detektiert werden. Das Fehlen einer kompensierenden Hochregulation der Integrin beta4-Kette, die in überlebenden Maus-Keratinozyten beobachtet wurde, wird als Ursache für den Zelltod im humanen System angesehen. HaCaT-Zellen sind im Allgemeinen in der Lage ein Epithel vergleichbar der Epidermis zu bilden, obwohl sie bestimmte Differenzierungs-Defizite zeigen. So verläuft die Entwicklung stratifizierter Epithelien langsamer als bei normalen Keratinozyten und ist charakterisiert durch das Vorhandensein eines parakeratotischen Stratum corneums, was auf eine unvollständige Differenzierung hinweist. PKCalpha und PKCdelta überexprimierende Zellen dagegen bildeten gut differenzierte Epithelien, die denen normaler Keratinozyten ähnelten. Differenzierungsmarker und Basalmembrankomponenten wurden regulär exprimiert. Bei normalen Keratinozyten hatte die adenovirale Überexpression der PKC Isoformen keinen stimulierenden Einfluss auf Epithelwachstum und Stratifizierung. Die Überexpression der beiden PKC-Isoformen schien somit die bei HaCaT veränderte bzw. nicht ausreichende Interaktion mit Fibroblasten zu verbessern, was letztendlich zu einer normalisierten Differenzierung und Stratifizierung führte.
Jahresbericht 2003
(2004)
Im Informationszeitalter haben die Menschen überall und jederzeit Zugang zu einer kontinuierlich ansteigenden Fülle von Informationen. Hierzu trägt vor allem die explosionsartig wachsende globale Vernetzung der Welt, insbesondere das Internet, maßgeblich bei. Die Transformation der verfügbaren Informationen in Wissen sowie die effiziente Nutzung dieses Wissens stellen dabei entscheidende Faktoren für den Erfolg eines Unternehmens oder eines Einzelnen dar. Es stellt sich also die Frage: Leben wir im Informationszeitalter? Diese Frage erinnert an die von Immanuel Kant in [65] gestellte Frage "Leben wir jetzt in einem aufgeklärten Zeitalter?" und dessen Antwort "Nein, aber wohl in einem Zeitalter der Aufklärung.". Entsprechend lässt sich auch die Frage "Leben wir in einem informierten Zeitalter?" mit "Nein, aber wohl in einem Zeitalter der Information" beantworten (vergleiche [14]). Das Problem, dass sich die überwältigende Fülle an Information ohne geeignete Hilfsmittel vom Menschen nicht oder nur schwer beherrschen lässt, hat im Laufe des letzten Jahrzehnts maßgeblich zur Entwicklung des äußerst dynamischen Forschungs- und Anwendungsgebietes der Visualisierung als Teilgebiet der Computergrafik beigetragen. Der Grund hierfür liegt in der Tatsache, dass der Mensch wesentlich besser mit visuellen Eindrücken als mit abstrakten Zahlen oder Fakten umgehen kann. Die Erkennung von Mustern in Daten (z. B. Gruppierungen und Häufungen) wird durch die Visualisierung stark vereinfacht und lässt vielmals Zusammenhänge zwischen Daten überhaupt erst greifbar werden. Unter computergestützter Visualisierung versteht man die in der Regel interaktive grafische Umsetzung von Daten. Handelt es sich dabei um physikalische Daten (z. B. entstanden durch Messvorgänge), so spricht man von Scientific Visualization. Handelt es sich eher um abstrakte bzw. nicht-physikalische Daten, so ordnet man die entsprechenden Verfahren der Information Visualization zu. Beide Teilgebiete der Visualisierung verfolgen jedoch das gemeinsame Ziel, Informationen dem Menschen sichtbar und verständlich zu machen und verwenden hierzu geeignete visuelle Paradigmen, häufig verbunden mit entsprechenden Interaktionsmöglichkeiten. Die vorliegende wissenschaftliche Arbeit ist in den Bereich der angewandten Computergrafik, speziell der interaktiven Visualisierung, einzuordnen. Die primären Ziele lagen dabei in der Übertragung des Begriffes kontextsensitiv auf den Bereich der Visualisierung zur Sicherstellung effizienter und kontextsensitiver Visualisierungsapplikationen sowie die Anwendung in aktuellen praktischen Aufgabenstellungen. Die Umsetzung einer kontextsensitiven Visualisierung gelingt im Rahmen dieser Arbeit durch die zukunftsweisende Kopplung von Visualisierungspipeline und Agententechnologie. Basierend auf der Identifikation zentraler Szenarien der kontextsensitiven Visualisierung wird eine agentenbasierte Visualisierungskontrolle durch intelligente Überwachung und Regelung der Visualisierungspipeline vorgestellt. Nach einer Zusammenfassung der relevanten Grundlagen aus den Gebieten der Visualisierung und der Agententechnologie folgen eine theoretische Klassifizierung und ein Überblick über existierende Systeme und Anwendungen aus beiden Bereichen. Anschließend wird das im Rahmen dieser Arbeit erarbeitete Paradigma der kontextsensitiven Visualisierung vorgestellt und die praktische, komponentenbasierte Umsetzung erläutert. Einen nicht unerheblichen Anteil der Arbeit machen drei innovative, auf der kontextsensitiven Visualisierung basierende Visualisierungsapplikationen aus, welche die Möglichkeiten und die Funktionsfähigkeit der entwickelten Architektur aufzeigen. Die Entwicklung einer plattformunabhängigen interaktiven Visualisierung beschäftigt sich insbesondere mit dem Auffinden der aktuell maximal möglichen Performance durch Abwägung der gegenläufigen Hauptparameter Qualität und Interaktivität und behandelt damit vor allem den System- und Interaktionskontext. Der Gedanke der plattformunabhängigen interaktiven Visualisierung wird anschließend auf mobile Informationssysteme ausgeweitet. Hier ist neben den Performanceaspekten vor allem die Art des Ausgabemediums, d. h. der Darstellungskontext, ein entscheidender Faktor. Die dritte Anwendung stellt eine agentenbasierte Applikation für die Bekleidungsindustrie in Form eines interaktiven Individual-Katalogs dar und behandelt insbesondere den Daten- und den Benutzerkontext. Eine kurze Zusammenfassung sowie ein Ausblick auf geplante zukünftige Entwicklungen runden letztlich die Betrachtungen ab.
Im deutschen Sprachraum wird in der Literatur und in der Unternehmensrealität bezüglich des Rechnungswesens traditionell zwischen zwei Rechenkreisen unterschieden. Zum einen existiert der externe Rechenkreis mit pagatorischen Größen und zum anderen der interne Rechenkreis, welcher sich primär auf kalkulatorische Wertansätze stützt. Bezüglich der hier vorgestellten Thematik werden unterschiedliche Bezeichnungen in der Literatur verwendet. Dies sind hauptsächlich: Harmonisierung, Konvergenz, Integration und teilweise sogar Konversion. Hier sollen Harmonisierung, Konvergenz und Integration als Prozess verstanden werden, an dessen Ende ein harmonisiertes, konvergiertes oder integriertes Rechnungswesen steht, durch das die traditionelle Zweiteilung vollständig aufgehoben ist. Die Schwierigkeit bei der Abgrenzung dieser Begriffe ist, dass daraus kein direkter Prozessfortschritt abgeleitet werden kann. Deshalb ist es notwendig, einen Grad bezüglich des Forschrittes anzugeben. Hierfür ist zunächst zu klären, ob ein derartiges Einheitsrechnungswesen möglich und sinnvoll ist, um dann für den gewünschten Integrationsgrad die Anpassungsschritte zu konkretisieren. Im Folgenden werden daher zunächst aus betriebswirtschaftlicher Sicht die beiden Rechenkreise und Möglichkeiten und Grenzen ihrer Vereinheitlichung analysiert. In einem Praxisteil werden dann die Konvergenzbemühungen von vier großen deutschen Aktiengesellschaften (Siemens, Bayer, Daimler Chrysler und BMW) vorgestellt.
Im Hinblick auf die Gewichtsreduktion am Gesamtfahrzeug zur Verbesserung der Fahrdy-namik und zur Reduktion des Kraftstoffverbrauchs wurde ein Vierzylinder-Kurbelgehäuse auf Basis des leichten Konstruktionswerkstoffs Magnesium konzipiert und konstruiert. Unter der Zielvorgabe einer spezifischen Leistung von mindestens 65 kW/l lag der Fokus auf einer zum Serienmotor mindestens gleichwertigen Belastbarkeit und Akustik und auf der Behebung der Kriech- und Korrosionsproblematik von Magnesium. Durch die Kombination verschiedener Leichtbauprinzipien wie Konzept-, Gestalt- und Ver-bundleichtbau, ist es mittels lokalem Werkstoffengineering gelungen, die Nachteile des Mag-nesiums zu kompensieren und seine Vorteile bestmöglich zu nutzen. Das Ergebnis ist ein zur Aluminiumbasis um ca. 6,5kg und zur Graugussbasis um ca. 23kg leichteres Magnesi-um-Hybrid-Zylinderkurbelgehäuse. Die short-skirt Bauweise in Verbindung mit einem zur Ölwanne nahezu komplett geschlossenen Bedplate ergibt ein hochsteifes Kurbelgehäuse mit einer im Vergleich zum Serien-Aluminium-ZKG höheren Belastbarkeit. Das flexible Kurbel-gehäusekonzept ermöglicht es ausserdem, auf Basis des für Magnesium sehr wirtschaftli-chen Druckgussverfahrens, Zylinderkurbelgehäuse sowohl in open-deck als auch in closed-deck-Bauweise herzustellen. Kernstück des neuen Motorblocks ist ein multifunktionaler, 3,8kg leichter Zylindereinsatz aus Aluminium, der die Funktion der Zylinderlaufbahn, der Zylinderkopf- und Hauptlagerver-schraubung sowie der Kühlwasserführung übernimmt. Zur Verbesserung der Verbundeigen-schaften zwischen dem Zylindereinsatz und dem umgebenden Magnesium wurden umfang-reiche Gießversuche und metallographische Untersuchungen durchgeführt. Eine durch Plasmaspritzen aufgebrachte AlSi12-Beschichtung erzielte schließlich die besten Ergebnisse in Bezug auf ertragbare Zug- und Schubbelastungen in der Verbundzone. Zur Absicherung des Herstellungsprozesses wurden mit der Finite Elemente Methode ver-schiedene Abstützvarianten des closed-deck-Zylindereinsatzes für das prozesssichere Ein-gießen im Druckguss untersucht. Die Befüllung des Einsatzes mit Sand erwies sich dabei als die robusteste Lösung und wurde später in den Gießversuchen umgesetzt. Der Festigkeitsnachweis für das Magnesium-Hybrid-Zylinderkurbelgehäuse wurde mit Hilfe der Finite Elemente Methode unter Einbeziehung der Ergebnisse der metallographischen Untersuchungen sowie unter Berücksichtigung nichtlinearer Werkstoffkennwerte und der Kriechproblematik von Magnesium erbracht. Ausgangspunkt für den Festigkeitsnachweis waren Eigenspannungsberechnungen, die das Abkühlen der Gussteile aus der Gießhitze, eine Warmauslagerung und die Bearbeitung der wichtigsten Funktionsflächen beinhaltete. Der Nachweis für die Dauerhaltbarkeit der Lagerstühle des Kurbelgehäuses wurde erbracht. Parameterstudien zeigten dabei einen positiven Einfluss der Eigenspannungen und eine geringe Sensitivität der Konstruktion in Bezug auf Reibungsvariationen zwischen Umguss und Eingussteilen. Kriechdehnungen im Bereich der Hauptlagerverschraubungen führten allerdings bei Verwendung der Standard Magnesiumlegierung AZ91 nach 500 Stunden bei 150°C zu einem Abfall der Schraubenvorspannkräfte um bis zu 75%. Es konnte gezeigt wer-den, dass dieses Problem bei Verwendung von kriechfesteren Legierungen (z.B. MRI 153M) mit ca. 10-20fach besserer Kriechfestigkeit bzw. Relaxationsbeständigkeit behoben werden kann. Der rechnerisch erbrachte Nachweis für die Dauerhaltbarkeit des Zylinderkurbelgehäuses konnte kurz vor Fertigstellung dieser Arbeit in einem Motorversuch (Polyzyklischer Dauer-lauf, 100h) bestätigt werden. Der Motor zeigte nach Ende der Laufzeit keine Auffälligkeiten und konnte weiter betrieben werden.
Es ist nicht das Ziel von Lysios, genau die eine, exakt auf die Unternehmensbedürfnisse zuge-schnittene, "optimale" BSC-Software am Ende des Auswahlprozesses zu präsentieren. Viel-mehr soll mit der Hilfe von Lysios eine Vorauswahl getroffen werden, welche die Suche auf die für die jeweiligen Unternehmen in Frage kommenden Produkte einschränkt und ihnen einen Überblick über deren Funktionalität verschafft. Eine anschließende eingehende Detailanalyse dieser Produkte kann und darf jedoch nicht ausbleiben. Die Vorstrukturierung der Auswahlkriterien, die umfangreiche Erhebung der Daten und deren Integration in ein Scoring-Modell mit Ausschlusskriterien, können dem Entscheider sehr viel Zeit ersparen und helfen ihm, sich auf die wesentlichen Punkte zu konzentrieren. Um die Weiterentwicklung von Lysios auch zukünftig voranzutreiben, erhoffen sich die Autoren eine rege Diskussion mit Softwareherstellern und anderen Fachleuten. So sollten beispielsweise die Bewertungskriterien stetig erweitert und auf ihre Tauglichkeit hin überprüft werden. Sicherlich lassen sich neben den hier aufgezeigten Bewertungskriterien noch weitere heranziehen, die sich als Auswahlkriterium für eine geeignete BSC-Software als zweckmäßig erweisen. Die Software Lysios wird im Zusammenhang mit der Studie "Balanced Scorecard Software-Lösungen" des Business Application Research Center Ende April 2004 veröffentlicht.
Das moderne Wohngebäude zeichnet sich durch einen niedrigen Heizwärmebedarf aus. Mit Zunahme der Sensitivität des Wohngebäudes bezüglich der Solarstrahlung aufgrund neuartiger Systeme wie transparenter Wärmedämmung, Phasenwechselmaterialien oder großer Fensterflächen, erweitert sich der herkömmliche Regelungsansatz zur Einhaltung des behaglichen Raumklimas. Das thermische Gebäudeverhalten definiert sich weitaus komplexer. Es kommen neben der notwendigen Heizung weitere Aktoren (Sonnenschutzeinrichtung, Lüftung) ins Spiel. Die Zunahme der realisierbaren, solaren Erträge bewirken im Winter fossile Energieeinsparungen. Im Sommer sind jedoch ohne geeignete Maßnahmen Überhitzungen die Folge. Mit Hilfe moderner und vernetzter Regelungstechnik können Wirtschaftlichkeit des Systems und Komfort optimiert werden. Hierzu wurden bewährte Simulationswerkzeuge erweitert. Moderne Komponenten wie Phasenwechselmaterialien, transparente Wärmedämmung und Verschattungssysteme auf Basis einer schaltenden Schicht im Glasverbund erfahren eine Modellbildung. Umfangreiche Validierungen zu den Teilmodellen und zum Gesamtmodell zeigen, dass eine realitätsnahe Abbildung erreicht wird. Grundlage dieser Validierungssequenzen waren Feldtestmessungen an bewohnten Gebäuden, sowie Ergebnisse von Systemtestständen. Die Aussagesicherheit des gesamten Gebäudemodells wurde durch eine sogenannte "Cross-Validation" mit anderen etablierten Simulationsprogrammen hergestellt. Mit der Schaffung der realitätsnahen Abbildung eines solaroptimierten Wohngebäudes, welches an eine heizungsunterstützende, solarthermische Anlage gekoppelt ist, wurde die Grundlage zur Entwicklung einer prädiktiven Wärmeflussregelung in Wohngebäuden mit erweitertem thermischen Verhalten gelegt. Eine Untersuchung zum dynamischen Verhalten auf periodische Anregung von Einflussgrößen, zeigt die dominanten Zeitkonstanten des Gebäudesystems auf. Einfallende Solarstrahlung durch Fenster wirkt sich am schnellsten auf die empfundene Raumtemperatur aus. Dies hat Auswirkung auf die prädiktive Regelung. Während im Winter die Solarstrahlung zur Heizungsunterstützung herangezogen werden soll, gilt es, im Sommer die Bewohner vor Überhitzung zu schützen. Damit die Regelung in der Heizperiode an sonnigen Tagen nicht unnötig vorheizt (d. h. frühzeitig abgeschalten wird, da der zukünftige Heizbedarf von der Sonne gedeckt werden kann) und damit Überhitzungen(vor allem im Sommer) vermieden werden können, wurde für das untersuchte Gebäudemodell ein Prognosehorizont für den Prädiktor bestimmt. Mit dem modellbasierten Regelungskonzept wurde ein übergreifendes Wärmemanagementsystem entwickelt, welches mit der Information einer lokalen Wettervorhersage den thermischen Zustand des Gebäudes vorhersagt. Aufgrund des im Regler implementierten, reduzierten Modells, berücksichtigt die Prädiktion die besonderen Eigenschaften der eingesetzten Fassadenkomponenten. Umfangreiche, simulationsgestützte Untersuchungen bewerten das Regelungskonzept. Als Referenzsystem dient ein Gebäude mit herkömmlichem Regelungskonzept.
Die Arbeit beschäftigt sich im wesentlichen mit den aktuell zur Verfügung stehenden Werkzeugen der Behandlung von Unsicherheiten in den Ergebnissen von Grundwassermodellen im Zusammenhang mit der Anwendung der Modelle bei der Planung von hydraulischen Sanierungen des Untergrundes. Untersucht wird die Eignung verschiedener Verfahren für eine praxisbezogene Anwendung. Als Ergebnis werden Empfehlungen zur Verwendung der Methoden in Abhängigkeit der hydrogeologischen Gegebenheiten und Hinweise zur Weiterentwicklung der Verfahren formuliert. Die Resultate von Grundwassermodellen werden zu Prognosezwecken in unterschiedlichen Zusammenhängen eingesetzt. Dazu gehören u.a. die Konzipierung von hydraulischen Sanierungsmaßnahmen. Für eine effiziente Ausführung einer Sanierung sollten Überdimensionierungen der notwendigen Einrichtungen (Brunnen, Pumpen, Aufbereitung) vermieden werden. Die hier untersuchten Methoden können dabei vorteilhaft eingesetzt werden, da sie es prinzipiell erlauben, die notwendigen Sicherheitszuschläge zu verringern und Erfolgswahrscheinlichkeiten für unterschiedliche Auslegungsvarianten anzugeben. Erfolgswahrscheinlichkeit bedeutet z.B. mit welcher Wahrscheinlichkeit ein einzuhaltender Grenzwert an einem bestimmten Punkt unterschritten wird. Die aktuell in der Praxis eingesetzten deterministischen Modelle können stattdessen nur einen Wert liefern, der eine nicht bekannte Eintretenswahrscheinlichkeit besitzt. In dieser Arbeit wird gezeigt, dass Methoden der stochastischen Simulation, zusammen mit einer Grundwassermodellierung einen wesentlichen Beitrag zur Verbesserung der oben dargestellten Situation leisten können. Hierzu wird das SUFIX-Verfahren eingesetzt, das es erlaubt neben den Verfahren der Geostatistik (z.B. stochastische Simulation) auch den Sachverstand des Hydrogeologen, der sich meist nicht in ’harten’ Zahlenwerten ausdrücken lässt, zwanglos zu integrieren. Beispiele hierfür sind Kenntnisse über großskalige Strukturen, wie Paläorinnen, die mit den Voraussetzungen für den Einsatz von stochastischen Simulationen nicht vereinbar sind Auch sind vorhandene Informationen, die mit einer relative hohen Unsicherheit behaftet sind (soft data) in diesem Konzept verwertbar. Die Eingangsdaten eines Grundwassermodells liegen i.d. Regel nur als sporadische Punktmessungen vor und müssen durch Interpolation oder stochastische Simulation generiert werden, um ein lückenloses Abbild des Untergrundes bzw. der Eigenschaften des Untergrundes zu erhalten. Liegt ein vollständiges interpoliertes Abbild (hydrogeologisches Modell) vor, muss wiederum eine Vereinfachung vorgenommen werden, da ein numerisches Modell nur punkt- bzw. flächengemittelte Eingabedaten verwenden kann. Der hierdurch bedingte Verlust an Information über die Variabilität der Modellparameter unterhalb der räumlichen Modelldiskretisierung wirkt sich vor allem bei der Stofftransportmodellierung aus, da hier die Ausbreitung entlang bevorzugter Fließwege eine entscheidende Rolle spielen kann. Eine zusätzliche Quelle der Unsicherheit entsteht dadurch, dass die Lage dieser Strukturen und ihr räumlicher Zusammenhang (Topologie) nicht hinreichend bekannt sind. Anhand zweier Fallbeispiele aus der praktischen Anwendung von numerischen Modellen wird nachgewiesen, dass sich das SUFIX-Verfahren generell als geeignet zur Quantifizierung von Prognoseunsicherheiten darstellt. Vorteile des Verfahrens sind die Kombinationsmöglichkeiten mit beliebigen Methoden zur Abbildung der Untergrundheterogenität. Es können z.B. stochastische Simulationen oder auch eine konstante manuelle Zonierung verwendet werden. Ein weiterer gewichtiger Vorteil ist der, dass die Berechnungsmethodik der Grundwasserströmung und des Stofftransportes keinen Einschränkungen, wie Linearisierung der Gleichungen u.ä. unterworfen ist. Ebenso sind beliebige Randbedingungen verwendbar, wobei auch der Typ der Bedingungen als unsicherer Parameter eingesetzt werden kann. Sollen die Parameter optimiert werden, ist in praktischen Anwendungsfällen die Kopplung von stochastischer Simulation und z.B. einem Bayes'schen Updating-Verfahren eine einfach zu implementierende Lösung. Hiermit ist dann auch die Kalibrierung beliebiger Randbedingungen möglich, die z.B. als Parameter mit einer nominalen Kodierung berücksichtigt werden können. Die Untersuchungsergebnisse zeigen, dass das Verfahren zur Abbildung der Heterogenität dem Aquifer angepasst gewählt werden muss. Gauss-basierte Verfahren, wie Turning-Bands, sind demnach am ehesten für die Simulation von relativ homogenen Aquiferen geeignet, während bei sehr heterogenen Strukturen, d.h. großer Variabilität der Parameterwerte, am ehesten Indikator-basierte Verfahren in Frage kommen. Noch besser schneidet in diesem Fall die manuelle Zonierung ab, was vor allem damit zu erklären ist, dass bei sehr heterogenen Untergrundverhältnissen v.a. die Struktur mit eventuell nur deterministisch erfassbaren übergeordneten Elementen von ausschlaggebender Bedeutung ist. Als Simulationsverfahren mit dem größten Entwicklungspotential kann man generell diejenigen Verfahren ansehen, die auch nicht Gauss-verteilte Daten verwenden, wie z.B. die hier verwendeten Indikatorbasierten Verfahren. Als ebenfalls sehr gut geeignete Verfahren stellten sich Simulated Annealing in der Variante als Postprozessor zusammen mit einem frei definierbaren ’Trainingsbild’ dar. Die Untersuchungsergebnisse zeigten aber auch, dass neben der Wahl der geeigneten mathematischen Methoden eine weitere grundlegende Bedingung erfüllt sein muss, nämlich ein widerspruchsfreies und stimmiges, an den Einsatzzweck angepasstes konzeptionelles hydrogeologisches Modell. Zu dessen Konzeption muss der Anwender bzw. Modellierer über Kenntnisse der großräumigen Strukturen verfügen, die sich aus der Genese des Untergrundes ergeben und nur durch eine fachliche Interpretation erreichbar sind. Hierzu gehören Schichtungen, Paläorinnen, anisotrope Bodeneigenschaften durch Terrassierung, usw.. Die Einbeziehung dieser Expertenkenntnisse, sowie die Sicherstellung eines geeigneten hydrogeologischen Modells für die numerische Modellierung sind Themenbereiche, die im Zusammenhang mit einer Unsicherheitsanalyse noch erheblichen Forschungsbedarf aufweisen.
Die vorliegende Arbeit verfolgt das Ziel, das Aufkommen und die Verteilung von Stoffen im urbanen Wasserkreislauf, insbesondere in den Abwassersystemen in einer umfassenden Gesamtschau zu untersuchen und zu bewerten. Diese ganzheitliche Betrachtungsweise unterscheidet sich von den bisherigen Untersuchungen, die sich in der Regel auf einen Stoff oder auf einzelne Komponenten in diesem Kreislauf beziehen. Das untersuchte Stoffspektrum reicht von den herkömmlichen Abwasserparametern, wie dem Chemischen Sauerstoffbedarf (CSB), bis hin zu „neuen“, vorwiegend organischen Verbindungen, die in der EG-Wasserrahmenrichtlinie als prioritäre Stoffe bzw. prioritäre gefährliche Stoffe aufgelistet sind. Eine Sichtung der verfügbaren Daten zeigt, dass die Kenntnisse über das Aufkommen und die Wirkung dieser Stoffe sehr lückenhaft sind. Es ist deshalb erforderlich und für die siedlungswasserwirtschaftliche Praxis dringlich, sich mit der Problematik der organischen Schadstoffe zu befassen und die wichtigsten Stoffströme im Abwassersystem zu analysieren. In einem ersten Schritt wird das Gesamtsystem des urbanen Wasserkreislaufs mit seinen naturräumlichen (z.B. Grundwasser) und abwassertechnischen Elementen (z.B. Kanalisation und Kläranlage) dargestellt. Um einen ersten Überblick zu gewinnen und eine geeignete Grundlage für die weitere Vorgehensweise zu erhalten, wird zunächst ein breites Spektrum von Stoffen, aufgeteilt nach anorganischen und organischen Substanzen, beschrieben. Als wichtige Folgerung für künftige Erhebungen ist aus dieser pauschalen Betrachtung abzuleiten, die Datenbasis durch weitere Messungen zu verbessern und die Messprogramme besser aufeinander abzustimmen. Darauf aufbauend werden in einer zweiten Stufe ausgewählte Stoffe bzw. Stoffgruppen, die aufgrund ihres Aufkommens und ihrer potenziellen Auswirkungen auf Fließgewässer als relevant einzuordnen sind, sog. Leitparameter, detailliert behandelt. Als Basis für die Auswahl dieser Leitparameter dienen zunächst die rechtlichen Regelungen, vor allem die der EG-Wasserrahmenrichtlinie. Als weitere Kriterien werden die mögliche toxische Wirkung der Stoffe, das signifikante Aufkommen in den Abwassermatrices und die Verfügbarkeit von Daten herangezogen. Eine erste Gruppe der Leitparameter umfasst bisher schon häufig im Abwassersystem untersuchte Stoffe bzw. Stoffgruppen: Feststoffparameter, die Summenparameter CSB und BSB, die Nährstoffe Stickstoff und Phosphor sowie die Schwermetalle Kupfer, Blei, Cadmium und Zink. Als charakteristisches Unterscheidungskriterium wird die Herkunft der Stoffe definiert, die eindeutig die Belastung der verschiedenen Matrices des Abwassersystems bestimmt. Während sich die aus dem Schmutzwasser stammenden („schmutzwasserbürtigen“) Verbindungen (z.B. EDTA) überwiegend im Kläranlagenablauf finden, sind die von der Oberfläche stammenden („oberflächenbürtigen“) Verbindungen (z.B. PAK) vor allem in den niederschlagsbedingten Abflüssen zu erwarten. Um in Erfahrung zu bringen, welche Reduktionssmaßnahmen geeignet sind, werden Überlegungen zur Verteilung dieser Stoffe in den Abwasserentsorgungssystemen angestellt. Mit Hilfe des Instruments der Schmutzfrachtsimulation werden für 32 ausgewählte Stoffe bzw. Sowohl die Zusammenstellung der theoretischen Grundlagen als auch die Ergebnisse der Simulation, die im Anhangsband wiedergegeben sind, zeigen erhebliche Unterschiede im Verhalten der verschiedenen Stoffe im Abwasserentsorgungssystem. Für 19 ausgewählte Stoffe bzw. Stoffgruppen, die als relevant gelten müssen, wird eine abschließende Einordnung und Bewertung vorgenommen. Maßgebend für das Aufkommen und die Verteilung im Abwassersystem sind die Kenngrößen: „vorwiegende Herkunft“, „Anteil des partikulären Transports“ und „Rückhalt in der Kläranlage“. Für jede Stoffgruppe werden Empfehlungen zur Verminderung der Gewässerbelastung ausgesprochen. Ein wesentlicher Aspekt dabei ist, die Schadstoffpotenziale bereits an der Quelle zu verringern, gemäß der Forderung der EG-Wasserrahmenrichtlinie, Einleitungen, Emissionen und Verluste prioritärer gefährlicher Stoffe der EG-WRRL zu beenden oder schrittweise einzustellen. In einigen Szenarien konnte gezeigt werden, dass die wirkungsvollste Maßnahme zur Verminderung der Stoffeinträge in Gewässer die Erhöhung der Rückhalteleistung in der Kläranlage und der Regenentlastung ist, die mit bestimmten Techniken wie Membrananlagen, Aktivkohlefiltern und Bodenfiltern erreicht werden kann. Die Weiterentwicklung und der Einsatz moderner Technologien zur Abwasserreinigung und zur Regenwasserbehandlung bleiben damit wichtige Aufgaben für die Zukunft.
Das Plasmid pKAP298 aus Caedibacter taeniospiralis, einem obligaten Parasiten aus Paramecium tetraurelia, wurde in Gänze sequenziert, analysiert und annotiert, mögliche vom Plasmid kodierte Funktionen wurden charakterisiert. Es konnten Plasmid-Fragmente mit Transkriptions-Aktivität identifiziert werden, eine Transkriptions-Aktivitätskarte bildet die Basis zur weiteren Identifizierung der aktiven ORFs. Anhand der Transkriptions-Aktivität und den identifizierten putativ kodierenden ORFs auf dem Plasmid pKAP298 konnten neue Hinweise auf ein wahrscheinlich auf dem Plasmid lokalisiertes Toxin-Gen gegeben werden. Aus Ähnlichkeiten zu schon bekannten Sequenzen konnte die Hypothese, dass pKAP298 aus einem Bakteriophagen evolvierte, gestützt und erweitert werden
In dieser Arbeit wird gezeigt, wie durch eine Automatisierung von Software-Entwicklungsaktivitäten sowohl Effizienz- als auch Qualitätsgewinne erzielt und komplexe Aktivitäten beherrschbar gemacht werden können. Dazu wird zunächst eine solide Basis für eine modellbasierte Software-Entwicklung geschaffen. Nach der Identifikation der Probleme der bisher üblicherweise eingesetzten Metamodellierung wird eine verbesserte Multiebenenmodellierung vorgeschlagen, welche die explizite Angabe der Instanziierbarkeit (Tiefe und Automatismus der Instanziierung) der Modellelemente erlaubt und damit eine deutliche Vereinfachung und bessere Verständlichkeit der Metamodelle ermöglicht. Zur operationalen Beschreibung von Modelltransformationen im Kontext dieser Multiebenenmodellierung wird sodann die Aktionssprache AL++ konzipiert. Insbesondere durch die Einführung von Sprachelementen für die Handhabung von Relationen und Attributen und die Aufnahme von Reflexionskonstrukten in die Sprache AL++ werden Transformationen kompakt und generisch beschreibbar. Anwendung finden diese Ansätze in der modellbasierten Entwicklung reaktiver Systeme. Dazu wird eine existierende Entwicklungsmethode erweitert, um eine durchgängige Automatisierung realisieren zu können. Die wichtigste Erweiterung ist dabei die modifizierte Automatenmodellierung, bei welcher erweiterte Endliche Automaten durch die Komposition getrennt modellierter Zustandsübergänge spezifiziert werden, was eine eindeutige Verfolgbarkeit zu den Anforderungen erlaubt. Eingesetzt werden obige Techniken für die statische Analyse von Spezifikationen, wobei insbesondere die automatische Detektion von Feature-Interaktionen (also die Feststellung kritischer Wechselwirkungen zwischen Produktmerkmalen) in dieser Form erstmalig für den Bereich der reaktiven Systeme durchgeführt wird. Daneben werden automatisierte dynamische Analysen auf der Basis generierter Prototypen betrachtet. Die Analyseergebnisse können automatisiert für die Modifikation und Neukonstruktion der Prototypen genutzt werden, womit Software-Entwicklungsexperimente vollständig in einem „virtuellen Labor“ durchgeführt werden können. Wichtigstes experimentelles Ergebnis ist, dass eine statische Parametrisierung einer „intelligenten“ Temperaturregelung möglich ist und daher eine Reduktion der notwendigen Produktmerkmale (und damit der Komplexität) erreicht werden kann. In Fallstudien wird am Ende der Arbeit nachgewiesen, dass alleine durch die automatische Erzeugung von Entwicklungsdokumenten und die konsistente Änderung vorhergehender Dokumente durch die in dieser Arbeit implementierten Werkzeuge ein Effizienzgewinn von 54 % erreicht werden kann. Die Erstellung der eingesetzten Werkzeuge hätte sich dabei bereits nach zwei ähnlichen Projekten bezahlt gemacht.
Im Ausland zu studieren erfordert hohe Anpassungsleistungen kultureller, sozialer und psychischer Art. Viele Untersuchungsbefunde zeigen, dass soziale Unterstützung diesen Anpassungsprozess erleichtern und die Bewältigung psychischer Belastungen mindern kann. In der vorliegenden Studie wurden 96 ausländische und 171 inländische Studierende der Technischen Universität Kaiserslautern danach befragt, welche Art sozialer Unterstützung sie sich wünschen und inwieweit sie die erfahrene Unterstützung als angemessen erachten. Dazu wurden den Teilnehmern in einem Fragebogen drei potentiell belastende Studiensituationen geschildert: der Studienbeginn, Vorbereitung auf Prüfungen und das Erwägen eines Studienfachwechsels oder Studienortwechsels. Für jede dieser drei Situationen beurteilten die Befragten anhand standardisierter Aussagen, (a) welches Bewältigungsverhalten sie in dieser Situation anstrebten, (b) von welchen Personen bzw. Rollenträgern soziale Unterstützung hierfür gewünscht werde und (c) danach, welcher Art diese Unterstützung sein sollte. Die Ergebnisse zeigen, dass die ausländischen Studierenden diese Situationen sehr zielgerichtet und problemorientiert angehen. Sie bevorzugten sach- und studienfachbezogene Unterstützung gegenüber Unterstützung die auf die emotionale Bewältigung kritischer Situationen abzielt oft in stärkerem Maße als inländische Studierende. Dabei wünschen sich die ausländischen Befragten mehr Unterstützung durch Professoren, Assistenten und Fachschaftsangehörige als Hilfe von Freunden, Partnern oder Verwandten. Da ausländischen Studierenden soziale Unterstützung auch durch das Akademischen Auslandsamt zuteil wird, wurde auch erfragt, welche Dienstleistungsangebote des Auslandsamtes den Befragten bekannt sind bzw. welche sie schon einmal in Anspruch genommen haben. Die Ergebnisse erweitern die Grundlage für Entscheidungen über künftige Maßnahmen des Akademischen Auslandsamtes, diese Entscheidungen selbst sind jedoch nicht Bestandteil dieses Untersuchungsberichts.
Viele Städte stehen mittelfristig vor gravierenden Veränderungen. Die Liste der aktuellen Herausforderungen ist lang: "Demographischer Wandel", "Pluralisierung der Lebensstile", "Beschleunigung und Virtualisierung der Lebenswelten", "Globalisierung und Strukturwandel". Ebenso wie diese Trends tiefgreifende Anpassungen und neue Lösungsstrategien in Gesellschaft und Wirtschaft erfordern, muss das Stadtgefüge diesen veränderten Rahmenbedingungen gerecht werden. Die Stadt von gestern ist hinsichtlich der Ansprüche der Wissensgesellschaft zu überprüfen. Insgesamt ist die Beschäftigung mit und die Reaktion auf eine Vielzahl komplexer raumwirksamer Entwicklungen geboten.
Die Stadtentwicklungskonzeption StadtTechnopole hat zum Ziel, die räumlichen Konsequenzen aus der Entwicklung einer Stadt zu einem leistungsfähigen Technologiestandort aufzuzeigen und diese prototypisch in Teilkonzepten umzusetzen. Dazu ist es erforderlich, die technologischen Entwicklungsansätze und Perspektiven zu erfassen und mit den Raumbezügen sowie den organisatorischen und personellen Teilkomponenten in einer Leitkonzeption zusammenzuführen. Vor dem Hintergrund des fortschreitenden ökonomischtechnologischen
Wandels geht es vor allem um eine zukunftsfähige Wirtschafts- und Lebensstruktur.
Mit langfristig tragfähigen ökonomischen Strukturen kann es gelingen, dem bundesweiten Trend zur Schrumpfung und Überalterung der Gesellschaft entgegenzuwirken, die Bevölkerungsentwicklung am Standort zu stabilisieren sowie eine lebendige Stadt zu erhalten.
Kaiserslautern steht im Zuge des ökonomischen, demographischen, sozialen und technologischen Wandels vor weitreichenden Umbrüchen und vielfältigen Herausforderungen. Die Stadt befindet sich schon heute in einem Transformationsprozess: Im Rahmen der allgemeinen wirtschaftsstrukturellen Veränderungen werden alteingesessene Betriebe im sekundären Sektor aufgegeben. Damit verbunden ist ein starker Rückgang des Arbeitskräftebedarfs im verarbeitenden Gewerbe. Einen Tiefpunkt erreichte die Stadt 1997 mit einer Arbeitslosenquote
von 14%.
Hinsichtlich einer möglichst souveränen Bewältigung der neuen Aufgaben sowie möglicherweise sogar der Erzielung von Wettbewerbsvorteilen ist eine frühzeitige raumbezogene Planung geboten. Für eine Stadt wie Kaiserslautern, bei der u.a. aufgrund ihrer Lage in einem
strukturschwachen Großraum im Bundesvergleich ein Entwicklungsrückstand zu konstatieren ist, ergibt sich daraus ein akuter Handlungsbedarf. Die Stadt Kaiserslautern hat dies erkannt
und bereitet sich mit dem Stadtentwicklungskonzeption StadtTechnopole auf die vielfältigen Herausforderungen vor.
Die Stadtentwicklungskonzeption StadtTechnopole_Kaiserslautern bezieht die zentralen Erkenntnisse des stadtsoziologischen Ergänzungsgutachtens "Lebensstile und Raumansprüche hochqualifizierter IKT-Beschäftigter" von Jun.-Prof. Dr. Annette Spellerberg (Fachgebiet
Stadtsoziologie) ein. Wesentliche Inhalte dieser Untersuchung betreffen die Raumansprüche hochqualifizierter Wissensarbeiter und daraus abgeleitete praktische Hinweise für die Standortverbesserung.
Möglich wurde die vorliegende Veröffentlichung erst durch die sehr gute Zusammenarbeit im Rahmen des interdisziplinären Forschungsvorhabens mit dem Ministerium des Innern und
für Sport, der Wirtschaftsförderungsgesellschaft Kaiserslautern, der Stadt Kaiserslautern und zahlreichen Personen in Wissenschaft, Politik, Verwaltung und Wirtschaft.
Viele Städte stehen mittelfristig vor gravierenden Veränderungen. Die Liste der aktuellen
Herausforderungen ist lang: "Demographischer Wandel", "Pluralisierung der Lebensstile",
"Beschleunigung und Virtualisierung der Lebenswelten", "Globalisierung und Strukturwandel". Ebenso wie diese Trends tiefgreifende Anpassungen und neue Lösungsstrategien in
Gesellschaft und Wirtschaft erfordern, muss das Stadtgefüge diesen veränderten Rahmenbedingungen
gerecht werden. Die Stadt von gestern ist hinsichtlich der Ansprüche der Wissensgesellschaft
zu überprüfen. Insgesamt ist die Beschäftigung mit und die Reaktion auf eine
Vielzahl komplexer raumwirksamer Entwicklungen geboten.
Die Stadtentwicklungskonzeption StadtTechnopole hat zum Ziel, die räumlichen Konsequenzen
aus der Entwicklung einer Stadt zu einem leistungsfähigen Technologiestandort aufzuzeigen
und diese prototypisch in Teilkonzepten umzusetzen. Dazu ist es erforderlich, die
technologischen Entwicklungsansätze und Perspektiven zu erfassen und mit den Raumbezügen sowie den organisatorischen und personellen Teilkomponenten in einer Leitkonzeption
zusammenzuführen. Vor dem Hintergrund des fortschreitenden ökonomischtechnologischen
Wandels geht es vor allem um eine zukunftsfähige Wirtschafts- und Lebensstruktur.
Mit langfristig tragfähigen ökonomischen Strukturen kann es gelingen, dem
bundesweiten Trend zur Schrumpfung und Überalterung der Gesellschaft entgegenzuwirken,
die Bevölkerungsentwicklung am Standort zu stabilisieren sowie eine lebendige Stadt zu erhalten.
Kaiserslautern steht im Zuge des ökonomischen, demographischen, sozialen und technologischen
Wandels vor weitreichenden Umbrüchen und vielfältigen Herausforderungen. Die
Stadt befindet sich schon heute in einem Transformationsprozess: Im Rahmen der allgemeinen
wirtschaftsstrukturellen Veränderungen werden alteingesessene Betriebe im sekundären
Sektor aufgegeben. Damit verbunden ist ein starker Rückgang des Arbeitskräftebedarfs im
verarbeitenden Gewerbe. Einen Tiefpunkt erreichte die Stadt 1997 mit einer Arbeitslosenquote
von 14%.
Hinsichtlich einer möglichst souveränen Bewältigung der neuen Aufgaben sowie möglicherweise
sogar der Erzielung von Wettbewerbsvorteilen ist eine frühzeitige raumbezogene Planung
geboten. Für eine Stadt wie Kaiserslautern, bei der u.a. aufgrund ihrer Lage in einem
strukturschwachen Großraum im Bundesvergleich ein Entwicklungsrückstand zu konstatieren
ist, ergibt sich daraus ein akuter Handlungsbedarf. Die Stadt Kaiserslautern hat dies erkannt
und bereitet sich mit dem Stadtentwicklungskonzeption StadtTechnopole auf die vielfältigen Herausforderungen vor.
Die Stadtentwicklungskonzeption StadtTechnopole_Kaiserslautern bezieht die zentralen Erkenntnisse
des stadtsoziologischen Ergänzungsgutachtens "Lebensstile und Raumansprüche hochqualifizierter IKT-Beschäftigter" von Jun.-Prof. Dr. Annette Spellerberg (Fachgebiet
Stadtsoziologie) ein. Wesentliche Inhalte dieser Untersuchung betreffen die Raumansprüche
hochqualifizierter Wissensarbeiter und daraus abgeleitete praktische Hinweise für die Standortverbesserung.
Möglich wurde die vorliegende Veröffentlichung erst durch die sehr gute Zusammenarbeit im
Rahmen des interdisziplinären Forschungsvorhabens mit dem Ministerium des Innern und
für Sport, der Wirtschaftsförderungsgesellschaft Kaiserslautern, der Stadt Kaiserslautern und
zahlreichen Personen in Wissenschaft, Politik, Verwaltung und Wirtschaft.
Zentrales Ziel dieser Arbeit ist die genaue theoretische Charakterisierung des Autoionisationsprozesses in Stößen metastabiler Argon-Atome mit Quecksilber- und Wasserstoff-Atomen, Ar*(4s 3P2,3P0) + Hg und Ar*(4s 3P2,3P0) + H(1s). Diese Untersuchungen wurden durch neue, in der Arbeitsgruppe von Prof. H. Hotop unter Verwendung zustandsselektierter Ar*-Atome durchgeführte elektronenspektrometrische Experimente an diesen Stoßsystemen motiviert. Zur Überprüfung der quantenchemischen Beschreibung des Quecksilber-Atoms und seiner van der Waals-Wechselwirkung wurden im Rahmen dieser Arbeit außerdem die Grundzustandspotentiale der Alkali-Quecksilber-Moleküle LiHg, NaHg und KHg im Detail untersucht. Dabei konnten die in der Literatur zu findenden Widersprüche zwischen den aus Rechnungen und verschiedenen Experimenten bestimmten Potentialen aufgeklärt werden, und es wurden verbesserte Wechselwirkungspotentiale erhalten, welche mit allen verfügbaren experimentellen Daten kompatibel sind.
Bei den "traditionellen" Reduktionsmittelaufbereitungssystemen, die die Abgaswärme zur Zersetzung des Harnstoffs ausnutzen, wird der Harnstoff entweder in Form einer wässrigen Lösung oder in Pulverform direkt vor dem SCR-Katalysator in das Abgassystem eingebracht. Der zudosierte Harnstoff wird im Abgas in zwei Reaktionsschritten (Thermolyse, Hydrolyse) thermisch zersetzt, wobei die Abgastemperatur einen entscheidenden Einfluss auf die Harnstoffzersetzungskinetik besitzt. Bei der Thermolyse entstehen aus dem Harnstoff die Produkte Ammoniak und Isocyansäure, wobei die Isocyansäure mit Wasser bei der Hydrolyse zu Ammoniak und Kohlendioxid reagiert. Wie Versuchsergebnisse demonstrieren, kann die Gesamtperformance von SCR-Katalysatorsystemen verbessert werden, wenn statt Harnstoff gasförmiges Ammoniak in das Abgassystem eingebracht wird, da so der komplette Harnstoffzersetzungsmechanismus entfällt. Dem in dieser Arbeit untersuchten Verfahren zur thermischen Trockenharnstoffzersetzung lag deshalb die Überlegung zu Grunde, den Harnstoffzersetzungsprozess vom Abgassystem zu entkoppeln und in einem externen elektrisch beheizten Reaktor zu realisieren. Ein solches System besitzt den entscheidenden Vorteil, dass die Zersetzungstemperatur und die Verweilzeit für die Reaktion so eingestellt werden können, dass unabhängig vom aktuellen Motorbetriebspunkt immer eine optimale Harnstoffzersetzung gewährleistet wird. Aus den Bruttoumsatzgleichungen für die beiden Reaktionen geht hervor, dass ohne eine Zufuhr von Wasser in den Reaktor nur die Thermolyse ablaufen kann, d.h. es entsteht ein Gemisch aus Ammoniak und Isocyansäure. Aus diesem Grund wird Wasser, das aus dem Verbrennungsprozess des Motors stammt, mit Hilfe eines Abgasteilstroms in den Reaktor eingeleitet. Eine Abschätzung zeigt, dass zu diesem Zweck ein Teilstrom in der Größenordnung von 1 % erforderlich ist. Da die Geschwindigkeit der Hydrolysereaktion in der Gasphase sehr gering ist, wurde der elektrisch beheizten Thermolysezone ein Hydrolysekatalysator nachgeschaltet. Die selektive Reaktion der Isocyansäure zu den Produktstoffen Ammoniak und Kohlendioxid ist für die Funktion des Harnstoffaufbereitungssystems von entscheidender Bedeutung, da ansonsten aus der sehr reaktiven Isocyansäure Polymerisationsprodukte gebildet werden, die zu festen Ablagerungen im System führen. Darüber hinaus hat sich im Rahmen des Entwicklungsprozesses gezeigt, dass die Thermolysezone so gestaltet sein muss, dass der Harnstoff in keinem Fall mit unbeheizten Flächen in Berührung kommen kann. Auf der Grundlage der Ergebnisse von thermogravimetrischen Versuchen wurde eine Heizflächentemperatur von 400 °C gewählt. Bei diesem System entstehen dann idealerweise ausschließlich die Produkte Ammoniak und Kohlendioxid, die mit Hilfe des Abgasteilstroms, der unter anderem auch als Trägergasstrom fungiert, in das Abgassystem eingeleitet werden. Von daher ist es mit einem System vergleichbar, bei dem gasförmiges Ammoniak dosiert wird. Der Harnstoff wird dem Reaktor in Form von Pellets in einem Größenspektrum von 1,8-2 mm zugeführt. Die Dosierung der Pellets erfolgt mit Hilfe eines Zellenraddosierers. Der Transport vom Dosierer zum Reaktor wird mittels Förderluft durch eine Leitung realisiert. Trockener Harnstoff bietet bezüglich der Masse und des Volumens Vorteile gegenüber der wässrigen Harnstofflösung. Darüber hinaus ist eine uneingeschränkte Wintertauglichkeit gewährleistet. Die Betriebsbereitschaft des Reaktors, die durch eine Heizflächentemperatur von 400 °C und eine Temperatur vor dem Hydrolysekatalysator oberhalb von 200 °C gekennzeichnet ist, wird nach 60-80 s erzielt. Im MVEG-Test liegt die mittlere gemessene Heizleistung im Bereich von 180 W. Anhand einer NOx-Umsatz- und NH3-Bilanz konnte gezeigt werden, dass der Harnstoff im Reaktor in die gewünschten Produkte NH3 und CO2 überführt wird. Mit dem Gesamtsystem werden sowohl bei kleinen als auch bei großen Dosiermengen gute Konvertierungsergebnisse erzielt. Unter optimalen Randbedingungen sind im Bereich der NH3-Schlupfgrenze NOx-Umsätze >95 % realisierbar. Insbesondere bei niedrigen Abgastemperaturen werden die Vorteile gegenüber der "klassischen" Flüssigdosierung deutlich. Die Betriebssicherheit des Gesamtsystems konnte durch einen 100 h-Dauertest nachgewiesen werden. Das Gesamtsystem wurde an einem Versuchsfahrzeug (Audi A8) appliziert. Im Rahmen des bisherigen Testprogramms konnte die Systemfunktion nachgewiesen werden. Der EURO IV Grenzwert wird erreicht. Zur Aktivitätssteigerung müssen vor allem die Abgastemperatur angehoben und der NO2-Verlauf im Zyklus optimiert werden. Zusätzlich muss die Dosierstrategie so optimiert werden, dass am Umsatz und Schlupfrisiko orientiert immer ein optimaler NH3-Füllstand im Katalysator vorliegt.
Es wurde ein fahrzeugtaugliches SCR-Gesamtsystem auf der Basis von trockenem Harnstoff dargestellt, bei dem die Reduktionsmittelaufbereitung in einem elektrisch beheizten Reaktor erfolgt. Trockener Harnstoff bietet gegenüber der wässrigen Harnstofflösung eine Gewichtsersparnis von 67,5% und eine uneingeschränkte Wintertauglichkeit. Im externen Reaktor wird der Harnstoff unter stets optimalen Reaktionsbedingungen zersetzt. Der Harnstoff wird in Form von runden Pellets in einem Größenspektrum von 1,8-2,0 mm eingesetzt. Die Dosierung erfolgt durch Vereinzeln der Pellets mit einem Zellenraddosierer. Der Harnstoffmengenstrom wird durch Veränderung der Pausenzeit zwischen zwei Einzelportionen angepasst. Mit dem Dosiersystem ist die Reduktionsmittelversorgung im gesamten Motorkennfeld gewährleistet. Der Transport der Pellets vom Dosierer zum Reaktor erfolgt sequenziell durch eine Leitung nach dem Blasrohrprinzip mittels Druckluft. Die Druckluft wird durch einen Kompressor bereitgestellt. Das Förderprinzip ermöglicht einen Pellettransport über mehrere Meter, wobei Krümmungsradien bis 40 mm und vertikale Förderung entgegen der Schwerkraft unproblematisch sind. Der Reaktor besteht aus einer Thermolysekammer mit elektrisch auf 400°C beheizten Wänden und einem nachgeschalteten Hydrolysekatalysator. Die Harnstoffpellets werden in die Kammer eingebracht und thermisch zersetzt. Das für die Hydrolyse benötigte Wasser wird durch einen Abgasteilstrom bereitgestellt, der in die Thermolysekammer eingekoppelt und dort ebenfalls aufgeheizt wird. Die Zersetzungsprodukte Ammoniak und Kohlendioxid werden in den Abgashauptstrom eingebracht. Mit dem Gesamtsystem werden unter optimalen Randbedingungen NOx-Konvertierungsraten über 99% erreicht. Die NOx - und NH3-Bilanz zeigt allerdings, dass der Reduktionsmittelnutzungsgrad lediglich bei etwa 85% liegt. Im Hydrolysekatalysator wird ein Anteil des Ammoniaks oxidiert. Ein weiterer Teil wird durch Nebenreaktionen am SCR-Katalysator verbraucht. Das Verhalten des SCR-Katalysators unter dynamischen Betriebsbedingungen wurde mit Hilfe eines mathematischen Modells diskutiert. Das NH3-Adsorptionsvermögen des SCR-Katalysators nimmt mit steigender Temperatur stark ab. Gleichzeitig wird bei niedrigen Temperaturen bis etwa 250°C ein vergleichsweise hohes NH3-Beladungsniveau benötigt, um maximale NOx-Konvertierung zu erzielen. Bei höheren Temperaturen verläuft die SCR-Reaktion hingegen spontan in einer kurzen Reaktionszone am Katalysatoreintritt. Bei einem Wechsel des Motorbetriebspunktes von niedriger auf hohe Last steigt die Katalysatortemperatur schnell an. Das Adsorptionsvermögen des Katalysators nimmt ab. Wenn die eingespeicherte Reduktionsmittelmenge nicht in der SCR-Reaktion verbraucht wird, kommt es zu NH3-Schlupf. Bei niedrigeren Temperaturen muss daher die NH3-Beladung begrenzt werden. Dies hat allerdings eine verminderte NOx-Konvertierung zur Folge. Der Einfluss verschiedener Parameter auf den NOx-Umsatz und den Reduktionsmittelverbrauch wurde anhand des MVEG-Zyklus diskutiert. Durch kurzzeitige Hochdosierung und anschließende Anpassung der Reduktionsmittelmenge an den momentanen Umsatz wird die beste Ausnutzung des eingebrachten Reduktionsmittels erzielt. Ein optimierter NO2-Anteil bewirkt insbesondere in der Startphase eine höhere NOx-Konvertierungsrate. Ein größerer SCR-Katalysator vermindert die NH3-Schlupfgefahr. Die Reduktionsmittelausnutzung nimmt jedoch ab, so dass ein größerer Reduktionsmittelanteil im Katalysator verbleibt. Durch motornahe Positionierung erfährt der SCR-Katalysator ein höheres Temperaturkollektiv. Der NOx-Umsatz steigt dadurch deutlich. Gleichzeitig ist die im Katalysator verbleibende Reduktionsmittelmenge geringer. Dies erlaubt eine einfache Dosierstrategie, bei der sich die Reduktionsmitteldosierung an der momentanen Stickoxidkonvertierung orientiert. Für das Gesamtsystem wurde eine Betriebsstrategie erarbeitet, die gezielt auf die funktionalen Grenzen der Systemkomponenten abgestimmt ist. Die zugrunde liegende Emissionsminderungsstrategie sieht eine konstante fahrstreckenbezogene NOx-Minderung in allen Betriebszuständen vor. Hierdurch ist es möglich, sowohl alle für die Zertifizierung erforderlichen Abgasgrenzwerte zu unterschreiten, als auch eine deutliche Emissionsminderung außerhalb der prüfrelevanten Fahrzyklen zu erzielen. Gleichzeitig kann für eine definierte Fahrstrecke die mitzuführende Reduktionsmittelmenge genau vorhergesagt werden. Das Gesamtsystem wurde in einem EURO III-Versuchsfahrzeug auf dem Rollenprüfstand sowie im Straßenverkehr betrieben. Im Rahmen der bisherigen Tests konnte die Systemfunktion nachgewiesen werden. Im MVEG-Zyklus wird der EURO IV-NOx-Grenzwert mit vorkonditioniertem SCR-Katalysator knapp unterschritten. Durch eine gezielte Abstimmung des Motors auf die Erfordernisse des Abgasnachbehandlungssystems und eine Optimierung des NO2-Anteils ist eine weitere Absenkung des Emissionsniveaus möglich.
Im Rahmen dieser Diplomarbeit werden die Konzepte zur Unterstützung von datenbankorientierten Software-Produktlinien durch domänenspezifische Sprachen am Beispiel von Versionierungssystemen untersucht. Ziel dieser Arbeit ist es, die zeitlichen Kosten, die durch die Nutzung einer domänenspezifischen Sprache entstehen, zu bestimmen. Dabei werden unterschiedliche Datenbankschemata verwendet, um zu untersuchen, welcher Zusammenhang zwischen der Komplexität des Datenbankschemas und der Übersetzung einer domänenspezifischen Anweisung in eine Reihe von herkömmlichen SQL-Anweisungen besteht. Um die zeitlichen Kosten für die Reduktion zu bestimmen, werden Leistungsuntersuchungen durchgeführt. Grundlage für diese Leistungsuntersuchungen sind domänenspezifische Anweisungen, die von einem speziell für diesen Zweck entwickelten Generator erzeugt wurden. Diese generierten domänenspezifischen Anweisungen werden mit den unterschiedlichen Datenbanktreibern auf dem passenden Datenbankschema ausgeführt.
Untersuchung des Stoffübergangs bei der Trennung von Kobalt und Nickel durch Reaktivextraktion
(2004)
Die Trennung von Kobalt und Nickel in reine Komponenten ist schwierig auf Grund ihres ähnlichen physiko-chemischen Verhaltens. Die Reaktivextraktion bietet hierfür eine geeignete Prozessvariante. Im Rahmen dieser Arbeit wurde der Stoffübergang bei der Trennung von Kobalt und Nickel aus wässrigen Lösungen mit Hilfe der Reaktivextraktion untersucht. Die bei der Auslegung von Extraktoren wichtigen Kinetikdaten wurden in gängigen Standardapparaturen ermittelt. Neben den Gleichgewichten ? dem treibenden thermodynamischen Gefälle für den Stofftransport ? wurden in Tropfensäulen und Rührzellen kinetische Parameter ermittelt. Die Modellierung der experimentell ermittelten Gleichgewichtsdaten basiert auf einem thermodynamischen Modell, welches den Pitzer Ansatz, für Elektrolytlösungen, und den Ansatz von Hildebrand-Scott für organische Phasen berücksichtigt. Diese Modelle geben die Gleichgewichtsdaten zufriedenstellend wieder. Das Extraktionsverhalten wurde bis zu technisch relevanten Konzentrationen untersucht, der Maximalbeladung des organischen Ionentauschers. Auf Grund dieser eingesetzten Konzentrationen und der damit einhergehenden Vorkontaktierung des Ionentauschers mit Lauge, um einen pH-Wert Abfall bei der Extraktion abzupuffern, kam es zu Stabilitäts-phänomenen, die die Verwendung der Standardapparaturen nur eingeschränkt zulassen. Der Ionentauscher verhält sich bei hohen Vorkontaktierungsstärken als Tensid, bildet unterschiedliche Mizellformen in wässrigen und organischen Phasen, und zeigt einen Phasenzerfall, wie es von Winsor-Systemen bekannt ist. Daher wurde das Phasenverhalten in Abhängigkeit der Tensidkonzentration untersucht, es wurden vier Gebiete identifiziert, in denen das Stoffsystem 1 bis 4 phasig vorliegt. Eine Screening Apparatur wurde entworfen, mit der, bei technisch relevanten Vorkontaktierungen, unabhängig vom Phasenverhalten kinetische Aufschlüsse des Systems gewonnen werden können. Die Kontaktzeit zum Erreichen von 80 % des Gleichgewichtswertes schwankt je nach Konzentration von 20-60 s für Kobalt und Nickel. Über eine Einstellung der Verweilzeit ist es nicht möglich, eine zusätzliche Selektivität über das Gleichgewicht hinaus einzustellen, da bei niedrigen Kontaktzeiten ein Überschwingen der Nickelkonzentration über den Gleichgewichtswert hinaus in der organischen Phase auf Grund von Mizellbildung zu beobachten ist. Für die Kolonnenauslegung eines Reaktivextraktionsprozesses mit Phosphinsäuren ist der auftretende Phasenzerfall bei hohen Vorkontaktierungen unbedingt zu berücksichtigen, um Ablagerungen von Ionentauschersalz an Kolonneneinbauten zu vermeiden.