Habilitation
Refine
Document Type
- Habilitation (11) (remove)
Language
- German (11) (remove)
Has Fulltext
- yes (11)
Keywords
- CDMA (2)
- Mobilfunk (2)
- Batteriemanagement (1)
- Batterien (1)
- Empfängerorientierung (1)
- Faser-Kunststoff-Verbunde (1)
- Geometrical Product Specification (1)
- Geometrische Produktspezifikation (1)
- Interferenz (1)
- Joint Transmission (1)
Diese Schrift behandelt Spezialanwendungen von Schleifscheiben. Darunter fallen Anwendungen herkömmlicher Schleifscheiben für Spezialanwendungen, die über den üblichen Materialabtrag hinausgehen und auch die Entwicklung von Spezialschleifscheiben. Die Spezialanwendungen werden jeweils vorgestellt, die erzielten Ergebnisse diskutiert und kritisch reflektiert. Vor- und Nachteile sowie eventuelle Hemmnisse für die Erreichung einer Serien-reife werden beleuchtet. Nach der technologischen Bewertung erfolgt eine Betrachtung der Nachhaltigkeit der Spezialanwendungen, um eine abschließende Beurteilung zu ermöglichen, welche Konzepte sowohl technologisch also auch ökologisch und ökonomisch sinnvoll erscheinen und welche nicht. Hintergrund dieser Überlegungen ist die Tatsache, dass ein Spezialverfahren technologisch noch so interessant oder fähig sein mag, so lange es keine Vorteile für den Einsatz der Produkte oder eine Steigerung der Nachhaltigkeit der Produkte mit sich bringt, ist die Verfolgung des Spezialverfahrens nicht zu empfehlen. Daraus ergeben sich Empfehlungen für die Forschung und die Industrie zur Verfolgung bestimmter Spezialanwendungen.
Bei der Herstellung von Faser-Kunststoff-Verbunden (FKV) kommen unterschiedlichste Faser-, Kunststoff- sowie Faser/Kunststoff-Halbzeuge zum Einsatz. Diese weisen oft sehr komplexe Verarbeitungseigenschaften auf, die bei der Prozessentwicklung eine besondere Herausforderung darstellen. Ein typisches Beispiel ist die Verfahrensgruppe der Flüssigimprägnierverfahren, bei denen eine endkonturnahe Faserstruktur mit einem Harzsystem imprägniert wird. Eine den Prozessverlauf maßgeblich bestimmende Verarbeitungseigenschaft der Faserstruktur ist hierbei die Permeabilität. Sie quantifiziert die Durchlässigkeit der Faserstruktur für die fluide Strömung und resultiert aus einer Vielzahl an interdependenten Einflüssen, wie z. B. einer inhomogenen Porosität mit extrem variierenden Fließkanaldurchmessern, lokalen Strukturvariationen, einer hohen Deformierbarkeit sowie Kapillarkräften.
Wissensgenerierung durch Grundlagenforschung zu einer einzelnen prozesskritischen Verarbeitungseigenschaft (wie der Permeabilität), stellt eine ideale Grundlage für die ganzheitliche, also sowohl die Prozess- und Anlagentechnik als auch die Materialien umfassende, Prozessentwicklung der jeweils betrachteten Verfahren/Verfahrensgruppe (z. B. Flüssigimprägnierverfahren) dar. Vor diesem Hintergrund wird in der vorliegenden Arbeit eine mehrstufige, in sich geschlossene Forschungsmethodik definiert, die zur kontinuierlichen Weiterentwicklung des betrachteten Herstell-verfahrens sowie der eingesetzten Anlagen, Werkzeuge und Materialien geeignet ist. Anhand von Forschungsarbeiten zum Anwendungsbeispiel der Flüssigimprägnierverfahren bzw. der Permeabilität wird gezeigt, wie die Methodik umgesetzt werden kann: Der erste Schritt besteht in der Entwicklung von Methoden und Technologien, um Einflüsse auf die Permeabilität reproduzierbar zu erzeugen und die Auswirkungen untersuchen zu können. Anschließend folgen Parameterstudien zu Einflüssen auf die Permeabilität und die gewonnenen Erkenntnisse werden dann zu Richtlinien aggregiert. Anhand der Richtlinien können Materialien, Prozesse und Messtechnologien auf einen Anwendungsfall hin optimiert werden. Schließlich, werden über den Erkenntnisgewinn grundlegend neue Technologien entwickelt, woraus sich wiederum neue Aufgaben für die erste Stufe der Methodik ergeben.
Sicherheitstechnik ist eine sehr breit gefächerte Querschnittsdisziplin mit der Aufgabe
Mensch und Umwelt vor den Gefahren von Maschinen, Prozessen und technischen
Anlagen zu schützen. Während im 19ten Jahrhundert Anlagen durch Erfahrungswissen
sicher gestaltet worden sind, ist in der Sicherheitstechnik heute eine sehr
systematische Analyse von Gefahren und Risiken üblich. Dazu ist eine spezielle
Denkweise im Umgang mit stochastischen Prozessen und Unsicherheiten bei der
Modellierung hilfreich, die der Verfahrenstechniker oder Chemieingenieur ebenso
wenig im Studium erlernt wie ein Maschinenbauer oder Chemiker.
Die Sicherheitstechnik selbst und ihre Sicherheitskonzepte sind über lange Zeiträume
entstanden, beginnen mit Grundlagenforschungen, die anwendungsorientiert zu
speziellen sicherheitstechnischen Apparaten oder Modellen geführt haben. Diese
Apparate und Modelle sind anschließend eingebunden worden in Sicherheitskonzepte
für spezielle Anlagen wie Chemiereaktoren oder Gashochdruckleitungen.
In der vorliegenden Arbeit ist die Breite der Sicherheitstechnik und ihre Entwicklung an
sehr unterschiedlichen Beispielen verdeutlicht worden. Grundlegende Erkenntnisse
aus der Zweiphasenströmung führen zu Modellen wie der Auslegung von klassischen
Notentlastungsleitungen oder zur Entwicklung von Rückhalteeinrichtungen. Diese sind
Bestandteil von sehr unterschiedlichen Anlagensicherheitskonzepten bei Wärmeübertragern,
in der Hochdrucktechnik oder bei Multipurpose-Anlagen. Die Forschung zu
Grundlagen der Zweiphasenströmung führt auch zu neuen Sicherheitskonzepten für
Gashochdruckleitungen.
Am Beispiel von sicherheitsrelevanten Armaturen ist die langjährige Entwicklung von
Modellen zur Bemessung dieser Bauteile aufgezeigt worden. Ausgehend von einem
einfachen Düsenmodell wurden immer mehr Parameter berücksichtigt, um nicht nur
sicherheitsrelevante Ventile und Berstscheiben auszulegen, sondern auch Klappen,
Blenden, Stellventile und andere Armaturen. Durch eine hinreichende Validierung der
Modelle entstehen aus der Forschung neue Erkenntnisse für eine signifikante
Weiterentwicklung des Stands der Sicherheitstechnik.
Maschinenbetten und -gestelle werden vorwiegend aus Grauguss und als Stahlschweißkonstruktion gefertigt. Aufgrund technischer und wirtschaftlicher Vorteile haben sich seit den 80er Jahren zusätzlich Mineralguss oder epoxidharzgebundener Polymerbeton etabliert. Seit mehreren Jahren wird Ultra High Performance Concrete – UHPC – erfolgreich bei Werkzeugmaschinen eingesetzt. Auf diesen Grundgestellen aus Beton werden neben Gehäusen, Getrieben, Werkzeughaltern, Trafos usw. vor allem die beweglichen Teile der Maschine befestigt. Gängige Praxis hierfür ist die Verwendung von Linearführungsschienen.
Diese Arbeit untersucht die vorgespannte, geschraubte Befestigung der Linearführung auf geschliffenen Betonoberfläche mit Hilfe von speziellen Gewindehülsen. In rechnerischen Voruntersuchungen mittels der FE-Methode wurde der Kraftfluss von der Linearführung über die Befestigungsschraube zur Gewindehülse bis in den Betonuntergrund untersucht und darauf aufbauend ein Versuchsprogramm festgelegt. Probekörper aus hochfestem Beton des Marktführers wurden hergestellt und experimentell untersucht. Nach der Auswertung der Versuche wurde ein Bemessungskonzept entwickelt und in Form einer schrittweisen Anleitung festgehalten. Mehrere Beispiele zeigen die Anwendung des Verfahrens.
Berechnungen, Versuchskonzeption, Durchführung der Versuche, Versuchsauswertung sowie die Entwicklung des Bemessungskonzeptes erfolgten durch den Verfasser. Die Versuche wurden in seiner Anwesenheit in seinem Betrieb, in spezialisierten Unternehmen mit entsprechender Geräteausstattung und zum größten Teil an der TU Kaiserslautern durchgeführt. Die hier betrachteten Untersuchungen und Bemessungsvorschläge betrachten ausschließlich Maschinenbauteile und dürfen nicht auf Situationen im Bauwesen übertragen werden.
Die geometrische Produktspezifikation steht - wie viele andere Industriezweige - vor einschneidenden Veränderungen. Durch Digitalisierung und Automatisierung ändern sich viele industrielle Rahmenbedingungen. Ziel dieser Arbeit ist es, die derzeitigen Trends für die industrielle Rauheitsmesstechnik systematisch zusammenzutragen. Basierend auf diesen Veränderungen werden korrespondierende eigene Forschungsarbeiten vorgestellt, welche an die gezogenen Schlussfolgerungen anknüpfen. Dabei wird ein ganzheitlicher Ansatz zur Betrachtung technischer Oberflächen gewählt, welcher zunächst die fertigungstechnische Erzeugung deterministischer Rauheitsstrukturen analysiert. Anschließend werden die Beschreibung der resultierenden Topographiemerkmale mittels mathematischer Modelle und deren messtechnische Erfassung durch typische Topographie-Messgeräte untersucht. Weiterhin wird die hierauf aufbauende Charakterisierung der Oberfläche thematisiert, welche durch die Anwendung der Operationen Einpassung, Interpolation, Filterung und Berechnung von Rauheitskenngrößen gekennzeichnet ist.
Im Rahmen fertigungstechnischer Betrachtungen werden dabei neue Technologien für die Herstellung flächenhafter Kalibriernormale untersucht, welche stellvertretend für deterministische Rauheitsstrukturen dienen, die immer weitere industrielle Verbreitung finden, um funktionelle Bauteileigenschaften mithilfe der Oberflächenbeschaffenheit abzubilden. Als Fertigungsverfahren werden dabei das direkte Laserschreiben sowie das Mikrofräsen betrachtet.
Für die eigentliche Betrachtung dieser Oberflächen werden dabei Ansätze zur Modellierung von Rauheitseigenschaften untersucht, welche auf Methoden aus der Zeitreihenmodellierung basieren.
Die messtechnische Erfassung von Rauheitsstrukturen ist anschließend Gegenstand der Analyse des Übertragungsverhaltens. Dabei werden hier ebenfalls Modelle genutzt, um die Übertragung von Oberflächeneigenschaften durch technische Rauheitsmessgeräte zu modellieren.
Letzte Betrachtungen werden zur Auswertung von Rauheitskenngrößen angestellt. Dabei werden insbesondere die funktionsorientierten Rauheitskenngrößen untersucht, welche aufgrund der zunehmenden Komplexität technischer rauer Oberflächen verstärkt an Bedeutung gewinnen.
Die Arbeit behandelt neuartige und gängige Methoden der Baugrundertüchtigung. Die Notwendigkeit einer Baugrundertüchtigung ergibt sich, wenn der anstehende Baugrund nicht in der Lage ist, den beabsichtigten Einwirkungen einen ausreichenden Widerstand entgegenzusetzen. Hierbei kann es sich um Einwirkungen einer geplanten Baumaßnahme handeln, wobei diese Lasten statischer oder auch dynamischer Natur sein können. Auch wenn es sich um Hilfsmaßnahmen handelt, beispielsweise an Baustraßen, so müssen diese während der geplanten Bauzeit ihre Funktion sicher erfüllen. Als weiteres Beispiel sei die Verarbeitbarkeit eines Bodens genannt, wenn dieser als Baustoff bei der Errichtung eines Dammbauwerkes verwendet wird. Letztendlich unterliegen Erdbauwerke nicht nur mechanischen Belastungen, sondern können auch durch Erosionsvorgänge einer Beanspruchung ausgesetzt sein. Wird der Baustoff Boden diesen Anforderungen nicht in ausreichendem Maße gerecht, so muss er entweder gegen ein geeignetes Material ausgetauscht werden oder es werden beispielsweise aufwändige Ergänzungsmaßnahmen erforderlich.
Um diese Maßnahmen zu umgehen, bieten sich in geeigneten Situationen die Ertüchtigung der vorgefundenen Böden an. Hierbei handelt es sich nicht nur um eine ressourcenschonende Vorgehensweise, oftmals ist diese Vorgehensweise auch die wirtschaftlichere. Der anstehende Boden muss nicht verfrachtet, möglicherweise deponiert und ein neues Material beigefahren werden. Die in situ Bearbeitung erfordert lediglich die Beistellung entsprechender Bauhilfsstoffe zur Ertüchtigung.
Welche Art an Bauhilfsstoffen zum Einsatz kommt, richtet sich vorrangig nach den vorgefundenen Bodenverhältnissen. Als traditionelles und längst etabliertes Verfahren hat sich die Beimischung geeigneter Bindemittel hervorgetan. Zu nennen sind hier die beiden hydraulischen Bindemittel Kalk und Zement. Für die Anwendung dieser Stoffe existieren Regelwerke, die Prüfungs- und Kontrollmethoden vor und während des Einbaus solcher Boden-Bindemittel-Mischungen beschreiben.
Trotz des seit langer Zeit bewährten Einsatzes, ist auch bei den beiden genannten Bauhilfsstoffen zu berücksichtigen, dass es sich letztendlich um Rohstoffe handelt, obwohl auch hier insbesondere bei den Kompositzementen bereits ein erhebliches Recyclingpotential genutzt wird. Jedoch fällt ins Gewicht, dass bei der Herstellung der Produkte klimaschädliches Kohlendioxid freigesetzt wird. Unter diesen Gesichtspunkten stellt die Verwendung von Industrieabfällen, die in gleichbleibender Güte anfallen, eine interessante Alternative dar. Neben diesen sogenannten by-products können auch recyclingfähige Materialien verwendet werden, sofern deren Eignung nachgewiesen werden kann. Eine gewisse Hürde bei der Verwendung der letztgenannten Alternativen stellen umweltrechtliche Fragestellungen dar. Zum einen handelt es sich um Abfälle und damit um Produkte, die rechtlich einer gänzlich anderen Würdigung und Bewertung unterliegen. Zum anderen müssen entsprechende Wechselwirkungen zwischen den Stoffen und der umgebenden Biosphäre berücksichtigt und bewertet werden.
In der vorliegenden Habilitationsarbeit werden im ersten Kapitel zunächst als Ausgangspunkt die wesentlichen Merkmale und Eigenschaften beim Einsatz traditioneller Kalk- und Zementbeimischungen untersucht. Das Kapitel 2 schließt an mit Betrachtungen zu dem Baustoff Tonbeton. Hierbei handelt es sich um einen ebenfalls schon lange Zeit bekannten Baustoff, der zwar aufgrund seines eng begrenzten Anwendungsspektrums nur wenig verbreitet ist. Aufgrund seiner Ähnlichkeit zu aktuellen Baustoffen, den zeitweise fließfähigen, selbstverdichtenden Verfüllbaustoffen, gewinnt das Produkt jedoch an Bedeutung. Dies gilt umso mehr, als Prüf- und Kontrollmethoden aufgrund des ähnlichen rheologischen Verhaltens im frühen Zustand derzeit nur ansatzweise vorliegen.
Die Kapitel 3 bis 5 umfassen neuartige Methoden der Bodenertüchtigung. Zu allen Verfahren liegen bereits Erfahrungen aus mehr als zwei Jahrzehnten vor. Diese Erfahrung beruht jedoch vorrangig auf exemplarischen Laborstudien.
Zu nennen sind hier zunächst die Epoxidharze in Kapitel 3. Epoxide werden im Konstruktiven Ingenieurbau vermehrt eingesetzt. Auch in der Geotechnik finden sich neben Laboruntersuchungen bereits praktische Anwendungsfälle, die eine wirksame Ertüchtigung von Festgestein dokumentiert. Eigene Untersuchungen bestätigen die Wirksamkeit dieser Methode.
Mit den Untersuchungen zu Boden-Gummi-Mischungen in Kapitel 4 werden Recyclingprodukte in die Ertüchtigungsmethoden mit einbezogen. Recyclinggummi steht in den unterschiedlichsten Formen zur Verfügung. Je nach Aufwand werden entweder komplette Reifen verbaut, zu Paketen verschnürt oder als Schreddergut in unterschiedlichen Siebfraktionen bis hin zu Pulver verbaut. Dementsprechend vielfältig ist auch das Anwendungsspektrum. Während insbesondere in den USA und einigen europäischen Ländern dieser „Baustoff“ bereits eine gewisse Akzeptanz besitzt, führen in Deutschland rechtliche und umwelttechnische Belange dazu, dass dieses Produkt derzeit nicht vermehrt eingesetzt wird.
In dem letzten Kapitel 5 wird als Ertüchtigungsmethode die Verwendung von Enzymen vorgestellt. Die Untersuchungen belegen, dass dieses biologische Verfahren für bestimmte Anwendungen durchaus seine Berechtigung hat und auch konkurrenzfähig zu bestehenden Methoden auftreten kann.
Die moderne Reaktions- und Trenntechnik in der chemischen Industrie ist eine Hochtechnologie. Die dort eingesetzten Verfahren zur Reaktionsführung und Auftrennung der Produkte sind weitestgehend optimiert. Zu diesem Stand hat die instrumentelle Analytik – speziell die Prozeßanalytik – wesentlich beigetragen. Das Reaktions- und Prozeßmonitoring ist eine wichtige Hilfe zum Verständnis der komplexen Zusammenhänge. In der vorliegenden Arbeit wird der Einsatz der NMR-Spektroskopie in verfahrenstechnischen Anwendungen wie dem Reaktions- und Prozeß-Monitoring diskutiert und alle dazu notwendigen Grundlagen erläutert. Solche Anwendungen erfordern häufig Techniken, mit denen hochaufgelöste Spektren zerstörungsfrei aufgenommen werden können, oft bei erhöhtem Druck und erhöhter Temperatur. Neben der quantitativen Bestimmung der Zusammensetzung komplexer reagierender Mischungen besteht gleichzeitig die Möglichkeit zur Identifikation von Nebenprodukten. Dieses gelingt insbesondere durch die Nutzung der NMR-Spektroskopie als Online-Methode, die in der Literatur bislang nur in wenigen Einzelfällen beschrieben und trotz ihrer enormen Möglichkeiten noch nicht konsequent angewendet wird. Durch die fortschreitende Entwicklung auf dem Gebiet der NMR-Spektroskopie kann eine Online-Anbindung heute durchgehend mit Hilfe kommerziell erhältlicher Komponenten erfolgen – wie die vorliegende Arbeit zeigt. Fallende Kosten in der Beschaffung und dem Betrieb leistungsfähiger NMR-Spektrometer machen die Methode auch im verfahrenstechnischen Umfeld mittlerweile sehr attraktiv. Die Attraktivität der Methode gewinnt neuerdings insbesondere durch die erweiterten Einsatzmöglichkeiten kompakterer NMR-Magneten mit geringen Streufeldern. Obwohl sich in den Ingenieurwissenschaften damit vielfältige Einsatzmöglichkeiten ergeben, wird die NMR-Spektroskopie dort bislang noch leider kaum genutzt. Besondere Herausforderungen stellen sich u. a. dadurch, daß sich weder deuterierten Komponenten einsetzen lassen noch die Probe in einer geeigneten Weise in einer Probenvorbereitung verändert werden kann. Damit kommen hochkonzentrierte Mischungen zur direkten Untersuchung. Dieses hat signifikante Rückwirkungen auf die einzusetzende NMR-Methodik, die im Rahmen der Arbeit umfassend untersucht wurde. In der Regel lassen sich die Probleme bei entsprechender experimenteller Vorgehensweise umgehen. Zur Garantie quantitativer Meßwerte wurden alle eingesetzten Meß- und Auswertungsstrategien ausführlich untersucht und teilweise erweitert. Um quantitativ aussagekräftige Online-NMR-Spektren mit Hilfe der 1H- und 13C-NMRSpektroskopie von technischen Mischungen zu erhalten, wurden folgende Aufgaben gelöst: Entwicklung und Validierung von Vorgehensweisen zur Messung hochkonzentrierter, technischer Mischungen ohne Probenvorbereitung und ohne Zusatz deuterierter Komponenten; Konstruktion geeigneter Apparaturen zur Untersuchung von Reaktionsgleichgewichten und -kinetiken für verschiedene Druck- und Temperaturbereiche, die sich optimal für die Online-NMR-Spektroskopie einsetzen lassen; Ankopplung der NMR-Spektrometers an die unterschiedlichen Apparate mit Hilfe von NMR-Durchflußzellen; Schaffung einer möglichst noninvasiven Untersuchungsmethode hinsichtlich aller Probenparameter (z. B. Druck, Temperatur); Schaffung und Erprobung von Meß- und Auswertungsstrategien im Hinblick auf quantitative Parameter, Erweiterung des zugänglichen Druck- und Temperaturbereiches der Messungen sowie Verkürzung des Zeitfensters für Messungen durch geeignete Peripherie und konstruktiven Veränderungen am NMR-Probenkopf. Als Beispiel werden Messungen an binären und ternären flüssigen Mischungen aus Formaldehyd, Wasser und Methanol diskutiert. In diesen Systemen ist Formaldehyd fast ausschließlich in Poly(oxymethylen)Glykolen und -hemiformalen chemisch gebunden. Die chemischen Reaktionen in formaldehydhaltigen Mischungen bestimmen deren thermodynamisches Verhalten sowie ihre Trennung mit thermischen Verfahren. Die NMR-Spektroskopie ist das zentrale analytische Verfahren, mit dem sich diese Vorgänge aufklären und quantifizieren lassen. Für die hier vorgestellten Untersuchungen zum Prozeßmonitoring kamen u. a. eine Online-NMRKopplung mit einem Dünnschichtverdampfer sowie mit einem Rührreaktor zum Einsatz. In weiteren Anwendungsbeispielen zum Thema Formaldehyd wird aufgezeigt, daß sich die Online-NMR-Spektroskopie auch zum Studium komplexer Reaktionsnetzwerke, zur Messung von Gaslöslichkeiten oder zur Quantifizierung kleinster Produktmengen unter schwierigen, technischen Reaktionsbedingungen eignet. Ferner werden Arbeiten zur Aufklärung und Quantifizierung der chemischen Prozesse bei der Absorption von Kohlendioxid in wässrigen Aminlösungen bei Drücken bis zu 30 bar und reaktionskinetische Untersuchungen von Veresterungen vorgestellt, bei denen auch ein Vergleich mit einer GC-Analytik durchgeführt wurde. Ebenso wird gezeigt, daß sich die Online-NMR-Spektroskopie zur Beobachtung von Reaktionen in Ionischen Flüssigkeiten eignet. Ein Teil der Arbeit beschäftigt sich mit der Untersuchung fluider Mischungen bei hohen Drücken. Beispielhaft werden Arbeiten zu H-Brückengleichgewichten von Methanol in überkritischem Kohlendioxid vorgestellt, die eine wertvolle, experimentelle Datenbasis zur Überprüfung molekulardynamischer Modelle in der molekularen Simulation liefern. Für die meisten Anwendungsbeispiele werden neue Reaktoren und Meßapparaturen vorgestellt, die sich besonders für den Einsatz in der Durchfluß-NMR-Spektroskopie eignen. Schließlich wird kurz auf die Anwendung der NMR-Spektroskopie zur Bestimmung physikalisch chemischer Größen eingegangen, wie z. B. zur Bestimmung von Diffusuionskoeffizienten in technischen Mischungen. Erstmals wird der Einsatz der Methode in der Taylor-Dispersionstechnik beschrieben und experimentell belegt.
Die vorliegende Arbeit verfolgt das Ziel, das Aufkommen und die Verteilung von Stoffen im urbanen Wasserkreislauf, insbesondere in den Abwassersystemen in einer umfassenden Gesamtschau zu untersuchen und zu bewerten. Diese ganzheitliche Betrachtungsweise unterscheidet sich von den bisherigen Untersuchungen, die sich in der Regel auf einen Stoff oder auf einzelne Komponenten in diesem Kreislauf beziehen. Das untersuchte Stoffspektrum reicht von den herkömmlichen Abwasserparametern, wie dem Chemischen Sauerstoffbedarf (CSB), bis hin zu „neuen“, vorwiegend organischen Verbindungen, die in der EG-Wasserrahmenrichtlinie als prioritäre Stoffe bzw. prioritäre gefährliche Stoffe aufgelistet sind. Eine Sichtung der verfügbaren Daten zeigt, dass die Kenntnisse über das Aufkommen und die Wirkung dieser Stoffe sehr lückenhaft sind. Es ist deshalb erforderlich und für die siedlungswasserwirtschaftliche Praxis dringlich, sich mit der Problematik der organischen Schadstoffe zu befassen und die wichtigsten Stoffströme im Abwassersystem zu analysieren. In einem ersten Schritt wird das Gesamtsystem des urbanen Wasserkreislaufs mit seinen naturräumlichen (z.B. Grundwasser) und abwassertechnischen Elementen (z.B. Kanalisation und Kläranlage) dargestellt. Um einen ersten Überblick zu gewinnen und eine geeignete Grundlage für die weitere Vorgehensweise zu erhalten, wird zunächst ein breites Spektrum von Stoffen, aufgeteilt nach anorganischen und organischen Substanzen, beschrieben. Als wichtige Folgerung für künftige Erhebungen ist aus dieser pauschalen Betrachtung abzuleiten, die Datenbasis durch weitere Messungen zu verbessern und die Messprogramme besser aufeinander abzustimmen. Darauf aufbauend werden in einer zweiten Stufe ausgewählte Stoffe bzw. Stoffgruppen, die aufgrund ihres Aufkommens und ihrer potenziellen Auswirkungen auf Fließgewässer als relevant einzuordnen sind, sog. Leitparameter, detailliert behandelt. Als Basis für die Auswahl dieser Leitparameter dienen zunächst die rechtlichen Regelungen, vor allem die der EG-Wasserrahmenrichtlinie. Als weitere Kriterien werden die mögliche toxische Wirkung der Stoffe, das signifikante Aufkommen in den Abwassermatrices und die Verfügbarkeit von Daten herangezogen. Eine erste Gruppe der Leitparameter umfasst bisher schon häufig im Abwassersystem untersuchte Stoffe bzw. Stoffgruppen: Feststoffparameter, die Summenparameter CSB und BSB, die Nährstoffe Stickstoff und Phosphor sowie die Schwermetalle Kupfer, Blei, Cadmium und Zink. Als charakteristisches Unterscheidungskriterium wird die Herkunft der Stoffe definiert, die eindeutig die Belastung der verschiedenen Matrices des Abwassersystems bestimmt. Während sich die aus dem Schmutzwasser stammenden („schmutzwasserbürtigen“) Verbindungen (z.B. EDTA) überwiegend im Kläranlagenablauf finden, sind die von der Oberfläche stammenden („oberflächenbürtigen“) Verbindungen (z.B. PAK) vor allem in den niederschlagsbedingten Abflüssen zu erwarten. Um in Erfahrung zu bringen, welche Reduktionssmaßnahmen geeignet sind, werden Überlegungen zur Verteilung dieser Stoffe in den Abwasserentsorgungssystemen angestellt. Mit Hilfe des Instruments der Schmutzfrachtsimulation werden für 32 ausgewählte Stoffe bzw. Sowohl die Zusammenstellung der theoretischen Grundlagen als auch die Ergebnisse der Simulation, die im Anhangsband wiedergegeben sind, zeigen erhebliche Unterschiede im Verhalten der verschiedenen Stoffe im Abwasserentsorgungssystem. Für 19 ausgewählte Stoffe bzw. Stoffgruppen, die als relevant gelten müssen, wird eine abschließende Einordnung und Bewertung vorgenommen. Maßgebend für das Aufkommen und die Verteilung im Abwassersystem sind die Kenngrößen: „vorwiegende Herkunft“, „Anteil des partikulären Transports“ und „Rückhalt in der Kläranlage“. Für jede Stoffgruppe werden Empfehlungen zur Verminderung der Gewässerbelastung ausgesprochen. Ein wesentlicher Aspekt dabei ist, die Schadstoffpotenziale bereits an der Quelle zu verringern, gemäß der Forderung der EG-Wasserrahmenrichtlinie, Einleitungen, Emissionen und Verluste prioritärer gefährlicher Stoffe der EG-WRRL zu beenden oder schrittweise einzustellen. In einigen Szenarien konnte gezeigt werden, dass die wirkungsvollste Maßnahme zur Verminderung der Stoffeinträge in Gewässer die Erhöhung der Rückhalteleistung in der Kläranlage und der Regenentlastung ist, die mit bestimmten Techniken wie Membrananlagen, Aktivkohlefiltern und Bodenfiltern erreicht werden kann. Die Weiterentwicklung und der Einsatz moderner Technologien zur Abwasserreinigung und zur Regenwasserbehandlung bleiben damit wichtige Aufgaben für die Zukunft.
In heutigen Mobilfunksystemen wird ausschließlich senderorientierte Funkkommunikation eingesetzt. Bei senderorientierter Funkkommunikation beginnt der Systementwurf mit dem Sender. Dies bedeutet, daß man a priori die senderseitig verwendeten Algorithmen der Sendesignalerzeugung auswählt und in Abhängigkeit davon a posteriori den im Empfänger zum Datenschätzen verwendeten Algorithmus gegebenenfalls unter Einbeziehen von Kanalzustandsinformation festlegt. Dies ist nötig, um beispielsweise einen möglichst großen Anteil der senderseitig investierten Energie empfängerseitig auszunutzen, das heißt energieeffizient zu sein, und dabei gleichzeitig das Entstehen schädlicher Interferenzsignale zu vermeiden oder zu begrenzen. Im Falle der Senderorientierung kann man senderseitig sehr einfache Algorithmen wählen und implementieren, wobei dieser Vorteil typischerweise durch eine ungleich höher Implementierungskomplexität der a posteriori festzulegenden empfängerseitigen Algorithmen aufgewogen werden muß. Betrachtet man die wirtschaftlich bedeutenden zellularen Mobilfunksysteme, so ist eine derartige Funkkommunikation in der Aufwärtsstrecke vorteilhaft, denn in der Aufwärtsstrecke sind die Endgeräte der mobilen Teilnehmer, die Mobilstationen, die einfachen Sender, wohingegen die ortsfesten Basisstationen die Empfänger sind - und dort kann typischerweise eine größere Komplexität in Kauf genommen werden. In der Abwärtsstrecke derartiger Mobilfunksysteme hingegen, sind die Basisstationen die einfachen Sender, wohingegen die Mobilstationen die aufwendigen Empfänger sind. Dies ist nicht vorteilhaft, da in praktischen Mobilfunksystemen Gewicht, Volumen, Energieverbrauch und Kosten der Endgerätehardware und damit der Mobilstationen mit der Implementierungskomplexität steigen. Wie der Verfasser in der vorliegenden Schrift vorschlägt, läßt sich dieses Problem jedoch umgehen, denn die Funkkommunikation in Mobilfunksystemen kann auch in neuartiger Weise empfängerorientiert gestaltet werden. Empfängerorientierte Funkkommunikation ist dadurch gekennzeichnet, daß der Systementwurf auf der Empfängerseite beginnt. In diesem Fall werden die empfängerseitig verwendeten Algorithmen des Datenschätzens a priori festgelegt, und die senderseitig einzusetzenden Algorithmen der Sendesignalerzeugung ergeben sich dann daraus a posteriori durch Adaption wiederum gegebenenfalls unter Einbeziehen von Kanalzustandsinformation. Durch Empfängerorientierung kann man empfängerseitig sehr einfache Algorithmen wählen und implementieren, muß dafür jedoch eine höhere Implementierungskomplexität auf der Senderseite tolerieren. Angesichts der erwähnten Komplexitätscharakteristika von Sender- beziehungsweise Empfängerorientierung schlägt der Verfasser daher für künftige Mobilfunksysteme vor, Empfängerorientierung in der Abwärtsstrecke und Senderorientierung in der Aufwärtsstrecke einzusetzen. Dies ist insbesondere deshalb vorteilhaft, da Empfängerorientierung in der Abwärtsstrecke neben anderen noch die folgenden weiteren Vorteile gegenüber herkömmlicher Senderorientierung aufweist: 1) Die Leistung der von den Basisstationen abgestrahlten Signale kann reduziert werden. Dies erlaubt performanzhemmende systeminherente Störeinflüsse, die als Interzellinterferenz bezeichnet werden, zu reduzieren und ist im übrigen auch wünschenswert im Hinblick auf die zunehmende Elektrophobie der Bevölkerung. 2) Kanalzustandsinformation wird empfängerseitig nicht benötigt, so daß auf das Senden resourcenbindender Trainingssignale verzichtet und anstelle dessen das Sende von Nutzdaten ermöglicht werden kann. 3) Empfängerseitig ist kein Kanalschätzer vorzusehen, was des weiteren der Implementierungskomplexität des Empfängers zu gute kommt. Mobilfunksysteme lassen sich demzufolge durch Einsetzen des Grundkonzepts der Empfängerorientierung maßgeblich aufwerten. Dieses ist eine klare Motivation die Grundzüge, das Potential und die Ausgestaltungen dieses Grundkonzepts in der Mobilkommunikation in dieser Schrift eingehend zu studieren. Zur Klärung dieser Punkte im Kontext von Mobilkommunikation ist es entscheidend, die Frage der Wahl der Empfänger und die der Adaption der Sender zu beantworten. Die Frage nach der Adaption der Sender ist dabei gleichbedeutend mit der Frage nach der im allgemeinen auf Basis aller Daten erfolgenden gemeinsamen Sendesignalerzeugung. Nach der Einführung eines geeigneten allgemeinen Modells der Abwärtsstreckenübertragung eines zellularen Mobilfunksystems, das auch erst in jüngster Vergangenheit vorgeschlagene Mehrantennenkonfigurationen an den Basisstationen und Mobilstationen einschließt, wird hinsichtlich der A-priori-Wahl der Empfänger herausgestellt, daß, im Hinblick auf die bereits oben angesprochene möglichst geringe Implementierungskomplexität die Ausgestaltung der empfängerseitigen Signalverarbeitung als serielle Verkettung einer linearen Signalverarbeitung und eines nichtlinearen Quantisierers vorteilhaft ist. Die Prinzipien, die bei der Wahl sowohl der linearen Signalverarbeitung als auch des nichtlinearen Quantisierer gelten, werden im folgenden herausgearbeitet. Als Ergebnis dieser Betrachtungen stellt sich heraus, daß ein Gestalten der empfängerseitigen linearen Signalverarbeitung gemäß Codemultiplex hinsichtlich der ausnutzbaren Frequenz-, Zeit- und Raumdiversität vorteilhaft ist, jedoch leistungsfähige Verfahren der gemeinsamen Sendesignalerzeugung voraussetzt, die die Entstehung schädlicher Interferenzsignale verhindern. Des weiteren wird klar, daß sich die nichtlinearen Quantisierer sinnvollerweise in die Klasse der konventionellen und die der unkonventionellen Quantisierer unterteilen lassen; gleiches gilt für die diese Quantisierer verwendenden Empfänger. Konventionelle Quantisierer basieren auf einfach zusammenhängenden Entscheidungsgebieten, wobei jedes Entscheidungsgebiet eindeutig einer möglichen Ausprägung eines übertragenen Nachrichtenelements zugeordnet ist. Demgegenüber weisen unkonventionelle Quantisierer mehrfach zusammenhängende Entscheidungsgebiete auf, die sich jeweils aus mehreren Teilentscheidungsgebieten zusammensetzen. Das Vorhandensein mehrerer Teilentscheidungsgebiete pro Entscheidungsgebiet und damit pro Ausprägung eines übertragenen Nachrichtenelements stellt einen bei unkonventionellen Quantisierern verfügbaren zusätzlichen Freiheitsgrad dar, der bei der gemeinsamen Sendesignalerzeugung vorteilhaft genutzt werden kann, um die angesprochene Leistung der von den Basisstationen abgestrahlten Signale zu reduzieren. Ein Schwerpunkt der vorliegenden Schrift ist das Studium von Verfahren der gemeinsamen Sendesignalerzeugung. Diese werden daher systematisch gegliedert und erarbeitet. Es stellt sich heraus, daß Verfahren der gemeinsamen Sendesignalerzeugung prinzipiell unterteilt werden können in solche Verfahren für konventionelle Empfänger und solche für unkonventionelle Empfänger. Hinsichtlich Verfahren der erstgenannten Art wird herausgearbeitet, wie eine optimale gemeinsame Sendesignalerzeugung zu erfolgen hat, die unter gewissen Nebenbedingungen eine optimale Übertragungsqualität im Sinne minimaler Übertragungsfehlerwahrscheinlichkeit erzielt. Eine derartige gemeinsame Sendesignalerzeugung ist im allgemeinen recht aufwendig, so daß im Folgeverlauf die suboptimalen linearen Verfahren der gemeinsamen Sendesignalerzeugung Transmit Matched Filter (TxMF), Transmit Zero-Forcing (TxZF) und Transmit Minimum-Mean-Square-Error (TxMMSE) vorgeschlagen werden, die jeweils einen mehr oder weniger guten Kompromiß zwischen Implementierungskomplexität, Interferenzunterdrückung und Robustheit hinsichtlich Rauschens aufweisen. Der Verfasser schlägt vor, die Leistungsfähigkeit derartiger suboptimaler Verfahren unter anderem durch die bei gegebener Zeitdauer abgestrahlte totale Energie der Sendesignale, die totale Sendeenergie, - denn diese ist nicht nur im technischen, sondern auch im gesellschaftlichen Sinn ein wichtiger Aspekt, - und das Kriterium der Sendeeffizienz zu bewerten. Sendeeffizienz beurteilt das Zusammenspiel aus Interferenzunterdrückung einerseits und energieeffizienter Übertragung andererseits. Es stellt sich durch analytische und numerische Betrachtungen heraus, daß beide Größen vorrangig von zwei Einflußfaktoren bestimmt werden: der Anzahl der Freiheitsgrade bei der gemeinsamen Sendesignalerzeugung - und das ist die Anzahl der zu bestimmenden Abtastwerte aller Sendesignale - und der Anzahl der dabei einzuhaltenden Restriktionen. Da die Anzahl der Restriktionen bei der Forderung einer möglichst geringen wechselseitigen Interferenz nicht beeinflußbar ist, schlägt der Verfasser daher zum Erhöhen der Leistungsfähigkeit der empfängerorientierten Funkkommunikation vor, die Anzahl der Freiheitsgrade zu erhöhen, was sich vorzugsweise durch Verfolgen des Prinzips der unkonventionellen Empfänger umsetzen läßt. Es wird gezeigt, wie unter gewissen Nebenbedingungen eine hinsichtlich der Übertragungsfehlerwahrscheinlichkeiten optimale gemeinsame Sendesignalerzeugung prinzipiell erfolgen muß, und welche erheblichen Performanzgewinne im Sinne der totalen Sendeenergie und der Sendeeffizienz möglich werden. Diese optimale Vorgehensweise ist sehr aufwendig, so daß darüber hinaus aufwandsgünstige suboptimale hochperformante Alternativen der gemeinsamen Sendesignalerzeugung für unkonventionelle Empfänger vorgeschlagen und betrachtet werden. Die gemeinsame Sendesignalerzeugung setzt senderseitiges Vorliegen von Kanalzustandsinformation voraus. Daher werden die prinzipiellen Möglichkeiten des zur Verfügung Stellens dieser Information behandelt, wobei dabei das Bereitstellen dieser Information auf Basis gegebenenfalls vorliegender Kanalreziprozität im Falle von Duplexübertragung favorisiert wird. Dabei wird die in der Aufwärtsstrecke gewonnene Kanalzustandsinformation zur gemeinsamen Sendesignalerzeugung in der Abwärtsstrecke genutzt. Ist die dabei genutzte Kanalzustandsinformation nicht exakt, so hat dieses prinzipiell eine Degradation der Leistungsfähigkeit der empfängerorientierten Funkkommunikation zur Folge. Analytische und/oder numerische Betrachtungen erlauben, die Degradation zu quantifizieren. Es stellt sich heraus, daß diese Degradation vergleichbar mit der von konventionellen senderorientierten Funkkommunikationssystemen bekannten ist. Eine Betrachtung möglicher Weiterentwicklungen des Grundprinzips der Empfängerorientierung komplettieren die in dieser Schrift angestellten Betrachtungen. Die Ergebnisse dieser Schrift belegen, daß Empfängerorientierung ein interessanter Kandidat für die Organisation der Abwärtsstreckenübertragung künftiger Mobilfunksysteme ist. Darüber hinaus wird klar, welche grundsätzlichen Prinzipien und Effekte bei der empfängerorientierten Funkkommunikation wirksam sind und durch welche Vorgehensweisen bei der Gestaltung derartiger Funkkommunikation die Einflüsse der verschiedenen Effekte gegeneinander ausbalanciert werden können. Für den Systemdesigner morgiger Mobilfunksysteme steht mit dieser Schrift daher ein wertvolles Nachschlagewerk zur Verfügung, daß dabei unterstützt, die genannten prinzipiellen Vorteile von Empfängerorientierung in Funktechnologien der Praxis umzumünzen.
Interferenzreduktion in CDMA-Mobilfunksystemen - ein aktuelles Problem und Wege zu seiner Lösung
(2003)
Eine signifikante Steigerung der Leistungsfähigkeit von Mobilfunksystemen und die damit verbundene Erhöhung des mit begrenzten Frequenzspektrumsressourcen erzielbaren ökonomischen Gewinns erfordert eine Interferenzreduktion. Da der von einem empfangenen Interferenzsignal erzeugte Störeffekt sowohl von der Leistung des Interferenzsignals als auch von der Struktur des Interferenzsignals im Vergleich zur Struktur des Nutzsignals abhängt, ergeben sich zwei prinzipielle Ansätze zur Reduktion der Interferenz. Bei den Interferenzreduktionsverfahren auf der Systemebene wird die Leistung der empfangenen Interferenzsignale zum Beispiel durch geschickte Regelung der Sendeleistungen oder durch Einstellen der Richtcharakteristiken von Antennen reduziert. Interferenzreduktionsverfahren auf der Systemebene sind relativ einfach realisierbar und können bereits in heutigen Mobilfunksystemen erfolgreich eingesetzt werden. Interferenzreduktionsverfahren auf der Verbindungsebene zielen auf eine vorteilhafte Beeinflussung oder Berücksichtigung der Signalstrukturen. Ausgehend von allgemeingültigen Eigenschaften des Mobilfunkkanals wie Linearität kann man Signalstrukturen finden, die a priori zu wenig oder sogar keiner schädlichen Interferenz führen. Solche einfachste, vom aktuellen Zustand des Mobilfunkkanals unabhängigen Interferenzreduktionsverfahren auf der Verbindungsebene sind beispielsweise die Vielfachzugriffsverfahren, die in jedem Mobilfunksystem eingesetzt werden. In letzter Zeit werden auch vermehrt Interferenzreduktionsverfahren auf der Verbindungsebene untersucht, die die Kenntnis des aktuellen Kanalzustands ausnutzen. Solche Interferenzreduktionsverfahren erfordern komplizierte Berechnungen in Sender oder Empfänger, in die die einzelnen Signalabtastwerte und die schnell zeitvarianten Kanalimpulsantworten eingehen. Der daraus resultierende hohe Rechenaufwand verhinderte bis vor kurzem eine Realisierung in kommerziellen Produkten. Interferenzreduktionsverfahren auf der Verbindungsebene kann man in senderseitige Verfahren und empfängerseitige Verfahren unterteilen. Die senderseitigen Verfahren versuchen, durch geschickte Gestaltung der Sendesignale schädliche Interferenzen zu vermeiden. Ein Schwerpunkt der vorliegenden Schrift ist das Untersuchen empfängerseitiger Interferenzreduktionsverfahren auf der Verbindungsebene. Hier interessiert neben der gemeinsamen Kanalschätzung insbesondere die gemeinsame Datenschätzung. Ein wesentliches Problem bei der empfängerseitigen Interferenzreduktion auf der Verbindungsebene ist die erhöhte Anzahl zu berücksichtigender Mobilstationen bei der gemeinsamen Datenschätzung. Im Vergleich zu Empfängern ohne Interferenzreduktion müssen mehr Daten aus einer unveränderten Anzahl an verfügbaren Empfangswerten geschätzt werden, was zu einem verminderten Mehrteilnehmercodierungsgewinn des Datenschätzers führt. Verfahren der gemeinsamen Datenschätzung können nur dann gewinnbringend eingesetzt werden, wenn der negative Effekt des verminderten Mehrteilnehmercodierungsgewinns durch den positiven Effekt der reduzierten Interferenz mindestens kompensiert wird. Diese Forderung ist bei der Interzellinterferenzreduktion besonders kritisch, da die einzelnen Interzellinterferer häufig nur mit geringer Leistung empfangen werden, das heißt der positive Effekt der reduzierten Interferenz bei Berücksichtigen eines Interzellinterferers relativ gering ausfällt. Eine Voraussetzung zur erfolgreichen Interferenzreduktion und insbesondere zur Interzellinterferenzreduktion sind folglich Datenschätzer mit hohem Mehrteilnehmercodierungsgewinn. Die bekannten linearen gemeinsamen Datenschätzer wie der Zero-Forcing-Schätzer können diese Forderung nach hohem Mehrteilnehmercodierungsgewinn bei größeren Anzahlen gemeinsam detektierter Mobilstationen nicht erfüllen. Ein mögliche Lösung zum Erzielen hoher Mehrteilnehmercodierungsgewinne mit moderaten Rechenaufwänden sind die in der vorliegenden Schrift untersuchten, auf dem Turbo-Prinzip basierenden iterativen gemeinsamen Datenschätzer. Prinzipiell handelt es sich bei den hier untersuchten Datenschätzern um iterative Versionen der bekannten linearen gemeinsamen Datenschätzer, die um einen nichtlinearen Schätzwertverbesserer erweitert werden. Der nichtlineare Schätzwertverbesserer nutzt die Kenntnis des Modulationsalphabets und optional des eingesetzten Fehlerschutzcodes zum Verbessern der Schätzergebnisse. Die vielen vorgestellten Varianten der iterativen gemeinsamen Datenschätzer und die verschiedenen Schätzwertverbesserer bilden eine Art Baukastensystem, das es erlaubt, für jeden Anwendungsfall einen maßgeschneiderten gemeinsamen Datenschätzer zu konstruieren.