Habilitation
Refine
Year of publication
Document Type
- Habilitation (17) (remove)
Has Fulltext
- yes (17)
Keywords
- CDMA (2)
- Mobilfunk (2)
- continuum mechanics (2)
- Batteriemanagement (1)
- Batterien (1)
- Biomechanik (1)
- Design process (1)
- Empfängerorientierung (1)
- Faser-Kunststoff-Verbunde (1)
- Finite-Elemente-Methode (1)
Faculty / Organisational entity
Diese Schrift behandelt Spezialanwendungen von Schleifscheiben. Darunter fallen Anwendungen herkömmlicher Schleifscheiben für Spezialanwendungen, die über den üblichen Materialabtrag hinausgehen und auch die Entwicklung von Spezialschleifscheiben. Die Spezialanwendungen werden jeweils vorgestellt, die erzielten Ergebnisse diskutiert und kritisch reflektiert. Vor- und Nachteile sowie eventuelle Hemmnisse für die Erreichung einer Serien-reife werden beleuchtet. Nach der technologischen Bewertung erfolgt eine Betrachtung der Nachhaltigkeit der Spezialanwendungen, um eine abschließende Beurteilung zu ermöglichen, welche Konzepte sowohl technologisch also auch ökologisch und ökonomisch sinnvoll erscheinen und welche nicht. Hintergrund dieser Überlegungen ist die Tatsache, dass ein Spezialverfahren technologisch noch so interessant oder fähig sein mag, so lange es keine Vorteile für den Einsatz der Produkte oder eine Steigerung der Nachhaltigkeit der Produkte mit sich bringt, ist die Verfolgung des Spezialverfahrens nicht zu empfehlen. Daraus ergeben sich Empfehlungen für die Forschung und die Industrie zur Verfolgung bestimmter Spezialanwendungen.
Bei der Herstellung von Faser-Kunststoff-Verbunden (FKV) kommen unterschiedlichste Faser-, Kunststoff- sowie Faser/Kunststoff-Halbzeuge zum Einsatz. Diese weisen oft sehr komplexe Verarbeitungseigenschaften auf, die bei der Prozessentwicklung eine besondere Herausforderung darstellen. Ein typisches Beispiel ist die Verfahrensgruppe der Flüssigimprägnierverfahren, bei denen eine endkonturnahe Faserstruktur mit einem Harzsystem imprägniert wird. Eine den Prozessverlauf maßgeblich bestimmende Verarbeitungseigenschaft der Faserstruktur ist hierbei die Permeabilität. Sie quantifiziert die Durchlässigkeit der Faserstruktur für die fluide Strömung und resultiert aus einer Vielzahl an interdependenten Einflüssen, wie z. B. einer inhomogenen Porosität mit extrem variierenden Fließkanaldurchmessern, lokalen Strukturvariationen, einer hohen Deformierbarkeit sowie Kapillarkräften.
Wissensgenerierung durch Grundlagenforschung zu einer einzelnen prozesskritischen Verarbeitungseigenschaft (wie der Permeabilität), stellt eine ideale Grundlage für die ganzheitliche, also sowohl die Prozess- und Anlagentechnik als auch die Materialien umfassende, Prozessentwicklung der jeweils betrachteten Verfahren/Verfahrensgruppe (z. B. Flüssigimprägnierverfahren) dar. Vor diesem Hintergrund wird in der vorliegenden Arbeit eine mehrstufige, in sich geschlossene Forschungsmethodik definiert, die zur kontinuierlichen Weiterentwicklung des betrachteten Herstell-verfahrens sowie der eingesetzten Anlagen, Werkzeuge und Materialien geeignet ist. Anhand von Forschungsarbeiten zum Anwendungsbeispiel der Flüssigimprägnierverfahren bzw. der Permeabilität wird gezeigt, wie die Methodik umgesetzt werden kann: Der erste Schritt besteht in der Entwicklung von Methoden und Technologien, um Einflüsse auf die Permeabilität reproduzierbar zu erzeugen und die Auswirkungen untersuchen zu können. Anschließend folgen Parameterstudien zu Einflüssen auf die Permeabilität und die gewonnenen Erkenntnisse werden dann zu Richtlinien aggregiert. Anhand der Richtlinien können Materialien, Prozesse und Messtechnologien auf einen Anwendungsfall hin optimiert werden. Schließlich, werden über den Erkenntnisgewinn grundlegend neue Technologien entwickelt, woraus sich wiederum neue Aufgaben für die erste Stufe der Methodik ergeben.
The subject of this thesis is the design of axial flow machines. The type of turbomachine under examination is used to supply energy for high viscous fluid flow, as used in mixing and stirring tasks. The high viscous media treated in these tasks usually have non-Newtonian fluid properties. This kind of fluid flow is frequently associated with the field of energy and process engineering.
In order to narrow down the problem described, the field of turbomachinery is restricted to the consideration of propellers. Propellers are used in a wide range of fluid mechanics tasks. In the form of wind turbines, propellers extract kinetic energy from a control room and thereby slow down the flow. Propeller stirrers, on the other hand, increase the energy level of a flow and accelerate it. Both machines are based on the same principle - only the direction of the energy flow is to be considered as the opposite direction.
The design of new agitators is usually based on experience. Often, agitators are, therefore, not flow-optimised, and cannot be optimally operated. In this thesis, it is investigated whether the design processes of modern wind turbines, which are considered to be mature, can be adapted in order to generate a flow-optimised geometry for this type of turbomachine as well.
This thesis will first examine the basics of wind turbine design processes. Special attention will be paid to the differences caused by the viscous fluid properties under consideration. The highly viscous behaviour of the fluids under consideration means that the theoretical fundamentals have to be extended as a result. Such extensions are identified and supplement the theoretical basis. The thesis will then present and examine an analytically based design process for flow-optimised propeller mixers. The procedure is based on blade element momentum theory.
Application of blade element momentum theory requires detailed knowledge of the aerodynamic behaviour of the profiles used. This behaviour is usually only known for low viscosity and high-Re applications, as is usually the case for wind turbines or propeller engines. Comprehensive profile characteristics are not available for highly viscous and low-Re applications. In this thesis, these basics are generated using numerical methods.
In the next step, the newly introduced design method is combined with the results of the investigations of profile aerodynamics for high viscous low-Re fluid flow. This combination is done using a calculation process which produces the flow-optimised geometry of a propeller mixer. The theoretical principles of the methods are implemented in an algorithm in such a way that the resultant turbomachine can be designed for a previously selected operating point, the design point. In contrast to classical turbomachinery, the design point additionally requires the specification of viscous fluid properties.
However, in practical use, the final selected operating point of a turbomachine is often not the design point. The algorithm is examined for its suitability for inverse power calculation as well in order to compute the complete characteristic curve for a previously generated propeller mixer already in the design process.
Maschinenbetten und -gestelle werden vorwiegend aus Grauguss und als Stahlschweißkonstruktion gefertigt. Aufgrund technischer und wirtschaftlicher Vorteile haben sich seit den 80er Jahren zusätzlich Mineralguss oder epoxidharzgebundener Polymerbeton etabliert. Seit mehreren Jahren wird Ultra High Performance Concrete – UHPC – erfolgreich bei Werkzeugmaschinen eingesetzt. Auf diesen Grundgestellen aus Beton werden neben Gehäusen, Getrieben, Werkzeughaltern, Trafos usw. vor allem die beweglichen Teile der Maschine befestigt. Gängige Praxis hierfür ist die Verwendung von Linearführungsschienen.
Diese Arbeit untersucht die vorgespannte, geschraubte Befestigung der Linearführung auf geschliffenen Betonoberfläche mit Hilfe von speziellen Gewindehülsen. In rechnerischen Voruntersuchungen mittels der FE-Methode wurde der Kraftfluss von der Linearführung über die Befestigungsschraube zur Gewindehülse bis in den Betonuntergrund untersucht und darauf aufbauend ein Versuchsprogramm festgelegt. Probekörper aus hochfestem Beton des Marktführers wurden hergestellt und experimentell untersucht. Nach der Auswertung der Versuche wurde ein Bemessungskonzept entwickelt und in Form einer schrittweisen Anleitung festgehalten. Mehrere Beispiele zeigen die Anwendung des Verfahrens.
Berechnungen, Versuchskonzeption, Durchführung der Versuche, Versuchsauswertung sowie die Entwicklung des Bemessungskonzeptes erfolgten durch den Verfasser. Die Versuche wurden in seiner Anwesenheit in seinem Betrieb, in spezialisierten Unternehmen mit entsprechender Geräteausstattung und zum größten Teil an der TU Kaiserslautern durchgeführt. Die hier betrachteten Untersuchungen und Bemessungsvorschläge betrachten ausschließlich Maschinenbauteile und dürfen nicht auf Situationen im Bauwesen übertragen werden.
Die geometrische Produktspezifikation steht - wie viele andere Industriezweige - vor einschneidenden Veränderungen. Durch Digitalisierung und Automatisierung ändern sich viele industrielle Rahmenbedingungen. Ziel dieser Arbeit ist es, die derzeitigen Trends für die industrielle Rauheitsmesstechnik systematisch zusammenzutragen. Basierend auf diesen Veränderungen werden korrespondierende eigene Forschungsarbeiten vorgestellt, welche an die gezogenen Schlussfolgerungen anknüpfen. Dabei wird ein ganzheitlicher Ansatz zur Betrachtung technischer Oberflächen gewählt, welcher zunächst die fertigungstechnische Erzeugung deterministischer Rauheitsstrukturen analysiert. Anschließend werden die Beschreibung der resultierenden Topographiemerkmale mittels mathematischer Modelle und deren messtechnische Erfassung durch typische Topographie-Messgeräte untersucht. Weiterhin wird die hierauf aufbauende Charakterisierung der Oberfläche thematisiert, welche durch die Anwendung der Operationen Einpassung, Interpolation, Filterung und Berechnung von Rauheitskenngrößen gekennzeichnet ist.
Im Rahmen fertigungstechnischer Betrachtungen werden dabei neue Technologien für die Herstellung flächenhafter Kalibriernormale untersucht, welche stellvertretend für deterministische Rauheitsstrukturen dienen, die immer weitere industrielle Verbreitung finden, um funktionelle Bauteileigenschaften mithilfe der Oberflächenbeschaffenheit abzubilden. Als Fertigungsverfahren werden dabei das direkte Laserschreiben sowie das Mikrofräsen betrachtet.
Für die eigentliche Betrachtung dieser Oberflächen werden dabei Ansätze zur Modellierung von Rauheitseigenschaften untersucht, welche auf Methoden aus der Zeitreihenmodellierung basieren.
Die messtechnische Erfassung von Rauheitsstrukturen ist anschließend Gegenstand der Analyse des Übertragungsverhaltens. Dabei werden hier ebenfalls Modelle genutzt, um die Übertragung von Oberflächeneigenschaften durch technische Rauheitsmessgeräte zu modellieren.
Letzte Betrachtungen werden zur Auswertung von Rauheitskenngrößen angestellt. Dabei werden insbesondere die funktionsorientierten Rauheitskenngrößen untersucht, welche aufgrund der zunehmenden Komplexität technischer rauer Oberflächen verstärkt an Bedeutung gewinnen.
Sicherheitstechnik ist eine sehr breit gefächerte Querschnittsdisziplin mit der Aufgabe
Mensch und Umwelt vor den Gefahren von Maschinen, Prozessen und technischen
Anlagen zu schützen. Während im 19ten Jahrhundert Anlagen durch Erfahrungswissen
sicher gestaltet worden sind, ist in der Sicherheitstechnik heute eine sehr
systematische Analyse von Gefahren und Risiken üblich. Dazu ist eine spezielle
Denkweise im Umgang mit stochastischen Prozessen und Unsicherheiten bei der
Modellierung hilfreich, die der Verfahrenstechniker oder Chemieingenieur ebenso
wenig im Studium erlernt wie ein Maschinenbauer oder Chemiker.
Die Sicherheitstechnik selbst und ihre Sicherheitskonzepte sind über lange Zeiträume
entstanden, beginnen mit Grundlagenforschungen, die anwendungsorientiert zu
speziellen sicherheitstechnischen Apparaten oder Modellen geführt haben. Diese
Apparate und Modelle sind anschließend eingebunden worden in Sicherheitskonzepte
für spezielle Anlagen wie Chemiereaktoren oder Gashochdruckleitungen.
In der vorliegenden Arbeit ist die Breite der Sicherheitstechnik und ihre Entwicklung an
sehr unterschiedlichen Beispielen verdeutlicht worden. Grundlegende Erkenntnisse
aus der Zweiphasenströmung führen zu Modellen wie der Auslegung von klassischen
Notentlastungsleitungen oder zur Entwicklung von Rückhalteeinrichtungen. Diese sind
Bestandteil von sehr unterschiedlichen Anlagensicherheitskonzepten bei Wärmeübertragern,
in der Hochdrucktechnik oder bei Multipurpose-Anlagen. Die Forschung zu
Grundlagen der Zweiphasenströmung führt auch zu neuen Sicherheitskonzepten für
Gashochdruckleitungen.
Am Beispiel von sicherheitsrelevanten Armaturen ist die langjährige Entwicklung von
Modellen zur Bemessung dieser Bauteile aufgezeigt worden. Ausgehend von einem
einfachen Düsenmodell wurden immer mehr Parameter berücksichtigt, um nicht nur
sicherheitsrelevante Ventile und Berstscheiben auszulegen, sondern auch Klappen,
Blenden, Stellventile und andere Armaturen. Durch eine hinreichende Validierung der
Modelle entstehen aus der Forschung neue Erkenntnisse für eine signifikante
Weiterentwicklung des Stands der Sicherheitstechnik.
Die Arbeit behandelt neuartige und gängige Methoden der Baugrundertüchtigung. Die Notwendigkeit einer Baugrundertüchtigung ergibt sich, wenn der anstehende Baugrund nicht in der Lage ist, den beabsichtigten Einwirkungen einen ausreichenden Widerstand entgegenzusetzen. Hierbei kann es sich um Einwirkungen einer geplanten Baumaßnahme handeln, wobei diese Lasten statischer oder auch dynamischer Natur sein können. Auch wenn es sich um Hilfsmaßnahmen handelt, beispielsweise an Baustraßen, so müssen diese während der geplanten Bauzeit ihre Funktion sicher erfüllen. Als weiteres Beispiel sei die Verarbeitbarkeit eines Bodens genannt, wenn dieser als Baustoff bei der Errichtung eines Dammbauwerkes verwendet wird. Letztendlich unterliegen Erdbauwerke nicht nur mechanischen Belastungen, sondern können auch durch Erosionsvorgänge einer Beanspruchung ausgesetzt sein. Wird der Baustoff Boden diesen Anforderungen nicht in ausreichendem Maße gerecht, so muss er entweder gegen ein geeignetes Material ausgetauscht werden oder es werden beispielsweise aufwändige Ergänzungsmaßnahmen erforderlich.
Um diese Maßnahmen zu umgehen, bieten sich in geeigneten Situationen die Ertüchtigung der vorgefundenen Böden an. Hierbei handelt es sich nicht nur um eine ressourcenschonende Vorgehensweise, oftmals ist diese Vorgehensweise auch die wirtschaftlichere. Der anstehende Boden muss nicht verfrachtet, möglicherweise deponiert und ein neues Material beigefahren werden. Die in situ Bearbeitung erfordert lediglich die Beistellung entsprechender Bauhilfsstoffe zur Ertüchtigung.
Welche Art an Bauhilfsstoffen zum Einsatz kommt, richtet sich vorrangig nach den vorgefundenen Bodenverhältnissen. Als traditionelles und längst etabliertes Verfahren hat sich die Beimischung geeigneter Bindemittel hervorgetan. Zu nennen sind hier die beiden hydraulischen Bindemittel Kalk und Zement. Für die Anwendung dieser Stoffe existieren Regelwerke, die Prüfungs- und Kontrollmethoden vor und während des Einbaus solcher Boden-Bindemittel-Mischungen beschreiben.
Trotz des seit langer Zeit bewährten Einsatzes, ist auch bei den beiden genannten Bauhilfsstoffen zu berücksichtigen, dass es sich letztendlich um Rohstoffe handelt, obwohl auch hier insbesondere bei den Kompositzementen bereits ein erhebliches Recyclingpotential genutzt wird. Jedoch fällt ins Gewicht, dass bei der Herstellung der Produkte klimaschädliches Kohlendioxid freigesetzt wird. Unter diesen Gesichtspunkten stellt die Verwendung von Industrieabfällen, die in gleichbleibender Güte anfallen, eine interessante Alternative dar. Neben diesen sogenannten by-products können auch recyclingfähige Materialien verwendet werden, sofern deren Eignung nachgewiesen werden kann. Eine gewisse Hürde bei der Verwendung der letztgenannten Alternativen stellen umweltrechtliche Fragestellungen dar. Zum einen handelt es sich um Abfälle und damit um Produkte, die rechtlich einer gänzlich anderen Würdigung und Bewertung unterliegen. Zum anderen müssen entsprechende Wechselwirkungen zwischen den Stoffen und der umgebenden Biosphäre berücksichtigt und bewertet werden.
In der vorliegenden Habilitationsarbeit werden im ersten Kapitel zunächst als Ausgangspunkt die wesentlichen Merkmale und Eigenschaften beim Einsatz traditioneller Kalk- und Zementbeimischungen untersucht. Das Kapitel 2 schließt an mit Betrachtungen zu dem Baustoff Tonbeton. Hierbei handelt es sich um einen ebenfalls schon lange Zeit bekannten Baustoff, der zwar aufgrund seines eng begrenzten Anwendungsspektrums nur wenig verbreitet ist. Aufgrund seiner Ähnlichkeit zu aktuellen Baustoffen, den zeitweise fließfähigen, selbstverdichtenden Verfüllbaustoffen, gewinnt das Produkt jedoch an Bedeutung. Dies gilt umso mehr, als Prüf- und Kontrollmethoden aufgrund des ähnlichen rheologischen Verhaltens im frühen Zustand derzeit nur ansatzweise vorliegen.
Die Kapitel 3 bis 5 umfassen neuartige Methoden der Bodenertüchtigung. Zu allen Verfahren liegen bereits Erfahrungen aus mehr als zwei Jahrzehnten vor. Diese Erfahrung beruht jedoch vorrangig auf exemplarischen Laborstudien.
Zu nennen sind hier zunächst die Epoxidharze in Kapitel 3. Epoxide werden im Konstruktiven Ingenieurbau vermehrt eingesetzt. Auch in der Geotechnik finden sich neben Laboruntersuchungen bereits praktische Anwendungsfälle, die eine wirksame Ertüchtigung von Festgestein dokumentiert. Eigene Untersuchungen bestätigen die Wirksamkeit dieser Methode.
Mit den Untersuchungen zu Boden-Gummi-Mischungen in Kapitel 4 werden Recyclingprodukte in die Ertüchtigungsmethoden mit einbezogen. Recyclinggummi steht in den unterschiedlichsten Formen zur Verfügung. Je nach Aufwand werden entweder komplette Reifen verbaut, zu Paketen verschnürt oder als Schreddergut in unterschiedlichen Siebfraktionen bis hin zu Pulver verbaut. Dementsprechend vielfältig ist auch das Anwendungsspektrum. Während insbesondere in den USA und einigen europäischen Ländern dieser „Baustoff“ bereits eine gewisse Akzeptanz besitzt, führen in Deutschland rechtliche und umwelttechnische Belange dazu, dass dieses Produkt derzeit nicht vermehrt eingesetzt wird.
In dem letzten Kapitel 5 wird als Ertüchtigungsmethode die Verwendung von Enzymen vorgestellt. Die Untersuchungen belegen, dass dieses biologische Verfahren für bestimmte Anwendungen durchaus seine Berechtigung hat und auch konkurrenzfähig zu bestehenden Methoden auftreten kann.
Interconnected, autonomously driving cars shall realize the vision of a zero-accident, low energy mobility in spite of a fast increasing traffic volume. Tightly interconnected medical devices and health care systems shall ensure the health of an aging society. And interconnected virtual power plants based on renewable energy sources shall ensure a clean energy supply in a society that consumes more energy than ever before. Such open systems of systems will play an essential role for economy and society.
Open systems of systems dynamically connect to each other in order to collectively provide a superordinate functionality, which could not be provided by a single system alone. The structure as well as the behavior of an open system of system dynamically emerge at runtime leading to very flexible solutions working under various different environmental conditions. This flexibility and adaptivity of systems of systems are a key for realizing the above mentioned scenarios.
On the other hand, however, this leads to uncertainties since the emerging structure and behavior of a system of system can hardly be anticipated at design time. This impedes the indispensable safety assessment of such systems in safety-critical application domains. Existing safety assurance approaches presume that a system is completely specified and configured prior to a safety assessment. Therefore, they cannot be applied to open systems of systems. In consequence, safety assurance of open systems of systems could easily become a bottleneck impeding or even preventing the success of this promising new generation of embedded systems.
For this reason, this thesis introduces an approach for the safety assurance of open systems of systems. To this end, we shift parts of the safety assurance lifecycle into runtime in order to dynamically assess the safety of the emerging system of system. We use so-called safety models at runtime for enabling systems to assess the safety of an emerging system of system themselves. This leads to a very flexible runtime safety assurance framework.
To this end, this thesis describes the fundamental knowledge on safety assurance and model-driven development, which are the indispensable prerequisites for defining safety models at runtime. Based on these fundamentals, we illustrate how we modularized and formalized conventional safety assurance techniques using model-based representations and analyses. Finally, we explain how we advanced these design time safety models to safety models that can be used by the systems themselves at runtime and how we use these safety models at runtime to create an efficient and flexible runtime safety assurance framework for open systems of systems.
Compared to traditional software design, the design of embedded software is even more challenging: In addition to the correct implementation of the systems, one has to consider non-functional constraints such as real-time behavior, reliability, and energy consumption. Moreover, many embedded systems are used in safety-critical applications where errors can lead to enormous damages and even to the loss of human live. For this reason, formal verification is applied in many design flows using different kinds of formal verification methods.
The synchronous model of computation has shown to be well-suited in this context. Its core is the paradigm of perfect synchrony which assumes that the overall system behavior is divided into a sequence of reactions, and all computations within a reaction are completed in zero time. This temporal abstraction simplifies reactive programming in that developers do not have to bother about many low-level details related to timing, synchronization and scheduling. This thesis is dedicated to this design flow, and it presents the author's contributions to it.
Die moderne Reaktions- und Trenntechnik in der chemischen Industrie ist eine Hochtechnologie. Die dort eingesetzten Verfahren zur Reaktionsführung und Auftrennung der Produkte sind weitestgehend optimiert. Zu diesem Stand hat die instrumentelle Analytik – speziell die Prozeßanalytik – wesentlich beigetragen. Das Reaktions- und Prozeßmonitoring ist eine wichtige Hilfe zum Verständnis der komplexen Zusammenhänge. In der vorliegenden Arbeit wird der Einsatz der NMR-Spektroskopie in verfahrenstechnischen Anwendungen wie dem Reaktions- und Prozeß-Monitoring diskutiert und alle dazu notwendigen Grundlagen erläutert. Solche Anwendungen erfordern häufig Techniken, mit denen hochaufgelöste Spektren zerstörungsfrei aufgenommen werden können, oft bei erhöhtem Druck und erhöhter Temperatur. Neben der quantitativen Bestimmung der Zusammensetzung komplexer reagierender Mischungen besteht gleichzeitig die Möglichkeit zur Identifikation von Nebenprodukten. Dieses gelingt insbesondere durch die Nutzung der NMR-Spektroskopie als Online-Methode, die in der Literatur bislang nur in wenigen Einzelfällen beschrieben und trotz ihrer enormen Möglichkeiten noch nicht konsequent angewendet wird. Durch die fortschreitende Entwicklung auf dem Gebiet der NMR-Spektroskopie kann eine Online-Anbindung heute durchgehend mit Hilfe kommerziell erhältlicher Komponenten erfolgen – wie die vorliegende Arbeit zeigt. Fallende Kosten in der Beschaffung und dem Betrieb leistungsfähiger NMR-Spektrometer machen die Methode auch im verfahrenstechnischen Umfeld mittlerweile sehr attraktiv. Die Attraktivität der Methode gewinnt neuerdings insbesondere durch die erweiterten Einsatzmöglichkeiten kompakterer NMR-Magneten mit geringen Streufeldern. Obwohl sich in den Ingenieurwissenschaften damit vielfältige Einsatzmöglichkeiten ergeben, wird die NMR-Spektroskopie dort bislang noch leider kaum genutzt. Besondere Herausforderungen stellen sich u. a. dadurch, daß sich weder deuterierten Komponenten einsetzen lassen noch die Probe in einer geeigneten Weise in einer Probenvorbereitung verändert werden kann. Damit kommen hochkonzentrierte Mischungen zur direkten Untersuchung. Dieses hat signifikante Rückwirkungen auf die einzusetzende NMR-Methodik, die im Rahmen der Arbeit umfassend untersucht wurde. In der Regel lassen sich die Probleme bei entsprechender experimenteller Vorgehensweise umgehen. Zur Garantie quantitativer Meßwerte wurden alle eingesetzten Meß- und Auswertungsstrategien ausführlich untersucht und teilweise erweitert. Um quantitativ aussagekräftige Online-NMR-Spektren mit Hilfe der 1H- und 13C-NMRSpektroskopie von technischen Mischungen zu erhalten, wurden folgende Aufgaben gelöst: Entwicklung und Validierung von Vorgehensweisen zur Messung hochkonzentrierter, technischer Mischungen ohne Probenvorbereitung und ohne Zusatz deuterierter Komponenten; Konstruktion geeigneter Apparaturen zur Untersuchung von Reaktionsgleichgewichten und -kinetiken für verschiedene Druck- und Temperaturbereiche, die sich optimal für die Online-NMR-Spektroskopie einsetzen lassen; Ankopplung der NMR-Spektrometers an die unterschiedlichen Apparate mit Hilfe von NMR-Durchflußzellen; Schaffung einer möglichst noninvasiven Untersuchungsmethode hinsichtlich aller Probenparameter (z. B. Druck, Temperatur); Schaffung und Erprobung von Meß- und Auswertungsstrategien im Hinblick auf quantitative Parameter, Erweiterung des zugänglichen Druck- und Temperaturbereiches der Messungen sowie Verkürzung des Zeitfensters für Messungen durch geeignete Peripherie und konstruktiven Veränderungen am NMR-Probenkopf. Als Beispiel werden Messungen an binären und ternären flüssigen Mischungen aus Formaldehyd, Wasser und Methanol diskutiert. In diesen Systemen ist Formaldehyd fast ausschließlich in Poly(oxymethylen)Glykolen und -hemiformalen chemisch gebunden. Die chemischen Reaktionen in formaldehydhaltigen Mischungen bestimmen deren thermodynamisches Verhalten sowie ihre Trennung mit thermischen Verfahren. Die NMR-Spektroskopie ist das zentrale analytische Verfahren, mit dem sich diese Vorgänge aufklären und quantifizieren lassen. Für die hier vorgestellten Untersuchungen zum Prozeßmonitoring kamen u. a. eine Online-NMRKopplung mit einem Dünnschichtverdampfer sowie mit einem Rührreaktor zum Einsatz. In weiteren Anwendungsbeispielen zum Thema Formaldehyd wird aufgezeigt, daß sich die Online-NMR-Spektroskopie auch zum Studium komplexer Reaktionsnetzwerke, zur Messung von Gaslöslichkeiten oder zur Quantifizierung kleinster Produktmengen unter schwierigen, technischen Reaktionsbedingungen eignet. Ferner werden Arbeiten zur Aufklärung und Quantifizierung der chemischen Prozesse bei der Absorption von Kohlendioxid in wässrigen Aminlösungen bei Drücken bis zu 30 bar und reaktionskinetische Untersuchungen von Veresterungen vorgestellt, bei denen auch ein Vergleich mit einer GC-Analytik durchgeführt wurde. Ebenso wird gezeigt, daß sich die Online-NMR-Spektroskopie zur Beobachtung von Reaktionen in Ionischen Flüssigkeiten eignet. Ein Teil der Arbeit beschäftigt sich mit der Untersuchung fluider Mischungen bei hohen Drücken. Beispielhaft werden Arbeiten zu H-Brückengleichgewichten von Methanol in überkritischem Kohlendioxid vorgestellt, die eine wertvolle, experimentelle Datenbasis zur Überprüfung molekulardynamischer Modelle in der molekularen Simulation liefern. Für die meisten Anwendungsbeispiele werden neue Reaktoren und Meßapparaturen vorgestellt, die sich besonders für den Einsatz in der Durchfluß-NMR-Spektroskopie eignen. Schließlich wird kurz auf die Anwendung der NMR-Spektroskopie zur Bestimmung physikalisch chemischer Größen eingegangen, wie z. B. zur Bestimmung von Diffusuionskoeffizienten in technischen Mischungen. Erstmals wird der Einsatz der Methode in der Taylor-Dispersionstechnik beschrieben und experimentell belegt.