Refine
Year of publication
- 2007 (64) (remove)
Document Type
- Doctoral Thesis (64) (remove)
Has Fulltext
- yes (64)
Keywords
- Phasengleichgewicht (4)
- Visualisierung (3)
- Apoptosis (2)
- Computergraphik (2)
- Cyclopeptide (2)
- Elastoplastizität (2)
- Fluoreszenz (2)
- Modellierung (2)
- Nichtlineare Finite-Elemente-Methode (2)
- UML (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (19)
- Kaiserslautern - Fachbereich Mathematik (14)
- Kaiserslautern - Fachbereich Chemie (9)
- Kaiserslautern - Fachbereich Informatik (7)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
The main aim of this work was to obtain an approximate solution of the seismic traveltime tomography problems with the help of splines based on reproducing kernel Sobolev spaces. In order to be able to apply the spline approximation concept to surface wave as well as to body wave tomography problems, the spherical spline approximation concept was extended for the case where the domain of the function to be approximated is an arbitrary compact set in R^n and a finite number of discontinuity points is allowed. We present applications of such spline method to seismic surface wave as well as body wave tomography, and discuss the theoretical and numerical aspects of such applications. Moreover, we run numerous numerical tests that justify the theoretical considerations.
Thermoelasticity represents the fusion of the fields of heat conduction and elasticity in solids and is usually characterized by a twofold coupling. Thermally induced stresses can be determined as well as temperature changes caused by deformations. Studying the mutual influence is subject of thermoelasticity. Usually, heat conduction in solids is based on Fourier’s law which describes a diffusive process. It predicts unnatural infinite transmission speed for parts of local heat pulses. At room temperature, for example, these parts are strongly damped. Thus, in these cases most engineering applications are described satisfactorily by the classical theory. However, in some situations the predictions according to Fourier’s law fail miserable. One of these situations occurs at temperatures near absolute zero, where the phenomenon of second sound1 was discovered in the 20th century. Consequently, non-classical theories experienced great research interest during the recent decades. Throughout this thesis, the expression “non-classical” refers to the fact that the constitutive equation of the heat flux is not based on Fourier’s law. Fourier’s classical theory hypothesizes that the heat flux is proportional to the temperature gradient. A new thermoelastic theory, on the one hand, needs to be consistent with classical thermoelastodynamics and, on the other hand, needs to describe second sound accurately. Hence, during the second half of the last century the traditional parabolic heat equation was replaced by a hyperbolic one. Its coupling with elasticity leads to non-classical thermomechanics which allows the modeling of second sound, provides a passage to the classical theory and additionally overcomes the paradox of infinite wave speed. Although much effort is put into non-classical theories, the thermoelastodynamic community has not yet agreed on one approach and a systematic research is going on worldwide.Computational methods play an important role for solving thermoelastic problems in engineering sciences. Usually this is due to the complex structure of the equations at hand. This thesis aims at establishing a basic theory and numerical treatment of non-classical thermoelasticity (rather than dealing with special cases). The finite element method is already widely accepted in the field of structural solid mechanics and enjoys a growing significance in thermal analyses. This approach resorts to a finite element method in space as well as in time.
The nowadays increasing number of fields where large quantities of data are collected generates an emergent demand for methods for extracting relevant information from huge databases. Amongst the various existing data mining models, decision trees are widely used since they represent a good trade-off between accuracy and interpretability. However, one of their main problems is that they are very instable, which complicates the process of the knowledge discovery because the users are disturbed by the different decision trees generated from almost the same input learning samples. In the current work, binary tree classifiers are analyzed and partially improved. The analysis of tree classifiers goes from their topology from the graph theory point of view to the creation of a new tree classification model by means of combining decision trees and soft comparison operators (Mlynski, 2003) with the purpose to not only overcome the well known instability problem of decision trees, but also in order to confer the ability of dealing with uncertainty. In order to study and compare the structural stability of tree classifiers, we propose an instability coefficient which is based on the notion of Lipschitz continuity and offer a metric to measure the proximity between decision trees. This thesis converges towards its main part with the presentation of our model ``Soft Operators Decision Tree\'\' (SODT). Mainly, we describe its construction, application and the consistency of the mathematical formulation behind this. Finally we show the results of the implementation of SODT and compare numerically the stability and accuracy of a SODT and a crisp DT. The numerical simulations support the stability hypothesis and a smaller tendency to overfitting the training data with SODT than with crisp DT is observed. A further aspect of this inclusion of soft operators is that we choose them in a way so that the resulting goodness function (used by this method) is differentiable and thus allows to calculate the best split points by means of gradient descent methods. The main drawback of SODT is the incorporation of the unpreciseness factor, which increases the complexity of the algorithm.
Unternehmen sind heute mit einem globalen Wettbewerb und großen Herausforderungen konfrontiert, wie z. B. kurzen Produktlebenszyklen oder hohen Anforderungen an die Prozess- und Ergebnissicherheit. Verschiedene daten- und technologiegetriebene sowie prozessorientierte Ansätze der Produktionsgestaltung versuchen, Lösungen für Produktionssysteme zu entwickeln, um diese Herausforderungen zu bewältigen und im globalen Wettbewerb bestehen zu können. Jede einzelne Richtung der Produktionsgestaltung weist dabei Vorteile und Defizite auf. Durch „Smart Production Systems“ werden die Grundideen der einzelnen Ansätze, die bisher als unvereinbar galten, zusammengeführt. Dadurch können einzelne Defizite ausgeglichen werden, ohne auf die bekannten Vorteile zu verzichten. Der Grundgedanke von „Smart Production Systems“ ist es, „wissensinkorporierte Objekte“ in Produktionsprozessen einzusetzen, um die Abläufe jederzeit nachvollziehbar und damit das zugehörige Produktionssystem sicher, effizient und flexibel zu gestalten. Wissensinkorporierte Objekte stellen dabei Produktionsobjekte dar, die neben ihrer eigentlichen Funktion informationstechnische Funktionen besitzen, mittels derer sie Daten speichern und wieder bereitstellen können. Der Einsatz wissensinkorporierter Objekte in „Smart Production Systems“ kann mit Hilfe des Konzepts Gestaltungswürfels „Smart Cube“ strukturiert analysiert, geplant, konzeptioniert, bewertet, implementiert, genutzt und gesichert werden. Das Konzept des Gestaltungswürfels „Smart Cube“ wird durch ein Organisations-, ein Referenz-, ein Umsetzungsmodell und mehrere spezifische Anwendungsmodelle beschrieben: 1) Das Organisationsmodell erläutert als Ansatzpunkt von „Smart Production Systems“ die Stellung des Informationsflusses und Materialfluss sowie den Zusammenhang zwischen Datenmenge und Entscheidungsreichweite innerhalb einer Produktionsorganisation. 2) Das Referenzmodell wird aus den drei räumlichen Achsen Wirkungs-, Objekt- und Prozess- sowie Informationsstruktur aufgebaut. Es erfüllt folgende Aufgaben: - Es beschreibt die grundsätzlichen Ausprägungen von Wirkungs-, Objekt- und Prozess- sowie Informationsstrukturen und deren Kombinationsmöglichkeiten innerhalb von Produktionssystemen. - Es erläutert die Zusammenhänge zwischen Technologie-, Logistik- und Kommunikationskomplexität und ermöglicht damit die Einordnung von spezifischen Produktionssystemen in das Referenzmodell. - Mit den verschiedenen Koordinaten der einzelnen Achsen liefert es eine Systematik zur Bezeichnung der verschiedenen möglichen Kombinationen, die es ermöglicht, Anwendungsmodelle aus dem Referenzmodell abzuleiten. 3) Die Anwendungsmodelle konkretisieren das Referenzmodell hinsichtlich der in einem Produktionssystem enthaltenen Objekte und Prozesse. Aufgrund der verschiedenen möglichen Kombinationen der Ausprägungen der einzelnen Strukturen im Referenzmodell lassen sich 27 verschiedene Anwendungsmodelle bilden. 4) Das Umsetzungsmodell beschreibt das Vorgehen bei der Gestaltung von Produktionssystemen mit Hilfe des Gestaltungswürfels „Smart Cube“ . Am Beispiel eines Neugestaltungsprojektes in einem Unternehmen aus der Automobilzulieferindustrie wird gezeigt, wie mit Hilfe des entwickelten Konzeptes Gestaltungswürfel „Smart Cube“ der Einsatz von wissensinkorporierten Objekten systematisch gestaltet werden kann: - Mit der Gestaltung von Kanbankarten zu wissensinkorporierten Objekten kann der manuelle Buchungsaufwand minimiert und der Anteil nicht-wertschöpfender Tätigkeiten klein gehalten werden. - Mit Hilfe des Einsatzes wissensinkorporierter Objekte in einem Fabriksystem können Zielkonflikte zwischen Sicherheit und Effizienz gelöst werden.
In this thesis we classify simple coherent sheaves on Kodaira fibers of types II, III and IV (cuspidal and tacnode cubic curves and a plane configuration of three concurrent lines). Indecomposable vector bundles on smooth elliptic curves were classified in 1957 by Atiyah. In works of Burban, Drozd and Greuel it was shown that the categories of vector bundles and coherent sheaves on cycles of projective lines are tame. It turns out, that all other degenerations of elliptic curves are vector-bundle-wild. Nevertheless, we prove that the category of coherent sheaves of an arbitrary reduced plane cubic curve, (including the mentioned Kodaira fibers) is brick-tame. The main technical tool of our approach is the representation theory of bocses. Although, this technique was mainly used for purely theoretical purposes, we illustrate its computational potential for investigating tame behavior in wild categories. In particular, it allows to prove that a simple vector bundle on a reduced cubic curve is determined by its rank, multidegree and determinant, generalizing Atiyah's classification. Our approach leads to an interesting class of bocses, which can be wild but are brick-tame.
Embedded systems have become ubiquitous in everyday life, and especially in the automotive industry. New applications challenge their design by introducing a new class of problems that are based on a detailed analysis of the environmental situation. Situation analysis systems rely on models and algorithms of the domain of computational geometry. The basic model is usually an Euclidean plane, which contains polygons to represent the objects of the environment. Usual implementations of computational geometry algorithms cannot be directly used for safety-critical systems. First, a strict analysis of their correctness is indispensable and second, nonfunctional requirements with respect to the limited resources must be considered. This thesis proposes a layered approach to a polygon-processing system. On top of rational numbers, a geometry kernel is formalised at first. Subsequently, geometric primitives form a second layer of abstraction that is used for plane sweep and polygon algorithms. These layers do not only divide the whole system into manageable parts but make it possible to model problems and reason about them at the appropriate level of abstraction. This structure is used for the verification as well as the implementation of the developed polygon-processing library.
The lattice Boltzmann method (LBM) is a numerical solver for the Navier-Stokes equations, based on an underlying molecular dynamic model. Recently, it has been extended towardsthe simulation of complex fluids. We use the asymptotic expansion technique to investigate the standard scheme, the initialization problem and possible developments towards moving boundary and fluid-structure interaction problems. At the same time, it will be shown how the mathematical analysis can be used to understand and improve the algorithm. First of all, we elaborate the tool "asymptotic analysis", proposing a general formulation of the technique and explaining the methods and the strategy we use for the investigation. A first standard application to the LBM is described, which leads to the approximation of the Navier-Stokes solution starting from the lattice Boltzmann equation. As next, we extend the analysis to investigate origin and dynamics of initial layers. A class of initialization algorithms to generate accurate initial values within the LB framework is described in detail. Starting from existing routines, we will be able to improve the schemes in term of efficiency and accuracy. Then we study the features of a simple moving boundary LBM. In particular, we concentrate on the initialization of new fluid nodes created by the variations of the computational fluid domain. An overview of existing possible choices is presented. Performing a careful analysis of the problem we propose a modified algorithm, which produces satisfactory results. Finally, to set up an LBM for fluid structure interaction, efficient routines to evaluate forces are required. We describe the Momentum Exchange algorithm (MEA). Precise accuracy estimates are derived, and the analysis leads to the construction of an improved method to evaluate the interface stresses. In conclusion, we test the defined code and validate the results of the analysis on several simple benchmarks. From the theoretical point of view, in the thesis we have developed a general formulation of the asymptotic expansion, which is expected to offer a more flexible tool in the investigation of numerical methods. The main practical contribution offered by this work is the detailed analysis of the numerical method. It allows to understand and improve the algorithms, and construct new routines, which can be considered as starting points for future researches.
Stadtentwicklungsplanung erfährt in Mittelstädten im Strukturwandel und Schrumpfungsprozess einen Bedeu-tungszuwachs. Die Renaissance einer umfassenderen integrierten Entwicklungsplanung durch die Programme „Soziale Stadt“ und „Stadtumbau-West“ führt dazu, dass ressortübergreifende Zusammenarbeit innerhalb der Kommunalverwaltung einer Steuerung durch die Stadtentwicklungsplanung bedarf. Die Aufgabe der Erstellung integrativer Konzepte, der Beobachtung von Entwicklungsprozessen, der Schaffung von Ämternetzwerken und besonderer Organisationsformen außerhalb der Hierarchie im Rahmen des Projektmanagements, die Aktivierung der Bürgerschaft und neue Formen der Zusammenarbeit mit wirtschaftlichen Akteuren erfordern eine stärkere Einbeziehung der Stadtentwicklungsplanung in die strategische Verantwortung im Rahmen des Neuen Steuerungsmodells. Schrumpfende Städte bedürfen einer verstärkten Teilhabe aller Bevölkerungsgruppen an einer nachhaltigen Stadtentwicklung. Die kommunale Finanznotlage und ein verstärktes Demokratiebedürfnis führen zu einer Forderung nach einer aktiven Bürgerkommune, die Teilbereiche des öffentlichen Lebens übernimmt. Der Wandel im Selbstverständnis der Verwaltung vom government zur governance ist untrennbar verbunden mit einer verstärkten Einbeziehung der gesellschaftlichen und wirtschaftlichen Akteure in die Stadtentwicklung und führt zu einem neuen Rollenverständnis der Stadtentwicklungsplanung. Die vergangenen Anforderungen der Industriegesellschaft unterscheiden sich von den aktuellen Anforderungen der Dienstleistungs- und Wissensgesellschaft an die städtische Infrastruktur und Gesellschaft. Nachhaltigkeit einer neu zu erarbeitenden Stadtentwicklungsstrategie kann daher nur erzeugt werden, wenn die Änderungsprozesse erfasst und in das Anforderungsprofil der Stadtentwicklung miteinbezogen werden. Zusammen mit den Forderungen nach mehr Partizipation und Kommunikation folgt daraus für die Raumplanung, dass nicht nur ein verantwortungsvoller und handwerklich genauer Einsatz der ingenieurwissenschaftlichen Methoden und Instrumente gefragt ist, sondern auch im verstärkten Maße eine soziale und kommunikative Kompetenz der Planerinnen und Planer gefordert ist. Vor dem Hintergrund der aktuellen Schrumpfungsprozesse und dem Wandel der Industriegesellschaft zur Dienstleistungs- und Wissensgesellschaft wird dem in der wissenschaftlichen Diskussion teilweise in Frage gestellten Leitbild der Europäischen Stadt eine neue Bedeutung zugemessen. Indem die Kernstädte Infrastruktur-leistungen bündeln, ein größeres Angebot für verschiedene Lebensstile zulassen und als Kommunikations- und Knotenpunkt für neue Akteure in der Dienstleistungs- und Wissensgesellschaft dienen, wächst wieder die Be-deutung der Kernstädte im Verhältnis zu den Umlandgemeinden. Zusammenfassend ist festzustellen, dass eine nachhaltige zukunftsorientierte Urban Governance geprägt ist von einer kommunalen Kooperations- und Kommunikationsstruktur, in der Politik, Verwaltung – und hier insbeson-dere die Stadtentwicklungsplanung- gemeinsam mit den Akteuren aus Bürgerschaft und Wirtschaft tragfähige Visionen entwickeln, Ziele und Maßnahmen formulieren und gemeinsam realisieren.
Software stellt ein komplexes Werkzeug dar, das durch seine umfassenden Möglichkeiten die moderne Gesellschaft entscheidend geprägt hat. Daraus ergibt sich eine Abhängigkeit von Funktion und Fehlfunktion der Software, die eine an den funktionalen Anforderungen orientierte Entwicklung und Qualitätssicherung der Software notwendig macht. Die vorliegende Arbeit schafft durch Formalisierung und Systematisierung der Verfahren im funktionsorientierten Test eine fundierte Basis für eine Hinwendung zu den funktionsorientierten Techniken in Softwareentwicklung und –qualitätssicherung. Hierzu wird in der Arbeit zunächst ein formales Modell für das Vorgehen im dynamischen Test beschrieben, das sich an der Begriffsbildung der Literatur und dem Verständnis der Praxis orientiert. Das Modell beruht auf wenigen zentralen Annahmen, eignet sich für formale Untersuchungen und Nachweise und ist wegen seiner sehr allgemein gehaltenen Definitionen breit anwendbar und einfach erweiterbar. Auf dieser Basis werden Vorgehen und Verfahren zum funktionsorientierten Test analysiert. Zunächst wird dazu das Vorgehen im funktionsorientierten Test im Rahmen des Modells dargestellt. Darauf aufbauend werden zentrale Verfahren des funktionsorientierten Tests analysiert, die zum Gegenstand die systematische Prüfung der Umsetzung von weitgehend informal beschriebenen Anforderungen in einem Softwareprodukt haben. Betrachtet werden Verfahren der funktionalen Partitionierung, der funktionalen Äquivalenzklassenanalyse und Grenzwertbildung, Verfahren zur Prüfung von kausalen Zusammenhängen zwischen Ursachen und Wirkungen, Verfahren zur Prüfung von graphisch spezifizierter Funktionalität in Syntaxdiagrammen, Aktivitätsdiagrammen, Sequenz- und Kollaborationsdiagrammen und Petrinetzen, Verfahren zum Test zustandsbasierter Systeme sowie Ansätze einer funktionalen Dekomposition. Die Analyse und Diskussion der bekannten Verfahren im formalisierten Rahmenwerk führt zu zahlreichen Ergebnissen und Verfahrensergänzungen. So zeigt sich, dass in den klassischen, informalen Beschreibungen häufig Unklarheiten bestehen. Diese werden hier adressiert und durch Angabe von Kriterien präzisiert, Optimierungsmöglichkeiten werden aufgezeigt. Darüber hinaus wird an der einheitlichen formalen Darstellung der in der Literatur meist separat betrachteten Verfahren deutlich, welche Vergleichbarkeit zwischen den Verfahren besteht, welche Verfahrenskombinationen sinnvoll sind und wie durch ein kombiniert funktions- und strukturorientiertes Vorgehen eine hohe Aussagekraft in der analytischen Qualitätssicherung erreicht werden kann. Bei der Formulierung der Verfahren im Rahmen des Modells wird herausgearbeitet, wo zur Verfahrensdurchführung die kreative Leistung des Testers notwendig ist und welche Anteile formalisiert und damit automatisiert unterstützt werden können. Diese Betrachtungen bilden die Grundlage für die Skizzierung einer integrierten Entwicklungsumgebung, in der ein funktionsorientiertes Vorgehen in Entwicklung und Qualitätssicherung umgesetzt wird: Hier helfen funktionsorientierte Beschreibungsformen bei der Angabe der Spezifikation, ihrer Verfeinerung und ihrer Vervollständigung, sie unterstützen die Entwicklung durch Modellbildung, sie liefern die Basis für eine funktionsorientierte Testdatenselektion mit Adäquatheitsprüfung, sie können bei geeigneter Interpretierbarkeit über den Datenbereichen zur automatisierten Testfallgenerierung genutzt werden und unterstützen als suboptimale Testorakel eine automatisierte Auswertung des dynamischen Tests. Diese Skizze zeigt die praktische Umsetzbarkeit der vorwiegend theoretischen Ergebnisse dieser Arbeit und setzt einen Impuls für ein verstärktes Aufgreifen funktionsorientierter Techniken in Wissenschaft und Praxis.
Wässrige Lösungen sowohl neutraler als auch ionischer Polymerer gewinnen ein zunehmendes Interesse in vielen Bereichen. Für den Einsatz solcher Systeme muss deren Phasenverhalten bekannt sein. Die vorliegende Arbeit liefert einen Beitrag zum Phasengleichgewicht solcher Systeme. Als Bausteine der Polymere werden dabei sowohl die neutrale organischen Komponente Vinylpyrrolidon (VP) als auch ein ionisches Monomer auf Basis von Imidazolium (3-Methyl-1-vinyl-1H-Imidazoliummethylsulfat - QVI), als niedrigmolekularer Elektrolyt ausschließlich Natriumsulfat verwendet. Die vorliegende Arbeit hat zum Ziel, das Phasenverhalten einer Reihe technisch interessierender Systeme in experimentellen Untersuchungen bei 25 und 65°C zu bestimmen und damit eine Datenbasis für theoretische Arbeiten zu liefern, die im Anschluss an diese Untersuchungen im Zusammenhang mit der Entwicklung von Modellen zur Korrelation bzw. Vorhersage solcher Phasengleichgewichte vorgesehen sind. Die Grenze zwischen einem einphasigen, flüssigen Bereich und Zwei- bzw. Drei-Phasen-Gebieten wurde durch visuelle Bestimmung der Trübung bei der Titration einer wässrigen Lösung (entweder des Polymeren oder des Salzes) bestimmt. Die Zusammensetzung der koexistierenden Phasen wurde in Phasengleichgewichtsexperimenten bestimmt, bei denen Proben der koexistierenden Phasen analysiert wurden. Dazu wurden mehrere Analysenmethoden entwickelt/erprobt (z. B. die Gefriertrocknung, die thermische (gravimetrische) Analyse, die Gaschromatographie und die Ionenchromatographie). Insgesamt wurden für 42 Systeme der Verlauf der Trübungskurve und für 34 Systeme das Phasengleichgewicht bestimmt. Dabei handelte es sich überwiegend um ternäre Systeme aus einem Polymeren (auf Basis von VP und/bzw. QVI), Natriumsulfat und Wasser, teilweise auch um quaternäre Systeme aus den zuvor erwähnten Komponenten und einem der Monomeren (VP bzw. QVI). Dabei zeigte die Mehrzahl der untersuchten Systeme eine flüssig-flüssig Entmischung, teilweise jedoch auch nur die häufiger anzutreffenden Fest-Flüssig-Phasengleichgewichte (z.B. Ausfall eines Salzes als Feststoff). Die experimentellen Untersuchungen wurden insbesondere bei hohen Polymerkonzentrationen durch die Zähigkeit der wässrigen Lösungen erschwert. Neben den Untersuchungen zum Phasengleichgewicht in ternären und quaternären Systemen wurden im Hinblick auf die in weiterführenden Arbeiten geplanten Modellierungsarbeiten auch experimentelle Untersuchungen an binären Subsystemen durchgeführt. Dabei handelte es sich ausschließlich um sogenannte isopiestische Messungen an wässrigen Lösungen der Polymere bzw. der Monomere. In solchen Untersuchungen wird der Einfluss der Wechselwirkungen zwischen den Molekülen eines in Wasser gelösten Stoffes auf den Dampfdruck der Lösung bestimmt. Der dabei quantitativ bestimmte Einfluss von Art und Menge des Polymeren auf den Dampfdrucks des Lösungsmittels soll in weiterführenden Arbeiten zur Bestimmung von Parametern thermodynamischer Modelle zur Beschreibung der Gibbsschen Exzessenergie wässriger Polymerlösungen verwendet werden. Die Ergebnisse der experimentellen Untersuchungen zum Flüssig-Flüssig bzw. Fest-Flüssig-Phasengleichgewicht lassen sich folgendermaßen charakterisieren: In fast allen Systemen mit Polymeren auf Basis von Vinylpyrrolidon wurden Flüssig-Flüssig-Gleichgewichte mit einer salzreichen, nahezu polymerfreien wässrigen Phase und einer polymerreichen wässrigen auch salzhaltigen flüssigen Phase gefunden. D. h. in einem Gibbsschen Dreiecksdiagramm, in dem die Zusammensetzung einer ternären Mischung (mit Hilfe des Konzentrationsmaßes „Massenanteil“ ausgedrückt) durch einen Punkt dargestellt wird zeigt die Phasengrenze zwischen dem einphasigen und dem mehrphasigen Gebiet eine starke Asymmetrie. Der Wassergehalt der polymerreichen Phase ist dabei häufig deutlich geringer als der Wassergehalt der salzreichen Phase. In Systemen mit (Natriumsulfat und) Polymeren auf Basis des Imidazoliumsalzes QVI wurden dagegen überwiegend Fest-Flüssig-Gleichgewichte beobachtet. Es zeigte sich, dass die Molmasse der verwendeten Polymere nur einen vergleichsweise geringen Einfluss auf die Ausdehnung des einphasigen flüssigen Gebietes hat. I. d. R. nimmt mit steigender Molmasse die Ausdehnung der Mischungslücke zu. Auch der Temperatureinfluss auf die beobachteten Phasengleichgewichte ist relativ gering. Dies war im Fall der Polymere auf Basis von Vinylpyrrolidon aus früheren Untersuchungen an wässrigen, salzfreien Lösungen dieser Polymere zu erwarten. Wie schon erwähnt, sind die Ergebnisse der vorliegenden Arbeit im Zusammenhang mit dem Einsatz solcher polymer- und salzhaltigen Systeme in verschiedenen Bereichen von Interesse. Sie bilden aber auch die Datenbasis für anstehende theoretische Arbeiten, die sich mit der Entwicklung thermodynamischer Modelle zur Beschreibung von Phasengleich- gewichten salz- und polymerhaltiger, wässriger Systeme beschäftigen werden.