Refine
Year of publication
- 2007 (145) (remove)
Document Type
- Doctoral Thesis (64)
- Report (37)
- Preprint (14)
- Periodical Part (13)
- Study Thesis (5)
- Working Paper (4)
- Diploma Thesis (3)
- Article (2)
- Conference Proceeding (2)
- Habilitation (1)
Has Fulltext
- yes (145)
Keywords
- Phasengleichgewicht (4)
- numerical upscaling (4)
- Dienstgüte (3)
- Elastoplastizität (3)
- Model checking (3)
- Networked Automation Systems (3)
- Netzwerk (3)
- Response-Zeit (3)
- Visualisierung (3)
- hub location (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (34)
- Fraunhofer (ITWM) (28)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Informatik (19)
- Kaiserslautern - Fachbereich Sozialwissenschaften (10)
- Kaiserslautern - Fachbereich Chemie (9)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
Durchlaufende Verbundträger können mit dem Fließgelenkverfahren berechnet werden. Bei dieser Methode werden die plastischen Querschnitts- und Systemreserven ausgenutzt. Bisher war bei der Anwendung der Fließgelenktheorie die Betrachtung von großen Öffnungen im Steg nicht geklärt. Im Rahmen der vorliegenden Arbeit wurden durchlaufende Verbundträger mit Öffnungen experimentell und numerisch untersucht. Mit den ermittelten Ergebnissen wurden zwei Bemessungsmodelle entwickelt, mit denen solche Verbundträger bemessen werden können. Bei dem ersten Bemessungsmodell handelt es sich um ein elastisch-plastisches Nachweisverfahren. Das Verfahren beruht auf einer elastischen Schnittgroßenermittlung, bei dem die Querschnitte plastisch nachgewiesen werden. Nach dem zweiten Nachweisverfahren werden die Durchlaufträger nach der Fließgelenktheorie plastisch-plastisch berechnet. Über die plastischen Tragfähigkeiten der Querschnitte werden die plastischen Systemreserven rechnerisch ausgenutzt. Dazu werden die möglichen kinematischen Ketten des Systems zusammengestellt und die jeweiligen Traglasten ermittelt.
Die Bestimmung der Filtrierbarkeit von Suspensionen mit einer neuen Auswertemethode auf der Grundlage bekannter und erprobter Auswerteverfahren ergibt eindeutige Auswertekriterien insbesondere bei inkompressiblen Feststoffen und newtonschen Flüssigkeiten. Eine verbesserte Messtechnik erfasst den Filtratanfall bei beginnender Sättigung genau und vereinfacht die Zeitnahme. Methode und Technik erhöhen Genauigkeit und Reproduzierbarkeit bei der Bestimmung von Filtermittel- und Filterkuchenwiderstand und schaffen eine präzise Grundlage zur Auslegung von kontinuierlichen Fest-Flüssig-Filtern hoher Durchsatzleistung oder zur Entwicklung widerstandsarmer Filtermittel. Die Messungen zeigen einen hohen Anteil des Filtermittelwiderstandes am Gesamtwiderstand und erlauben die Berechnung eines Richtwertes für den Filtermittelwiderstand. Die industrielle Fest-Flüssig-Trennung wird in der chemischen, pharmazeutischen und Aufbereitungs-Industrie zu einem großen Teil auf kontinuierlich betriebenen Filtern durchgeführt, bei denen die Flüssigkeit vom Feststoff durch Kuchenfiltration sehr vollständig getrennt werden kann. Diese Filter sind durch Filtrationszykluszeiten zwischen 10 und 100 Sekunden charakterisierbar. Bei der Auslegung, Simulation oder Optimierung dieser Filter ist der Prozessingenieur auf genaue Daten zur Filtrierbarkeit der Suspensionen angewiesen. Die Theorie des durchströmten Filterkuchens ist sehr perfektioniert. Weniger Beachtung hatte dagegen der Einfluss des Filtermittels auf den Gesamtwiderstand bei der Filtration gefunden. Dies lag in der Vergangenheit teilweise daran, dass die genaue Bestimmung des Filtermittelwiderstandes RM – die zusammen mit der Bestimmung des Filterkuchenwiderstandes rK erfolgt – schwierig war. In den letzten Jahren wurden Filter für sehr hohe spezifische Durchsätze gebaut, bei denen dieser Wert von erheblichem Einfluss ist. Ziel der Arbeit war es, mehr Wissen und genaue Daten zum Filtermittelwiderstand zu erarbeiten. Es wurden umfangreiche Messungen des Filtermittelwiderstandes mit unterschiedlichen Filtermitteln und verschiedenen Produkten in wässrigen Suspensionen durchgeführt. Zur genauen Bestimmung des Filtermittelwiderstandes wurde ein gegenüber dem Stand der Technik verbesserter Versuchsaufbau mit rechnergestützter Datenerfassung entwickelt. Filtratanfall und Druckverlauf wurden bei den Versuchen festgehalten. Bei der Auswertung der Filterkurven wurden eindeutige Kriterien zur Bestimmung von Anfang und Ende der Filtration eingeführt. Dies erfolgte durch die Kombination von zwei bekannten und erprobten Auswerteverfahren zur Bestimmung der Filtrationseigenschaften. Diese Kombination ergab mit der verbesserten Versuchstechnik neben der Eindeutigkeit auch den Vorteil der exakten Erfassung des Filtratanfalls bei beginnender Sättigung, die ebenfalls zur erhöhten Genauigkeit bei der Bestimmung der Filterwiderstände beitrug. Der Filtermittelwiderstand kann bei kontinuierlich betriebenen Filtern am Ende des Filtrationszyklus 25 % des Gesamtwiderstandes und mehr erreichen. Bei leicht filtrierbaren Feststoffen werden trotz offener Filtergewebe auch höhere Anteile am Gesamtwiderstand gefunden. Der Filtermittelwiderstand ist bei kontinuierlichen Filtern ein wesentlicher Faktor bei der Filterauslegung. Durch Variation der Parameter der Filtergleichung wie Feststoffgehalt, Druck usf. wurden die Einflüsse wichtiger Betriebsparameter auf tendenzielle Änderungen der Widerstände untersucht. Bei diesen Messungen wurde festgestellt, dass der Durchflusswiderstand des Filtermittels bei höheren Durchflussgeschwindigkeiten nicht konstant ist. Die Einführung einer Reynoldszahl, die auf den nominellen Porendurchmesser bezogen ist, erlaubt es Strömungszustände zu definieren, ab denen der Durchflusswiderstand nicht mehr konstant ist. Mit den bekannten Gesetzten der Durchströmung poröser Haufwerke lassen sich Widerstandszahlen, analog zur Rohrreibungszahl, und daraus Druckverluste errechnen. Letztere sind mit den gemessenen Druckverlusten aus der Bestimmung der Filtermittelleerwiderstände gut korreliert. Mechanische Vorgänge bei der Partikelabscheidung an Filtermitteln werden anhand eines Kugel-Loch-Modells diskutiert. Experimentelle Ergebnisse stützen Schlussfolgerungen, die aufgrund dieses Modells gezogen wurden. Dazu wurden Überlegungen möglich, welche einige Tendenzen bei der Variation der Porengrößen bei unterschiedlichen Filtermedien erklären können.
In this expository article, we give an introduction into the basics of bootstrap tests in general. We discuss the residual-based and the wild bootstrap for regression models suitable for applications in signal and image analysis. As an illustration of the general idea, we consider a particular test for detecting differences between two noisy signals or images which also works for noise with variable variance. The test statistic is essentially the integrated squared difference between the signals after denoising them by local smoothing. Determining its quantile, which marks the boundary between accepting and rejecting the hypothesis of equal signals, is hardly possible by standard asymptotic methods whereas the bootstrap works well. Applied to the rows and columns of images, the resulting algorithm not only allows for the detection of defects but also for the characterization of their location and shape in surface inspection problems.
In an undirected graph G we associate costs and weights to each edge. The weight-constrained minimum spanning tree problem is to find a spanning tree of total edge weight at most a given value W and minimum total costs under this restriction. In this thesis a literature overview on this NP-hard problem, theoretical properties concerning the convex hull and the Lagrangian relaxation are given. We present also some in- and exclusion-test for this problem. We apply a ranking algorithm and the method of approximation through decomposition to our problem and design also a new branch and bound scheme. The numerical results show that this new solution approach performs better than the existing algorithms.
In urban planning, sophisticated simulation models are key tools to estimate future population growth for measuring the impact of planning decisions on urban developments and the environment. Simulated population projections usually result in large, macro-scale, multivariate geospatial data sets. Millions of records have to be processed, stored, and visualized to help planners explore and analyze complex population patterns. We introduce a database driven framework for visualizing geospatial multidimensional simulation data based on the output from UrbanSim, a software for the analysis and planning of urban developments. The designed framework is extendable and aims at integrating empirical-stochastic methods and urban simulation models with techniques developed for information visualization and cartography. First, we develop an empirical model for the estimation of residential building types based on demographic household characteristics. The predicted dwelling type information is important for the analysis of future material use, carbon footprint calculations, and for visualizing simultaneously the results of land usage, density, and other significant parameters in 3D space. Our model uses multinomial logistic regression to derive building types at different scales. The estimated regression coefficients are applied to UrbanSim output in order to predict residential building types. The simulation results and the estimated building types are managed in an object-relational geodatabase. From the database, density, building types, and significant demographic variables are visually encoded as scalable, georeferenced 3D geometries and displayed on top of aerial photographs in a Google Earth visual synthesis. The geodatabase can be accessed and the visualization parameters can be chosen through a web-based user interface. The geometries are encoded in KML, Google's markup language, as ready-to-visualize data sets. The goal is to enhance human cognition by displaying abstract representations of multidimensional data sets in a realistic context and thus to support decision making in planning processes.
The visualization of numerical fluid flow datasets is essential to the engineering processes that motivate their computational simulation. To address the need for visual representations that convey meaningful relations and enable a deep understanding of flow structures, the discipline of Flow Visualization has produced many methods and schemes that are tailored to a variety of visualization tasks. The ever increasing complexity of modern flow simulations, however, puts an enormous demand on these methods. The study of vortex breakdown, for example, which is a highly transient and inherently three-dimensional flow pattern with substantial impact wherever it appears, has driven current techniques to their limits. In this thesis, we propose several novel visualization methods that significantly advance the state of the art in the visualization of complex flow structures. First, we propose a novel scheme for the construction of stream surfaces from the trajectories of particles embedded in a flow. These surfaces are extremely useful since they naturally exploit coherence between neighboring trajectories and are highly illustrative in nature. We overcome the limitations of existing stream surface algorithms that yield poor results in complex flows, and show how the resulting surfaces can be used a building blocks for advanced flow visualization techniques. Moreover, we present a visualization method that is based on moving section planes that travel through a dataset and sample the flow. By considering the changes to the flow topology on the plane as it moves, we obtain a method of visualizing topological structures in three-dimensional flows that are not accessible by conventional topological methods. On the same algorithmic basis, we construct an algorithm for the tracking of critical points in such flows, thereby enabling the treatment of time-dependent datasets. Last, we address some problems with the recently introduced Lagrangian techniques. While conceptually elegant and generally applicable, they suffer from an enormous computational cost that we significantly use by developing an adaptive approximation algorithm. This allows the application of such methods on very large and complex numerical simulations. Throughout this thesis, we will be concerned with flow visualization aspect of general practical significance but we will particularly emphasize the remarkably challenging visualization of the vortex breakdown phenomenon.
Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung fluoreszenzmarkierter Pyrrolin-N-oxide sowie von Stilbennitronen. Diese Verbindungen sind aufgrund ihrer chemischen Struktur zum Abfangen kurzlebiger Radikale befähigt, wobei sie selbst zu einem langlebigen Radikal-Addukt reagieren. Diese Methode ist unter dem Namen „Spin-Trapping“ bekannt und wird bevorzugt zum Nachweis reaktiver Sauerstoffspezies in biologischen Systemen eingesetzt. Zu diesem Zweck wurde zunächst die Synthese der Spin-Trap EMPO etabliert und versucht, diese durch Umesterung mit einem Fluoreszenzfarbstoff zu markieren. Da dieser Syntheseweg erfolglos blieb, wurden die neuen Spin-Trap-Verbindungen BocAEMPO, AEMPO, BocEAEMPO und EAEMPO synthetisiert. Versuche zur Umsetzung dieser Verbindungen mit einer Reihe von Fluoreszenzfarbstoffen verliefen jedoch ebenfalls ohne Erfolg. Ursache hierfür ist die ausgeprägte Reaktivität der zum Spin-Trapping benötigten Nitron-Gruppe. Die hierzu benötigten NBD- und BODIPY-Farbstoffderivate wurden ebenfalls selbst synthetisiert. Weiterhin wurden Versuche zur Direktsynthese einer fluoreszenzmarkierten Spin-Trap unternommen. Ziel war hierbei, vor dem Erzeugen der Nitron-Gruppe bereits ein Fluorophor im Molekül einzubauen. Diese Versuche scheiterten jedoch an der Empfindlichkeit der verwendeten Farbstoffe. In einem Fall konnte zwar ein BODIPY-System erfolgreich unter den Bedingungen der Nitronsynthese erhalten werden, jedoch war das erhaltene Produkt nicht eindeutig charakterisierbar. Weiterhin wurde die Synthese von DEPMPO etabliert und erste Versuche zur Modifikation dieser Spin-Trap unternommen. Die neu synthetisierten Spin-Traps wurden mit sechs verschiedenen Radikalen zu ihren Addukten umgesetzt und durch ESR-Spektroskopie charakterisiert. Aus den durchgeführten Kinetikmessungen wurden die Zerfallskonstanten und die Halbwertszeiten der Spin-Addukte bestimmt. In einem weiteren Teil dieser Arbeit wurden Stilbennitrone hergestellt. Hierbei wurde die Synthese von Stilbenaldehyd-Derivaten mittels Heck-Reaktionen etabliert und im Anschluss drei verschiedenen Stilbennitrone synthetisiert. Diese wurden sowohl ESR- als auch UV- und Fluoreszenz-spektroskopisch charakterisiert. Mit der Verbindung Nitrostilbennitron wurden erste Versuche zum Fluoreszenzquenching und zur Inkubation von COS7-Zellen unternommen. Bei den Quenchingversuchen konnten die erwarteten Effekte bei der Reaktion mit OH-Radikalen gemessen werden. Die Inkubation der COS7-Zellen verlief ebenfalls erfolgreich, wobei hier jedoch aufgrund technischer Limitierungen auf Seiten der verfügbaren Mikroskope keine Aussagen zur Spezifität der erreichten Färbung getroffen werden können.
The present work deals with the (global and local) modeling of the windfield on the real topography of Rheinland-Pfalz. Thereby the focus is on the construction of a vectorial windfield from low, irregularly distributed data given on a topographical surface. The developed spline procedure works by means of vectorial (homogeneous, harmonic) polynomials (outer harmonics) which control the oscillation behaviour of the spline interpoland. In the process the characteristic of the spline curvature which defines the energy norm is assumed to be on a sphere inside the Earth interior and not on the Earth’s surface. The numerical advantage of this method arises from the maximum-minimum principle for harmonic functions.
In this thesis we classify simple coherent sheaves on Kodaira fibers of types II, III and IV (cuspidal and tacnode cubic curves and a plane configuration of three concurrent lines). Indecomposable vector bundles on smooth elliptic curves were classified in 1957 by Atiyah. In works of Burban, Drozd and Greuel it was shown that the categories of vector bundles and coherent sheaves on cycles of projective lines are tame. It turns out, that all other degenerations of elliptic curves are vector-bundle-wild. Nevertheless, we prove that the category of coherent sheaves of an arbitrary reduced plane cubic curve, (including the mentioned Kodaira fibers) is brick-tame. The main technical tool of our approach is the representation theory of bocses. Although, this technique was mainly used for purely theoretical purposes, we illustrate its computational potential for investigating tame behavior in wild categories. In particular, it allows to prove that a simple vector bundle on a reduced cubic curve is determined by its rank, multidegree and determinant, generalizing Atiyah's classification. Our approach leads to an interesting class of bocses, which can be wild but are brick-tame.
Zwölf Testpflanzen des Weinbauinstituts Freiburg wurden auf deren Resistenzeigenschaften gegenüber dem Virusvektor Xiphinema index und dem GFLV getestet. Das Hauptziel dieser Arbeit lag in der Entwicklung eines in-vitro-Testsystems für Reben, das detaillierte Einblicke in das Wurzel-Nematoden-System erlaubt. Anhand dieses in-vitro-Testsystems konnten zwei unterschiedliche Reaktionen der Wurzeln dieser Testreben auf die Saugtätigkeit der Nematoden festgestellt werden. Es konnte sowohl eine Gallenbildung als auch eine Nekrosenbildung bei den unterschiedlichen Kreuzungen der Testpflanzen beobachtet werden. Alle Testpflanzen aus verschiedenen Kreuzungen zeigten eine Abwehrreaktion gegenüber den Nematoden. Dies resultierte in Auftreten von Transkripten der Phenylalanin-Ammonium-Lyase (PAL) und der Bildung von Superoxid-Radikalen. Bei zwei V. rotundifolia-Hybriden war zusätzlich die Callose-Synthase aktiv und es kam außerdem zu einer Callose-Deposition an den betroffenen Stellen im Wurzelgewebe. Bis auf Testpflanze 46, einem V. rotundifolia-Hybrid waren alle getesteten Reben nach vier Wochen Versuchsdauer sensitiv für eine Transmission des GFLV. Dieser Hybrid war an den Wurzeln durch die Saugtätigkeit der Nematoden nekrosenbildend und zeigte eine Callose-Synthase-Aktivität. X. index findet seine Wirtspflanzen durch Chemotaxis. Er orientiert sich anhand von Wurzelexudaten, die von Wurzeln ins Medium abgeben werden. Totes Wurzelgewebe kann der Nematode nicht lokalisieren und stellt keinen Stimulus dar. Bei knappem Nahrungsangebot nutzt der Nematode vorhandene Nahrungsressourcen aller Rebsorten mit verschiedenster Beschaffenheit. Mit dem Pflanzenhormon Methyljasmonat behandelte Wurzeln wurden gezielt gemieden. Zwei mit dem GFLV infizierte Rebflächen an verschiedenen Standorten zeigten innerhalb dreijähriger Beobachtung eine Zunahme von virustragenden Rebstöcken. Ein Hinweis auf die Verbreitung durch virusübertragende Nematoden konnte durch Bodenproben bisher nicht bestätigt werden.
Die RNAi–Methode spielt eine grosse Rolle in der Wirkstoffentwicklung bei der Validierung eines pharmakologischen Ziels. Die Anwendbarkeit in der Toxikologie wurde noch nicht systematisch untersucht. Das Ziel dieser Arbeit ist die Evaluierung der RNAi-Methode für mechanistisch-toxikologische Studien und den Einfluss von posttranskriptioneller Genunterdrückung auf biochemisch-zelluläre Endpunkte zu zeigen. Die siRNAs wurden mit Hilfe eines computerunterstützten Algorithmus ausgewählt. Effiziente und reproduzierbare Einschleusung der siRNA in vitro wurde durch Elektroporation erreicht. Die molekulare Reduktion der Expression des Zielgens wurde auf mRNA- und Proteinexpressionslevel oder auf Proteinaktivitätsebene zwischen 24 und 144 Stunden nach Behandlung überwacht. Die siRNAs wurden in vitro getestet bevor sie in vivo angewandt wurden. Als Methode zum Erreichen der Leber in vivo wurde die intraperitoneale Gabe von siRNAs gegenüber hydrodynamischer Injektion in die Schwanzvene evaluiert. Auf folgenden Enzyme wurde mit RNAi in der Zellkultur abgezielt: ATP-Synthase in HepG2, Farnesylpyrophosphat-Synthase (FPPS) in humanen Nierenzellen (HK-2) und Caspase-3 in Primärhepatozyten der Ratte. In allen Experimenten war RNAi in der Lage, das mRNA- und Proteinexpressions- oder Proteinaktivitäts-Niveau zu reduzieren, wodurch die erfolgreiche Genunterdrückung gezeigt werden konnte. Die Unterdrückung der mitochondrialen ATP- Synthase β-Untereinheit hatte keinen signifikanten Einfluss auf die Überlebensrate und den Energiestoffwechsel von HepG2-Zellen. Obwohl Oligomycin B-Behandlung zu ATP- Depletion und Verlust des mitochondiralen Membranpotentials führte, war keine Sensitivierung der Zellen gegenüber Oligomycin B- oder Diclofenac-induzierten Veränderungen des mitochondrialen Membranpotentials oder Zytotoxizität zu beobachten. Die Genunterdrückung der ATP-Synthase in HepG2-Zellen führte zu einer ähnlichen transkriptionellen Signatur wie Diclofenac-Behandlung in vivo, so dass eine mögliche Verbindung zwischen ATP-Synthase und Hepcidin, BiP und ALAS-1 durch Koregulation nahegelegt wird. Die Genunterdrückung von FPPS führte zu tendenziell erhöhter Zytotoxizität von Zoledronsäure, hatte aber keinen Einfluss auf den Prenylierungsstatus der kleinen GTPasen. Der Caspase-3/7-Inhibitor Ac-DEVD-CHO verhinderte SDZ IMM125-vermittelte Apoptose. Spezifische Genunterdrückung von Caspase-3 führte zur Reduktion der SDZ IMM125-induzierten Caspaseaktivität, während die Unterdrückung von Caspase-7 in dieser Hinsicht keinen Einfluss hatte. Die Effektschwelle des Genunterdrückung wurde durch Vergleich zwischen Caspase-3-silencing und Behandlung mit dem chemischen Caspase-Inhibitor Ac-DEVD-CHO auf Ebene der Caspase-3-Aktivität und der zytoprotektiven Wirksamkeit bestimmt. Der Effekt von Caspase-3-Unterdrückung war equivalent zur Wirkung von 1 μM Inhibitor. Die inhibitorvermittelte Schutzwirkung im Hinblick auf die Zytotoxizität wurde ausschliesslich bei höheren Inhibitorkonzentrationen erreicht, wodurch gezeigt wurde, dass die erreichte Genunterdrückung für zytoprotektive Wirkungen nicht ausreichend war. SiRNAs haben verglichen mit Enzyminhibitoren generell eine höhere Spezifität. Chemische Inhibitoren sind weniger spezifisch und können enzymatische Aktivitäten vollständig, in manchen Fällen irreversibel und schnell beeinflussen, so dass sie direkten Einfluss auf die zu untersuchenden Signalwege haben. SiRNAs unterscheiden sich in dieser Hinsicht, da die Abnahme des Proteins nicht vollständig, nur transient und langsam über eine Periode hinweg erfolgt, innerhalb welcher sich die Zellen durch kompensatorische Mechanismen anpassen und Primäreffekte maskiert werden können. Hydrodynamische Einschleusung von nicht-komplexierter siRNA in die Leber von CD-1-Mäusen war möglich und reduzierte die CYP2E1-Proteinexpression signifikant. Ein- oder mehrfache hochdosierte intraperitoneale Gabe von siRNA führte weder auf mRNA- noch auf Proteinebene zu signifikanten Effekten. Weitere Untersuchungen im Hinblick auf Stabilität und effiziente Einschleusung von siRNAs ist unvermeidlich, bevor siRNAs in vivo in der mechanistischen Toxikologie angewandt werden können. Zusammenfassend kann ausgesagt werden, dass die Anwendung von siRNAs in vitro eine universelle und spezifische Methode darstellt, welche in vielen mechanistisch-toxikologischen Studien als Werkzeug zur Signalweganalyse und zur Validierung von Zielproteinen eingesetzt werden kann. Die Stärke der enzymatischen Inhibition, die mit Hilfe eines chemischen Inhibitors erreicht werden kann, ist durch siRNA-vermittelte Genunterdrückung nicht zu erreichen. Genunterdrückung in vivo kann erreicht werden, doch die invasive hydrodynamische Methode ist nicht geeignet für Toxizitätsprüfungen im Tier. Die Einschleusung von siRNA in spezifische Zielorgane benötigt signifikante Verbesserung.
Gegenstand der vorliegenden Arbeit waren Untersuchungen zum Hochdruck-Mehrphasengleichgewicht ternärer Systeme bestehend aus einem nahekritischen Gas, Wasser und einem bei Umgebungsbedingungen vollständig wasserlöslichen organischen Lösungsmittel. Das Aufpressen eines Gases nahe seiner kritischen Temperatur (nahekritisches Gas) auf eine einphasige wässrige Lösung kann – wie die Zugabe eines Salzes – zur Entmischung der Flüssigkeit in eine wasserreiche (hydrophile) sowie eine an organischem Lösungsmittel reiche (lipophile bzw. hydrophobe) Phase führen. Elgin und Weinstock (1959) nannten dieses Phänomen bezeichnenderweise „salting out with a supercritical gas“. In der vorliegenden Arbeit wurde dieser Vorschlag aufgegriffen und umgesetzt. Der Schwerpunkt lag auf der Untersuchung des Einflusses ionischer Komponenten, z. B. von Puffersystemen bzw. anorganischer Salze, sowohl auf das Phasengleichgewicht des ternären phasenbildenden Systems als auch auf die Verteilung überwiegend dissoziierbarer Naturstoffe auf die koexistierenden Hochdruck-Flüssigphasen. Die Experimente wurden mit einer in früheren Arbeiten (Wendland 1994, Adrian 1997, Freitag 2003) entwickelten Phasengleichgewichtsapparatur durchgeführt. Die beiden untersuchten ternären phasenbildenden Systeme waren das System Ethen + Wasser + Aceton und das System Ethan + Wasser + Aceton. Für beide Systeme wurde die Zusammensetzung der koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewichts L1L2V über den gesamten Existenzbereich bei Temperaturen von 293, 313 und 333 K bestimmt. Ausserdem wurde der Verlauf beider kritischer Endpunktlinien für die beiden genannten und zusätzlich für die bereits von Freitag (2003) untersuchten Systeme Ethen + Wasser + 1- bzw. 2-Propanol über einen Temperaturbereich zwischen 278 und 353 K vermessen. Den Schwerpunkt der Untersuchungen bildeten Messungen zur Verteilung von Naturstoffen auf die koexistierenden flüssigen Phasen L1 und L2 des Dreiphasengleichgewicht L1L2V im pH-neutralen ternären System Ethen + Wasser + 2-Propanol. Zunächst wurde die Auswirkung der Zugabe von ionischen Komponenten auf die Lage der kritischen Endpunktlinien untersucht. Der erwartete, zusätzliche Aussalzeffekt bestätigte sich. Kernstück waren Verteilungsmessungen der sechs ausgewählten Wirkstoffe L-Histidin, Cimetidin, Aspirin®, 4-Dimethylaminoantipyrin, Sulfameter und Ciprofloxacin bei 293 und 333 K und bei mindestens zwei pH-Werten (insgesamt ca. 300 Messpunkte). Diese Erkenntnisse liefern neue Aspekte hinsichtlich der Entwicklung neuer, dieses spezielle Phasengleichgewichtsverhalten ausnutzende Hochdruckextraktionsverfahren zur Abtrennung organischer Wertstoffe aus wässrigen Lösungen. Gegenstand der theoretischen Untersuchungen war die Modellierung der Phasengleichgewichte der untersuchten ternären, phasenbildenden Systeme Ethen bzw. Ethan + Wasser + Aceton mit dem vorhandenen Programmpaket. Es verwendet die kubische Zustandgleichung von Peng und Robinson in der Modifikation von Melhem et al. (1989). In Anlehnung an die Untersuchungen von Freitag (2003) kamen die beiden Mischungsregeln von Panagiotopoulos und Reid (1986) sowie von Huron und Vidal (1979) zur Anwendung. Zunächst wurden die für den Programmablauf notwendigen binären Wechselwirkungsparameter an Messwerte für das Dampf-Flüssigkeits-Gleichgewicht der binären Randsysteme (aus der Literatur) angepasst. Da das Programm hierbei auf keine eigenen Messdaten, sondern lediglich auf Daten aus der Literatur zurückgreift, kann von einer Vorhersage gesprochen werden. Die Vorhersage der Phasengleichgewichte stimmt aber nur qualitativ mit den Messwerten überein, wobei das Phasenverhalten aber grundsätzlich richtig vorhergesagt wird. Eine zufriedenstellende quantitative Beschreibung der ternären Dreiphasengleichgewichte ist (wie schon von Adrian (1997) und Freitag (2003) gezeigt) nur mit Hilfe einer Korrelation möglich, bei der die binären Wechselwirkungsparameter durch Anpassung an die experimentell ermittelten ternären Phasengleichgewichtsdaten bestimmt werden. Ein Vorschlag für weiterführende Untersuchungen ist die Implementierung chemischer Reaktionen, wie sie bei dissoziierenden Spezies vorkommen, in das Programmpaket. Hiervon kann eine brauchbare Modellierung sowohl der Phasen- als auch der Verteilungsgleichgewichte gepufferter Systeme erwartet werden. Des weiteren bleibt die Notwendigkeit bestehen, für die entsprechenden binären Randsysteme möglichst zahlreiche und vor allem genaue Daten für einen grossen Temperatur- und Druckbereich zur Verfügung zu haben, um die Modellierung zu verbessern.
Ziel der vorliegenden Arbeit war es, durch Lagerung hervorgerufene unerwünschte Alterungsphänomene in Fruchtsäften und Konzentraten aus anthocyanhaltigen Früchten aufzuklären und zu minimieren. Ein wesentlicher Schwerpunkt lag dabei in der Betrachtung der Veränderung der komplexen Stoffgruppe der Polyphenole, die aufgrund ihrer Vielzahl an gesundheitlich positiven Wirkungen in jüngster Zeit immer mehr in den Focus einer gesunden Ernährung gerückt sind. Buntsäfte und Buntsaftkonzentrate aus roter Traube (Vitis Vinifera, nur Saft), schwarzer Johannisbeere (Ribes nigrum L.), und Aronia (Aronia melanocarpa) wurden hergestellt und anschließend über einen Zeitraum von zwölf Monaten bei 4 °C, 20 °C und 37 °C unter Lichtausschluss gelagert. Bei allen Buntsäften und Buntsaftkonzentraten wirkt sich die Zunahme von Lagertemperatur und Lagerdauer negativ aus. Die Intensität der Auswirkung differierte stark zwischen den untersuchten Parametern: Die Gesamtphenolgehalte (Folin-Ciocalteu) sowie die damit häufig korrelierende antioxidative Kapazität (TEAC) unterlagen in allen Säften und Konzentraten bei 4 °C und 20 °C über einen Zeitraum von 12 Monaten nur geringen Schwankungen. Möglicherweise entstehen während der Lagerung neue Pigmente wie polymere oder kondensierte Polyphenole, die ebenfalls eine hohe antioxidative Kapazität besitzen. Die originäre Farbe (CIELAB, Sensorik) blieb bei sehr stark gefärbten Proben (z.B. schwarze Johannisbeere) länger erhalten als bei nur schwach gefärbten Proben (z.B. Rebsorte cv. Spätburgunder), die zu einer wesentlich schnelleren Bräunung auch bei niedrigeren Lagertemperaturen neigten. Die Phenolprofile (HPLC) sind frucht- und sortenabhängig, die Phenolgehalte (HPLC) sind frucht-, sorten- und jahrgangsabhängig. Die höchsten Gehalte an farblosen Phenolen wurden im Rahmen dieser Arbeit für Aroniasaft und –konzentrat (1000 mg/L) gemessen. Während der Lagerung blieben die Werte für 4 °C in fast allen Proben relativ stabil, wohingegen für 20 °C bereits deutliche Abnahmen, insbesondere der Phenolcarbonsäuren und Flavan-3-ole, gemessen wurden. Die temperaturabhängige Abnahme von Flavan-3-olen in rotem Traubensaft cv. Spätburgunder steht wahrscheinlich im Zusammenhang mit der Bildung von Anthocyan-Tannin-Addukten, diese konnten als solche nach Größenausschlusschromatographie und anschließender LC-MS-Analytik identifiziert werden. Die Anthocyangehalte der originären Anthocyane (berechnet als Cya-3-glc bzw. Mal-3-glc, HPLC) nahmen in Abhängigkeit von der Lagertemperatur und der Lagerdauer in allen untersuchten Proben deutlich ab. Der Vergleich der aus den kinetischen Berechnungen auf der Basis der HPLC-Daten hervor gehenden Halbwertszeiten der Anthocyane verdeutlicht die unterschiedlichen Stabilitäten in den Säften. Generell ging eine hohe Ausgangskonzentration an Anthocyanen auch mit einer höheren Halbwertszeit und damit einer höheren Stabilität einher. Mit der Anthocyankonzentration (HPLC) korreliert der Monomerindex (pH-Shift-Methode), der auch als Marker zur Beschreibung der Alterung von Anthocyanen geeignet ist. Ein weiterer Schwerpunkt lag bei der Erhaltung der Farbe auf dem Zusatz von farblosen Phenolen, die durch sogenannte Copigmentierungsreaktionen Anthocyane stabilisieren. Während sich einige farblose Phenole (Kaffeesäure, Coumarsäure, Chlorogensäure) in Modellversuchen farbstabilisierend auf das Anthocyan Cyanidin-3-glucosid auswirkten, haben sich die verhältnismäßig geringen Konzentrationen in rotem Traubensaft nicht positiv bemerkbar gemacht. Die erst durch sehr hohe Dosen an Copigmenten eintretende Farbstabilisierung ist für die Praxis nicht realistisch und finanziell nicht umsetzbar. Ein stark farbdestabilisierender Effekt sowie eine deutliche Verstärkung der Bräunung sowohl in den Modelllösungen als auch in Realmedien wurden beim Zusatz von Ascorbinsäure beobachtet. Basierend auf den Ergebnissen aller Lagerstudien können klare Empfehlungen für die Eindämmung von Alterungsprozessen ausgesprochen werden: 1. Sehr gute Qualität der Rohware (reich insbesondere an Anthocyanen) 2. Vermeidung von Prozessschritten und Behandlungsmaßnahmen während der Verarbeitung, die eine starke Abnahme des Anthocyangehaltes verursachen (z.B. durch kurze Erhitzungsprozesse, Ausschluss von Sauerstoff, möglichst niedrige Verarbeitungstemperaturen, Inaktivierung von Polyphenoloxidasen) 3. Dauerhaft niedrige Lagertemperaturen (ca. 4 °C) 4. Lichtausschluss während der Lagerung 5. Möglichst kurze Lagerdauer, entsprechend des jeweiligen Produktes 6. Kein Zusatz von farblosen Phenolen als Copigmente sowie Ascorbinsäure, evtl. Verschnitt mit sehr farbintensiven Buntsäften 7. Lagerung als Direktsaft Für die Praxis können unter Berücksichtigung dieser Aspekte Grundlagen geschaffen werden, die Qualität von Buntsäften zu erhalten und im Hinblick der aktuellen functional food Diskussion einen Beitrag zu einem gesundheitsbewussten Lebenstil mit natürlichen Lebensmitteln zu leisten.
Im Rahmen der vorliegenden Arbeit wurden sowohl neuartige polymere Hochleistungsverbundwerkstoffe als auch unterschiedliche Modellprüfmethoden zur Nachbildung abrasiver Verschleißbedingungen entwickelt. Ausgangspunkt für diese Themenstellung war, Verbundwerkstoffe als alternative Gleitlagermaterialien in hermetisch dichten Pumpen für aggressive und abrasive Medien einzusetzen. Stand der Technik sind hierbei keramische Gleitlager, insbesondere aus monolithischem Siliziumkarbid. Das Ziel war somit zu untersuchen, ob Polymerwerkstoffe derart modifiziert werden können, dass ein vergleichbares Verschleißverhalten erreicht wird. Auf der Basis von Epoxidharz wurde die elementare Werkstoffentwicklung, durch Variation von Füll- und Verstärkungsstoffe, hinsichtlich Art, Größe und Menge, durchgeführt. Die Formulierung mit den in Summe günstigsten Eigenschaften wurde anschließend auf einen weiteren Duroplasten (Vinylester) und einen Thermoplasten (Etylentetrafluorethylen) übertragen. Auf diese Weise konnte gezeigt werden, dass das Verschleißverhalten bei hochgefüllten Systemen maßgeblich von den Füll- und Verstärkungsstoffen geprägt wird und durch die Übertragung der Formulierung ähnliche Verschleißraten erzielt werden. Weiterhin wurde der Einfluss der Aushärtungstemperatur, und somit des Herstellungsprozesses, auf die Werkstoffeigenschaften dargestellt. Durch eine weiterführende Werkstoffmodifikation, den Einsatz multimodaler Korngrößenverteilungen, war es zudem möglich die tribologischen Eigenschaften nochmals zu verbessern. Der Vergleich der Werkstoffeigenschaften erfolgte mittels mechanischer und tribologischer Prüfungen. Letztere waren jedoch nur bedingt anwendbar, um einen Vergleich zwischen den neu entwickelten Hochleistungsverbundwerkstoffen und dem Referenzwerkstoff Siliziumkarbid zu ermöglichen. Aus diesem Grunde wurde ein spezieller Medienprüfstand konstruiert und aufgebaut, um verschiedenste abrasive Prüfbedingungen, ob geschmiert oder ungeschmiert, simulieren zu können. Mit Hilfe abrasiver Gegenkörper war es möglich die Testzeit von 20 Stunden auf 60 Sekunden zu verkürzen. Die anschließende Validierung der Ergebnisse ergab eine gute Übereinstimmung. Zur Ableitung allgemein gültiger Aussagen wurden die Ergebnisse anhand dreier Verschleißmodelle für abrasive Bedingungen (Archard, Budinski, Ratner et al) überprüft. Dabei erwies sich jedoch keines der Modell als passend, um alle experimentellen Werte abbilden zu können. Dennoch lies sich erkennen, dass das Deformationsverhalten bei abrasiven Verschleißvorgängen eine bedeutende Rolle spielt. Deshalb wurde das Deformationsverhalten von drei exemplarischen Verbundwerkstoffen bei einer dynamischen Mikrohärteprüfung mittels der Finiten Elemente Methode (FEM) simuliert. Es zeigte sich, dass zum einen die Berechnungen und die experimentellen Ergebnisse sehr gut übereinstimmen. Zum anderen sind die entwickelten FEM Modelle sehr gut geeignet, um das Verschleißverhalten zu erklären.
This paper presents a wavelet analysis of temporal and spatial variations of the Earth's gravitational potential based on tensor product wavelets. The time--space wavelet concept is realized by combining Legendre wavelets for the time domain and spherical wavelets for the space domain. In consequence, a multiresolution analysis for both, temporal and spatial resolution, is formulated within a unified concept. The method is then numerically realized by using first synthetically generated data and, finally, several real data sets.
In the present work the modelling and numerical treatment of discontinuities in thermo-mechanical solids is investigated and applied to diverse physical problems. From this topic a structure for this work results, which considers the formulation of thermo-mechanical processes in continua in the first part and which forms the mechanical and thermodynamical framework for the description of discontinuities and interfaces, that is performed in the second part. The representation of the modelling of solid materials bases on the detailed derivation of geometrically nonlinear kinematics, that yields different strain and stress measures for the material and spatial configuration. Accordingly, this results in different formulations of the mechanical and thermodynamical balance equations. On these foundations we firstly derive by means of the concepts of the plasticity theory an elasto-plastic prototype-model, that is extended subsequently. In the centre of interest is the formulation of damage models in consideration of rate-dependent material behaviour. In the next step follows the extension of the isothermal material models to thermo-mechanically coupled problems, whereby also the special case of adiabatic processes is discussed. Within the representation of the different constitutive laws, the importance is attached to their modular structure. Moreover, a detailed discussion of the isothermal and the thermo-mechanically coupled problem with respect to their numerical treatment is performed. For this purpose the weak forms with respect to the different configurations and the corresponding linearizations are derived and discretized. The derived material models are highlighted by numerical examples and also proved with respect to plausibility. In order to take discontinuities into account appropriate kinematics are introduced and the mechanical and thermodynamical balance equations have to be modified correspondingly. The numerical description is accomplished by so-called interface-elements, which are based on an adequate discretization. In this context two application fields are distinguished. On the one side the interface elements provide a tool for the description of postcritical processes in the framework of localization problems, which include material separation and therefore they are appropriate for the description of cutting processes. Here in turn one has to make the difference between the domain-dependent and the domain-independent formulation, which mainly differ in the definition of the interfacial strain measure. On the other side material properties are attached to the interfaces whereas the spatial extension is neglectable. A typical application of this type of discontinuities can be found in the scope of the modelling of composites, for instance. In both applications the corresponding thermo-mechanical formulations are derived. Finally, the different interface formulations are highlighted by some numerical examples and they are also proved with respect to plausibility.
Thermoelasticity represents the fusion of the fields of heat conduction and elasticity in solids and is usually characterized by a twofold coupling. Thermally induced stresses can be determined as well as temperature changes caused by deformations. Studying the mutual influence is subject of thermoelasticity. Usually, heat conduction in solids is based on Fourier’s law which describes a diffusive process. It predicts unnatural infinite transmission speed for parts of local heat pulses. At room temperature, for example, these parts are strongly damped. Thus, in these cases most engineering applications are described satisfactorily by the classical theory. However, in some situations the predictions according to Fourier’s law fail miserable. One of these situations occurs at temperatures near absolute zero, where the phenomenon of second sound1 was discovered in the 20th century. Consequently, non-classical theories experienced great research interest during the recent decades. Throughout this thesis, the expression “non-classical” refers to the fact that the constitutive equation of the heat flux is not based on Fourier’s law. Fourier’s classical theory hypothesizes that the heat flux is proportional to the temperature gradient. A new thermoelastic theory, on the one hand, needs to be consistent with classical thermoelastodynamics and, on the other hand, needs to describe second sound accurately. Hence, during the second half of the last century the traditional parabolic heat equation was replaced by a hyperbolic one. Its coupling with elasticity leads to non-classical thermomechanics which allows the modeling of second sound, provides a passage to the classical theory and additionally overcomes the paradox of infinite wave speed. Although much effort is put into non-classical theories, the thermoelastodynamic community has not yet agreed on one approach and a systematic research is going on worldwide.Computational methods play an important role for solving thermoelastic problems in engineering sciences. Usually this is due to the complex structure of the equations at hand. This thesis aims at establishing a basic theory and numerical treatment of non-classical thermoelasticity (rather than dealing with special cases). The finite element method is already widely accepted in the field of structural solid mechanics and enjoys a growing significance in thermal analyses. This approach resorts to a finite element method in space as well as in time.
This technical report is the Emerging Trends proceedings of the 20th International Conference on Theorem Proving in Higher Order Logics (TPHOLs 2007), which was held during 10-13 September in Kaiserslautern, Germany. TPHOLs covers all aspects of theorem proving in higher order logics as well as related topics in theorem proving and verification.
In the thesis the author presents a mathematical model which describes the behaviour of the acoustical pressure (sound), produced by a bass loudspeaker. The underlying physical propagation of sound is described by the non--linear isentropic Euler system in a Lagrangian description. This system is expanded via asymptotical analysis up to third order in the displacement of the membrane of the loudspeaker. The differential equations which describe the behaviour of the key note and the first order harmonic are compared to classical results. The boundary conditions, which are derived up to third order, are based on the principle that the small control volume sticks to the boundary and is allowed to move only along it. Using classical results of the theory of elliptic partial differential equations, the author shows that under appropriate conditions on the input data the appropriate mathematical problems admit, by the Fredholm alternative, unique solutions. Moreover, certain regularity results are shown. Further, a novel Wave Based Method is applied to solve appropriate mathematical problems. However, the known theory of the Wave Based Method, which can be found in the literature, so far, allowed to apply WBM only in the cases of convex domains. The author finds the criterion which allows to apply the WBM in the cases of non--convex domains. In the case of 2D problems we represent this criterion as a small proposition. With the aid of this proposition one is able to subdivide arbitrary 2D domains such that the number of subdomains is minimal, WBM may be applied in each subdomain and the geometry is not altered, e.g. via polygonal approximation. Further, the same principles are used in the case of 3D problem. However, the formulation of a similar proposition in cases of 3D problems has still to be done. Next, we show a simple procedure to solve an inhomogeneous Helmholtz equation using WBM. This procedure, however, is rather computationally expensive and can probably be improved. Several examples are also presented. We present the possibility to apply the Wave Based Technique to solve steady--state acoustic problems in the case of an unbounded 3D domain. The main principle of the classical WBM is extended to the case of an external domain. Two numerical examples are also presented. In order to apply the WBM to our problems we subdivide the computational domain into three subdomains. Therefore, on the interfaces certain coupling conditions are defined. The description of the optimization procedure, based on the principles of the shape gradient method and level set method, and the results of the optimization finalize the thesis.
In the theoretical part of this thesis, the difference of the solutions of the elastic and the elastoplastic boundary value problem is analysed, both for linear kinematic and combined linear kinematic and isotropic hardening material. We consider both models in their quasistatic, rate-independent formulation with linearised geometry. The main result of the thesis is, that the differences of the physical obervables (the stresses, strains and displacements) can be expressed as composition of some linear operators and play operators with respect to the exterior forces. Explicit homotopies between both solutions are presented. The main analytical devices are Lipschitz estimates for the stop and the play operator. We present some generalisations of the standard estimates. They allow different input functions, different initial memories and different scalar products. Thereby, the underlying time involving function spaces are the Sobolov spaces of first order with arbitrary integrability exponent between one and infinity. The main results can easily be generalised for the class of continuous functions with bounded total variation. In the practical part of this work, a method to correct the elastic stress tensor over a long time interval at some chosen points of the body is presented and analysed. In contrast to widespread uniaxial corrections (Neuber or ESED), our method takes multiaxiality phenomena like cyclic hardening/softening, ratchetting and non-masing behaviour into account using Jiang's model of elastoplasticity. It can be easily adapted to other constitutive elastoplastic material laws. The theory for our correction model is developped for linear kinematic hardening material, for which error estimated are derived. Our numerical algorithm is very fast and designed for the case that the elastic stress is piecewise linear. The results for the stresses can be significantly improved with Seeger's empirical strain constraint. For the improved model, a simple predictor-correcor algorithm for smooth input loading is established.