Refine
Year of publication
- 2009 (76) (remove)
Document Type
- Doctoral Thesis (76) (remove)
Has Fulltext
- yes (76)
Keywords
- Algebraische Geometrie (2)
- Datenanalyse (2)
- Derivat <Wertpapier> (2)
- Extrapolation (2)
- Finanzmathematik (2)
- Mikroskopie (2)
- Numerische Mathematik (2)
- Oxidativer Stress (2)
- Reaktive Sauerstoffspezies (2)
- Visualisierung (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (20)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Mathematik (16)
- Kaiserslautern - Fachbereich Informatik (8)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
Von der Bauplanung zur Gebäudebewirtschaftung: Ein integrales Bewertungs- und Transformationsmodell
(2009)
Gegenstand der vorliegenden Arbeit ist der Entwurf eines integralen Bewertungs- und Transformationsmodells zur Integration der Gebäudebewirtschaftung in die Bauplanungsphase. Das Ziel der Untersuchung ist die Bildung eines Modells zur Identifizierung einer Bauplanungsvariante, die hinsichtlich ihrer späteren Nutzung bezüglich des Ressourcenverbrauchs, der Belastung für Mensch und Umwelt, der Durchführung von Bewirtschaftungsprozessen und bezüglich der Umgebungsressourcen eine optimierte Variante darstellt. Im ersten Teil der Arbeit werden nach einer kurzen Einführung zunächst die Motivation zur vorliegenden Arbeit, ihre Zielsetzung und die Grundlagen des Facility Management, der Bauplanung und Baukosten erläutert. Die ganzheitliche Betrachtung von Facility Management über den gesamten Lebenszyklus unter Berücksichtigung auch nicht monetärer Ziele wie Belastungsvermeidung oder Optimierung der Umgebungsressourcen macht eine eigene Neudefinition von Facility Management notwendig. Basis der weiteren Untersuchungen sind die entwickelten Übergeordneten Ziele des Facility Management. Zur Befriedigung der Übergeordneten Ziele des Facility Management muss Facility Management schon in der frühen Phase der Rahmen- und Nutzungsplanung und auf der funktional organisatorischen Bauplanungsebene integriert werden und muss die Interessen aller an Bau und Nutzung beteiligten integrieren. Der zweite Teil der Arbeit befasst sich mit der Integration von Facility Management in den Bauplanungsprozess. Dazu werden in einem ersten Schritt planungsabhängige Kosten und Leistungen des Facility Management identifiziert. Durch eine Analyse der Planungsabhängigkeiten der Übergeordneten Ziele des Facility Management wird aufgezeigt, wie Planungsobjekte identifiziert werden. Das entwickelte Transformationsmodell erlaubt die Transformation von Planungsobjekten zu Bewirtschaftungsobjekten, deren Variation in der Planungsphase die Bewirtschaftungsphase maßgeblich beeinflussen. Das erarbeitete Objektmodell zeigt im Sinne der Objektorientierung die Beziehungen der Bewirtschaftungsobjekte untereinander auf. Das Transformationsmodell bildet die Grundlage zur abschließenden Planungsbewertung anhand derer verschiedene Bauplanungsalternativen untereinander vergleichbar gemacht werden und hinsichtlich ihres Nutzwertes bezüglich der Bewirtschaftungsphase bewertet werden können.
Diese Arbeit beschreibt einen in der Praxis bereits vielfach erprobten, besonders leistungsfähigen Ansatz zur Verifikation digitaler Schaltungsentwürfe. Der Ansatz ist im Hinblick auf die Schaltungsqualität nach der Verifikation, als auch in Bezug auf den Verifikationsaufwand der simulationsbasierten Schaltungsverifikation deutlich überlegen. Die Arbeit überträgt zunächst das Paradigma der transaktionsbasierten Verifikation aus der Simulation in die formale Verifikation. Ein Ergebnis dieser Übertragung ist eine bestimmte Form von formalen Eigenschaften, die Operationseigenschaften genannt werden. Schaltungen werden mit Operationseigenschaften untersucht durch Interval Property Checking, einer be-sonders leistungsfähigen SAT-basierten funktionalen Verifikation. Dadurch können Schaltungen untersucht werden, die sonst als zu komplex für formale Verifikation gelten. Ferner beschreibt diese Arbeit ein für Mengen von Operationseigenschaften geeignetes Werkzeug, das alle Verifikationslücken aufdeckt, komplexitätsmäßig mit den Fähigkeiten der IPC-basierten Schaltungsuntersuchung Schritt hält und als Vollständigkeitprüfer bezeichnet wird. Die Methodik der Operationseigenschaften und die Technologie des IPC-basierten Eigenschaftsprüfers und des Vollständigkeitsprüfers gehen eine vorteilhafte Symbiose zum Vorteil der funktionalen Verifikation digitaler Schaltungen ein. Darauf aufbauend wird ein Verfahren zur lückenlosen Überprüfung der Verschaltung derartig verifizierter Module entwickelt, das aus den Theorien zur Modellierung digitaler Systeme abgeleitet ist. Der in dieser Arbeit vorgestellte Ansatz hat in vielen kommerziellen Anwendungsprojekten unter Beweis gestellt, dass er den Namen "vollständige funktionale Verifikation" zu Recht trägt, weil in diesen Anwendungsprojekten nach dem Erreichen eines durch die Vollständigkeitsprüfung wohldefinierten Abschlusses keine Fehler mehr gefunden wurden. Der Ansatz wird von OneSpin Solutions GmbH unter dem Namen "Operation Based Verification" und "Gap Free Verification" vermarktet.
Diese Doktorarbeit befasst sich mit Volatilitätsarbitrage bei europäischen Kaufoptionen und mit der Modellierung von Collateralized Debt Obligations (CDOs). Zuerst wird anhand einer Idee von Carr gezeigt, dass es stochastische Arbitrage in einem Black-Scholes-ähnlichen Modell geben kann. Danach optimieren wir den Arbitrage- Gewinn mithilfe des Erwartungswert-Varianz-Ansatzes von Markowitz und der Martingaltheorie. Stochastische Arbitrage im stochastischen Volatilitätsmodell von Heston wird auch untersucht. Ferner stellen wir ein Markoff-Modell für CDOs vor. Wir zeigen dann, dass man relativ schnell an die Grenzen dieses Modells stößt: Nach dem Ausfall einer Firma steigen die Ausfallintensitäten der überlebenden Firmen an, und kehren nie wieder zu ihrem Ausgangsniveau zurück. Dieses Verhalten stimmt aber nicht mit Beobachtungen am Markt überein: Nach Turbulenzen auf dem Markt stabilisiert sich der Markt wieder und daher würde man erwarten, dass die Ausfallintensitäten der überlebenden Firmen ebenfalls wieder abflachen. Wir ersetzen daher das Markoff-Modell durch ein Semi-Markoff-Modell, das den Markt viel besser nachbildet.
Verteilung von Na+/Ca2+-Austauschern während der Ontogenese des auditorischen Hirnstamms der Ratte
(2009)
Die Homöostase der intrazellulären Ca2+-Konzentration ist eine essenzielle Aufgabe in allen Zellen, da Ca2+ an diversen zellulären Prozessen beteiligt ist. Besonders Neurone des auditorischen Hirnstamms sind auf eine optimale Ca2+-Regulation angewiesen, da ihr Überleben und ihre Entwicklung von der intrazellulären Ca2+-Konzentration abhängen. Neben Ca2+-bindenden Proteinen und Ca2+-ATPasen sind besonders Na+/Ca2+-Austauscher, welche sich in die Familien NCX (NCX1-3), NCKX (NCKX1-5) und CCX (NCKX6) gliedern, in vielen neuronalen und nicht-neuronalen Strukturen maßgeblich für die Ca2+-Regulation verantwortlich. In meiner Arbeit wurde die Verteilung von NCX1-3 sowie NCKX2-6 im Nucleus cochlearis(CN), superioren Olivenkomplex (SOC) und inferioren Colliculus (IC), welche Strukturen des auditorischen Hirnstamms darstellen, untersucht. Dies erfolgte auf Boten-Ribonukleinsäure(messenger ribonucleic acid, mRNA)-Ebene qualitativ mittels reverser Transkription (RT)gefolgt von genspezifischer Polymerasekettenreaktion (PCR) sowie quantitativ mittels realtime-PCR, auf Proteinebene qualitativ mittels Immunhistochemie. Um auch ontogenetische Aspekte der Ca2+-Homöostase zu berücksichtigen, wurden Ratten in einem unreifen Entwicklungsstadium (P4) sowie junge adulte Ratten (P60) analysiert. Die Genexpression aller untersuchten ncx- und nckx-Isoformen wurde mittels RT-PCR in beiden Entwicklungsstadien in CN, SOC und IC nachgewiesen. Besonders auffallend war bei den ncx-Isoformen eine im Verlauf der Entwicklung meist verstärkte Transkription, während die nckx-Isoformen in den meisten Fällen eine verminderte Transkription im adulten Tier zeigten. Mittels Immunhistochemie zeigt meine Arbeit zum ersten Mal eine entwicklungsabhängige Umverteilung der Austauscher. Während die Isoformen bei P4 hauptsächlich im Neuropil lokalisiert waren, zeigte sich im Gegensatz dazu bei P60 eine verstärkte Immunfluoreszenz innerhalb der Somata. Ausnahme war hier NCKX2, welcher im CN auch bei P60 hauptsächlich im Neuropil exprimiert wurde. Die Expression von NCX1-3 und NCKX2 im Neuropil junger auditorischer Hirnstammneurone legt eine Ca2+-regulierende Funktion im Bereich dendritischer Synapsen nahe. Die Synapsen befinden sich in diesem Alter noch in einem unreifen Zustand, so dass die Na+/Ca2+-Austauscher einen maßgeblichen Einfluss auf die synaptische Plastizität ausüben können. Abschließend deutet die Verteilung der Na+/Ca2+-Austauscher darauf hin, dass alle NCX- und NCKX-Isoformen, im Zusammenspiel mit weiteren Ca2+-regulierenden Proteinen, an der Ca2+-Homöostase in den Strukturen des auditorischen Hirnstamms beteiligt sind.
Untersuchungen zu Raum und Abschirmung am Beispiel der privaten Wohnhäuser von Philip Johnson
(2009)
Architektur ist geprägt vom Wandel. Auch wenn viele Architekten den daraus resultierenden Verlust von Konstanz in der Architektur bemängeln, lohnt sich die Auseinandersetzung mit dem Wandel. Er beinhaltet Entwicklungsmöglichkeiten der Architektur, aus denen wiederum Rückschlüsse für das eigene Entwerfen gewonnen werden können. Da sich die Gründe des Wandels selten eindeutig bestimmen lassen, liegt der Interessensschwerpunkt der Dissertation auf dessen Erscheinungen. Die Aufmerksamkeit wird deshalb auf die wesentlichen Elemente der Architektur, nämlich Raum und Abschirmung, gerichtet. An ihnen werden die Prinzipien des Wandels beschrieben. Dazu werden die Veränderungen von Raum und Abschirmung exemplarisch an den privaten Wohnhäusern von Philip Johnson untersucht. Diese Analyse ergibt, dass sich der Wandel in der Transformation von Raumtyp und Abschirmung bzw. im Wechsel zwischen Raumtypen manifestiert. Während durch die Transformation ein Raumtyp weiterentwickelt wird - Mittel der Transformation sind z.B. die Verformung oder die Verselbständigung von Elementen-, steht der Wechsel von einem Raumtyp zu einem anderen für den fundamentalen Wandel eines Raum- und Gestaltungskonzeptes. Die Wohnhäuser von Philip Johnson können in Bezug auf den Wandel nicht als inhaltlich abschließend bezeichnet werden. Zum einen arbeitet Johnson bei den Wohnhäusern nur mit den vier Raumtypen „Das klar definierte Innen“, „Das Ineinanderfließen von Innen und Außen“, „Innen und Außen als Raumeinheiten“ und „Das Innen im Außen“, zum anderen blendet er z.B. konstruktive Aspekte, wie Bauteilstärken aus. Dennoch können aus der Untersuchung allgemeingültige Rückschlüsse gewonnen werden. Zunächst ist festzustellen, dass der Wandel nicht so komplex ist, wie er durch die Masse diffuser Erscheinungsformen der Architektur erscheint. Er ist rückführbar auf die Veränderungen von Raum und Abschirmung. Sie bilden gemeinsam ein gedankliches und gebautes System, innerhalb dessen sich Architektur bewegt. Dieses System ist offen für potentielle Entwicklungen, d.h. es lässt neue Raumtypen oder aber Veränderungen des Raumtyps und der Abschirmung zu. Darüber hinaus ermöglicht es ein systematisches Vorgehen beim Entwerfen. Entwurfsalternativen und -varianten können aufbauend auf diesen Erkenntnissen aus Raum und Abschirmung gezielt entwickelt werden.
In der vorliegenden Arbeit werden experimentelle und theoretische Untersuchungen für die Löslichkeiten von Methan in den organischen Lösungsmitteln Petroleumbenzin, 1-Oktanol, n-Hexan und n-Dodekan sowie Untersuchungen des LW-H-V-Gleichgewichts des Systems (CH4 + H2O) vorgestellt. Im Vergleich zu den Vorhersageergebnissen von Sloan sowie Parrish und Praus-nitz wurde mit dem in der vorliegenden Arbeit weiterentwickelten, thermodynamischen Modell für das Hydratgleichgewicht des Systems (CH4 + H2O) durch Berücksichtigung des Dampf-Flüssigkeits-Gleichgewichts gerade im Bereich erhöhter Drücke eine wesentlich bessere Übereinstimmung der berechneten Hydratgleichgewichtsdrücke mit den Messdaten der vorliegenden Arbeit sowie mit Literaturdaten erreicht. Die Untersuchungen zur physikalischen Löslichkeit von Methan in den organischen Lö-sungsmitteln und Wasser wurden in einem Temperaturbereich von 273,2 K bis 293 K bei Ge-samtdrücken bis maximal 10 MPa durchgeführt. Die Ergebnisse wurden mit Rechenwerten verglichen, die mit dem in der vorliegenden Arbeit entwickelten Modell erhalten wurden. Die maximale Konzentration von Methan in der organischen Lösemittelphase betrug im System (CH4 + n-Hexan) bei max. 8,7 Mol CH4 pro Kilogramm Hexan. Dieses entspricht einer Beladung des Lösungsmittels von 140 Gramm Methan pro Kilogramm Hexan. Die Untersuchungen zur Löslichkeit von Kohlendioxid (CO2) und Schwefelwasser-stoff (H2S) in wässrigen Aminlösungen (Amine A, B, C, D) waren Teil einer Industriekooperation mit der BASF AG, Ludwigshafen. Ziel des Gesamtprojekts war es, ein bestehendes Aminsystem zu ersetzen. Die experimentellen Ergebnisse für die Löslichkeit von Kohlendi-oxid in diesen Aminmischungen liefern fundierte Grundlagen zur Thermodynamik solcher Lösungen in einem industriellen Absorptionsprozess. Die Untersuchungen am System (CO2 + MDEA + PIPH2 + H2O) stellen eine Weiter-entwicklung des von Pérez-Salado Kamps entwickelten thermodynamischen Modells dar. Die experimentellen Untersuchungen der vorliegenden Arbeit und von Speyer erweitern den Konzentrationsbereich dieses Modells und führten zu einer Neuparametrisierung im Hoch- und Niederdruckbereich. Dabei wurden auch Wechselwirkungen zwischen den aus MDEA und Piperazin entstehenden Spezies berücksichtigt. Die Korrelations- und Vorhersa-geergebnisse werden im Vergleich zu den Vorhersagen von Ermatchkov deutlich verbessert. Die Messungen erfolgten in einer Phasengleichgewichtsapparatur, die nach der synthetischen, d.h. mit bekannter Zusammensetzung des Lösungsmittels/-gemisches und bekannter Gasmenge, Methode arbeitet. Bei der experimentellen Vorgehensweise wurde die evakuierte Hochdrucksichtzelle mit dem zu lösenden Gas bei gemessenem Druck und konstanter Temperatur und einem Teil des Lösungsmittels befüllt. Mit einem Hochdruckverdränger wird gerade soviel Lösungsmittel in die Zelle nachgepresst, bis sich gerade eine homogene Phase bildet, d.h. bis keine Gasphase mehr sichtbar ist. Damit ist die gesamte Menge an Gas in der flüssi-gen Phase gelöst, allerdings liegt der Druck deutlich über dem Löslichkeitsdruck. Durch Entnehmen geringer Menge der Lösung (Herausdrehen der Verdrängerspindel) wird der Druck schrittweise gesenkt. Bei Erreichen der Siedelinie beginnt das Gas aus dem Lösungsmittel auszugasen. Der sich einzustellende Gleichgewichtsdruck ist derjenige Druck, der notwendig ist, um die gesamte Menge an Gas in der in die Zelle eingebrachte Lösungsmittelmenge zu lösen. Die Modellierung der gemessenen Gaslöslichkeiten erfolgte für die flüssigen Phasen mit dem von Edwards, Maurer und Newman modifizierten GE-Ansatz von Pitzer zur Be-rücksichtigung der Nichtidealitäten und Berechnung der Aktivitätskoeffizienten. Die Abweichungen von dem idealen Gasverhalten in der Gasphase wurden durch die Berech-nung der Fugazitätskoeffizienten mit der nach dem zweiten Koeffizienten abgebrochenen Virialgleichung ausgedrückt.
Der Entkopplermechanismus von UCP-2 sollte weitergehend untersucht sowie eine Methode zur Messung des Einfluss von UCP-2 auf die ROS-Homöostase gefunden werden. Durch Kompetitionsmessungen mit spinmarkierten Fettsäuren an rekonstituiertem UCP-2 sollte das Flip Flop Modell als Entkopplungsmechanismus weiter unterstützt und Bindungskonstanten abgeschätzt werden. Dies sollte in Titrationsmessungen mit kompetitierenden Fettsäuren und Purinnucleotiden gezeigt und mit Messungen in Gegenwart eines Kontrollproteins ohne Fettsäurebindungsstelle verglichen werden. Es konnte allerdings kein substöchiometrischer Verdrängungseffekt mit den Fettsäuren oder ATP gezeigt werden. Deswegen wurde der Einfluss des Detergens sowie der Ionenstärke auf das ESR-Signal untersucht und das Vorhandensein hochimmobilisierter spektraler Komponenten, typisch für die Einlagerung in eine Bindungsstelle, auch in Abwesenheit von UCP-2 gefunden. Um einen potenziellen Einfluss von UCP-2 auf die Homöostase von ROS zeigen zu können, sollte ein ESR-basierter Assay etabliert werden. Dazu wurden Spin Trapping Experimente mit ex vivo Detektion (Extraktion der generierten ROS in Ethylacetat) und in situ Detektion (direktes Messen bei der Entstehung) mit biologischen Proben (Mitochondrien, Mitoplasten und Zellen aus Zellkulturen) durchgeführt. Der in situ Assay schien geeigneter, allerdings waren die Radikalkonzentrationen nahe der Nachweisgrenze. Um dennoch eine zeitaufgelöste Auswertung der Daten zu ermöglichen und das Signal-Rauschen-Verhältnis zu verbessern, wurde zur Datenanalyse das Rauschen mit einer auf Singulärwertzerlegung basierten Methode gefiltert und zum Teil die zeitlichen Spuren der verschiedenen Radikaladdukte bestimmt. Eine weitere Methode zum Nachweis von UCP-2 auf die ROS-Homöostase ist die Verwendung fluoreszierender Double Spin Traps. Hier erlischt die zuächst vorhandene Fluoreszenz durch ROS-Einwirkung. Die Double Trap p-Nitrostilbentert.butylnitron sollte durch veränderte Substitution so modifiziert werden, dass sich die spektroskopischen Eigenschaften verbessern. Beide Spin Traps wurden hinsichtlich optischer und ESR-spektroskopischer Eigenschaften sowie dem Verhalten in der Zelle verglichen. Da die Einführung eines Coumarinrestes als Fluorophor nicht zur erhofften Rotverschiebung der Anregungswellenlänge führt, aber die Cytotoxizität ausgeprägter ist, ist NSN geeigneter, zumal dessen Fluoreszenz deckungsgleich mit dem mitochondrialem Marker TMRE ist. Das spricht für Akkumulation an diesem wichtigen Entstehungsort von ROS. In Gegenwart von ROS zeigen beide Spin Traps ein ESR-Signal und auch das Löschen der Fluoreszenz aufgrund des nahe gelegenen stabilen Radikals. Bei NSN war der Effekt ausgeprägter: Die Halbwertszeiten des Fluoreszenzrückgangs wurden zu typischerweise 25 s in Anwesenheit von ROS-induzierenden Atmungsketteninhibitoren und 180 s in deren Abwesenheit bestimmt. Zusammenfassend kann mit den vorgestellten Spin Trapping Methoden der Einfluss von UCP-2 auf die ROS-Homöostase direkt gemessen werden, indem Zellen mit deletierter Expression von UCP-2 mit adäquaten Wildtypzellen verglichen werden. Mit NSN lässt sich ROS mittels Fluoreszenzmikroskopie mit subzellulärer Auflösung in Mitochondrien detektieren.
Durch die Einarbeitung von Nanopartikeln in eine Polymermatrix lässt sich eine signifikante Verbesserung der mechanischen Eigenschaften der Werkstoffe erzielen. Dazu ist allerdings eine Separierung und homogene Verteilung der Verstärkungsstoffe in der Matrix notwendig, um die spezifische Oberfläche der Nanopartikel ausnutzen zu können, die dann als Grenzfläche mit der Matrix in Wechselwirkung treten kann.
In der vorliegenden Arbeit wurde die Dispergierung von anorganischen Nanopartikeln am Beispiel von Titandioxid und Bariumsulfat in Epoxidharz mithilfe von Ultraschallwellen systematisch untersucht. Dazu wurden die Prozessparameter, wie z.B. die Amplitude und das beschallte Volumen, variiert, um die optimalen Dispergierparameter zu ermitteln, die zu einer guten Dispergierung der Nanopartikel führen, ohne dabei jedoch die Molekülstruktur des Epoxidharzes zu verändern. Eine Veränderung der Molekülstruktur der Matrix kann die mechanischen Eigenschaften des Werkstoffs negativ beeinflussen. Deshalb wurden für das unbehandelte und das beschallte Harz Morphologieuntersuchungen mittels FourierTransform-Infrarotspektroskopie und Gel-Permeations-Chromatographie durchgeführt. Dabei stellte sich heraus, dass die Nanopartikel im Harz mit der maximalen Amplitude von 100% und einer Beschallungszeit von 15 Minuten optimal dispergiert werden können, ohne die Morphologie des Harzes merklich zu verändern.
Für den Ultraschalldispergierprozess wurde ein Dispergiermodell erarbeitet, das die Entwicklung der Partikelgröße in Abhängigkeit von den Prozessparametern beschreibt. Dieses Modell ist auf andere Partikelsysteme übertragbar und soll Vorhersagen für zukünftige Dispergierexperimente ermöglichen.
Das Ziel der Fertigung der Nanoverbundwerkstoffe ist die Steigerung der mechanischen Eigenschaften im Zug-, Bruchzähigkeits-, Kerbschlagzähigkeits- und Biegeversuch. Hierbei wurde sowohl die Wirkung der Dispergierung als auch der Einfluss des Verstärkungsstoffgehaltes auf das Eigenschaftsprofil untersucht. Des Weiteren wurde die Übertragbarkeit der Ergebnisse auf ein weiteres Epoxidharz überprüft.
Um die Verstärkungsmechanismen der Nanopartikel in der Polymermatrix, die zu einer Verbesserung der mechanischen Eigenschaften führen, zu verstehen, wurden Rasterelektronenmikroskop-Aufnahmen der Bruchflächen ausgeführt. Diese zeigten,dass Nanoverbundwerkstoffe eine rauere Bruchoberfläche als reines Epoxidharz besitzen, was auf eine Änderung der Bruchmechanismen hindeutet.
Insgesamt konnten mithilfe der Ultraschalldispergierung Nanoverbundwerkstoffe mit verbesserten mechanischen Eigenschaften hergestellt werden und ihre Dispergierung durch ein Modell beschrieben werden, das auch Vorhersagen für weitere Partikel-Harz-Systeme erlaubt.
This thesis is devoted to two main topics (accordingly, there are two chapters): In the first chapter, we establish a tropical intersection theory with analogue notions and tools as its algebro-geometric counterpart. This includes tropical cycles, rational functions, intersection products of Cartier divisors and cycles, morphisms, their functors and the projection formula, rational equivalence. The most important features of this theory are the following: - It unifies and simplifies many of the existing results of tropical enumerative geometry, which often contained involved ad-hoc computations. - It is indispensable to formulate and solve further tropical enumerative problems. - It shows deep relations to the intersection theory of toric varieties and connected fields. - The relationship between tropical and classical Gromov-Witten invariants found by Mikhalkin is made plausible from inside tropical geometry. - It is interesting on its own as a subfield of convex geometry. In the second chapter, we study tropical gravitational descendants (i.e. Gromov-Witten invariants with incidence and "Psi-class" factors) and show that many concepts of the classical Gromov-Witten theory such as the famous WDVV equations can be carried over to the tropical world. We use this to extend Mikhalkin's results to a certain class of gravitational descendants, i.e. we show that many of the classical gravitational descendants of P^2 and P^1 x P^1 can be computed by counting tropical curves satisfying certain incidence conditions and with prescribed valences of their vertices. Moreover, the presented theory is not restricted to plane curves and therefore provides an important tool to derive similar results in higher dimensions. A more detailed chapter synopsis can be found at the beginning of each individual chapter.
Interactive visualization of large structured and unstructured data sets is a permanent challenge for scientific visualization. Large data sets are for example created by magnetic resonance imaging (MRI), computed tomography (CT), Computational fluid dynamics (CFD) finite element method (FEM), and computer aided design (CAD). For visualizing those data sets not only accelerated rasterization by means of using specialized hardware i.e. graphics cards is of interest, but also ray casting, as it is perfectly suited for scientific visualization. Ray casting does not only support many rendering modes (e.g., opaque rendering, semi transparent rendering, iso surface rendering, maximum intensity projection, x-ray, absorption emitter model, ...) for which it allows the creation of high quality images, but it also supports many primitives (e.g., not only triangles but also spheres, curved iso surfaces, NURBS, implicit functions, ...). It furthermore scales basically linear to the amount of processor cores used and - this makes it highly interesting for the visualization of large data sets - it scales for static scenes sublinear to data size. Interactive ray casting is currently not widely used within the scientifc visualization community. This is mainly based on historical reasons, as just a few years ago no applicable interactive ray casters for commodity hardware did exist. Interactive scientific visualization has only been possible by using graphics cards or specialized and/or expensive hardware. The goal of this work is to broaden the possibilies for interactive scientific visualization, by showing that interactive CPU based ray casting is today feasible on commodity hardware and that it may efficiently be used together with GPU based rasterization. In this thesis it is first shown that interactive CPU based ray casters may efficiently be integrated into already existing OpenGL frameworks. This is achieved through an OpenGL friendly interface that supports multiple threads and single instruction multiple data (SIMD) operations. For the visualization of rectilinear (and not necessarily cartesian) grids are new implicit kd-trees introduced. They have fast construction times, low memory requirements, and allow ontoday's commodity desktop machines interactive iso surface ray tracing and maximum intensity projection of large scalar fields. A new interactive SIMD ray tracing technique for large tetrahedral meshes is introduced. It is very portable and general and is therefore suited for portation upon different (future) hardware and for usage upon several applications. The thesis ends with a real life commercial application which shows that CPU-based ray casting has already reached the state where it may outperform GPU-based rasterization for scientific visualization.