Doctoral Thesis
Refine
Year of publication
- 2014 (78) (remove)
Document Type
- Doctoral Thesis (78) (remove)
Has Fulltext
- yes (78)
Keywords
- Activity recognition (2)
- Arylhydrocarbon-Rezeptor (2)
- Leber (2)
- Querkraft (2)
- Wearable computing (2)
- 2,3,7,8-Tetrachlordibenzo-p-dioxin (1)
- 2,3,7,8-tetrachlordibenzo-p-dioxine (1)
- AFS (1)
- AFSfein (1)
- Abfluss (1)
- Adaptive Data Structure (1)
- AhR-Knockout Mäuse (1)
- AhR-VDR-Crosstalk (1)
- AhR-deficient mice (1)
- AhRR (1)
- Algorithm (1)
- Angebotspreise (1)
- Artefakt (1)
- Bauen im Bestand (1)
- Betonfestigkeit (1)
- Betonstahl (1)
- Biegetragfähigkeit (1)
- Boosting (1)
- C-Si-Kupplung (1)
- CYP1A1 (1)
- Calcitriol (1)
- Classification (1)
- Closure (1)
- Code Generation (1)
- Computer graphics (1)
- Cycle Accuracy (1)
- Cyp1a1 (1)
- Cyp1a1 Genexpression (1)
- Cyp24a1 Genexpression (1)
- DL-PCBs (1)
- Dach (1)
- Daseinsvorsorge (1)
- Data Analysis (1)
- Dataset (1)
- Debt Management (1)
- Definition (1)
- Dekonsolidierung (1)
- Dendritische Zellen (1)
- Dioxin (1)
- Direct Numerical Simulation (1)
- Discrete Event Simulation (DES) (1)
- ELISA (1)
- EROD (1)
- Eikonal equation (1)
- Endlicher Automat (1)
- Entscheidung (1)
- Entscheidungstheorie (1)
- Entscheidungsunterstützung (1)
- Erschließungsform (1)
- Erwarteter Nutzen (1)
- Evaluation (1)
- Faser (1)
- Faserorientierung (1)
- Feasibility study (1)
- Feature extraction (1)
- Feststoff (1)
- Feststoffe (1)
- Fluoreszenz (1)
- Formale Grammatik (1)
- Formale Sprache (1)
- Fußgängerverkehr (1)
- Grouping by similarity (1)
- Herkunftsfläche (1)
- Hohlkörper (1)
- Hohlkörperdecke (1)
- Hybridmaterialien (1)
- Hypergraph (1)
- IP-XACT (1)
- Ileostomy (1)
- Immobilienpreis (1)
- Immunoblot (1)
- Intensity estimation (1)
- Interactive decision support systems (1)
- Invariante (1)
- Inwertsetzung (1)
- Kellerautomat (1)
- Kieselgel (1)
- Klein- und Mittelstädte (1)
- Knowledge Management (1)
- Koinzidenz (1)
- Konstitutionsform (1)
- LIR-Tree (1)
- Leichtbeton (1)
- Lokales Durchstanzen (1)
- MCM-41 (1)
- Machine learning (1)
- Makrophagen (1)
- Metabolismus (1)
- Methyleugenol (1)
- Microarray (1)
- Mikrosomen (1)
- Minimal training (1)
- Mobile system (1)
- Most (1)
- Murine Knochenmarkzellen (1)
- Mustererkennung (1)
- Mykotoxine (1)
- Nahmobilität (1)
- Niederschlag (1)
- Niederschlagsabfluss (1)
- Niere (1)
- Noise control (1)
- Normalbeton (1)
- OCR (1)
- Ontologie (1)
- Optimierung (1)
- Organosilica (1)
- Organosiloxane (1)
- PCDD/Fs (1)
- PM63 (1)
- PMO (1)
- Partial Differential Equations (1)
- Pedestrian FLow (1)
- Perceptual grouping (1)
- Personalisation (1)
- Pervasive health (1)
- Phenothiazin (1)
- Phenothiazinderivate (1)
- Phenylpropanoide (1)
- Photolumineszenz (1)
- Physical activity monitoring (1)
- Planung (1)
- Portfolio Selection (1)
- Qualität (1)
- Quantifizierung (1)
- Quantilwertbestimmung (1)
- Querkrafttragfähigkeit (1)
- Recommender Systems (1)
- Response Priming (1)
- Revitalisierung (1)
- Rheologie (1)
- SBA-15 (1)
- Schwermetallbelastung (1)
- Self-splitting objects (1)
- Semantic Web (1)
- Semantic Wikis (1)
- Shared Resource Modeling (1)
- Simulation (1)
- Sol-Gel (1)
- Sol-Gel-Verfahren (1)
- Soziale Infrastruktur (1)
- Sozialraumanalyse (1)
- Spatial Econometrics (1)
- Speech recognition (1)
- Stadtplanung (1)
- Stahlbeton (1)
- Stahlbetonbau (1)
- Stahlverbundbau (1)
- Stahlverbundkonstruktion (1)
- Statistische Schlussweise (1)
- Stokes Equations (1)
- Sustainability (1)
- Suzuki-Kupplung (1)
- Suzuki-Miyaura-Reaktion (1)
- Symmetry (1)
- SystemC (1)
- TIPARP (1)
- Technik (1)
- Technikbegriff (1)
- Technikphilosophie (1)
- Temporal Decoupling (1)
- Tensorfeld (1)
- Tetrachlordibenzo-p-dioxin (1)
- Thermoplast (1)
- Thiophen (1)
- Topology visualization (1)
- Transaction Level Modeling (TLM) (1)
- Traubensortierung (1)
- Trennkanalisation (1)
- Ubiquitous system (1)
- Unobtrusive instrumentations (1)
- Unsicherheit (1)
- Urban Water Supply (1)
- Verbunddecken (1)
- Verbundtragfähigkeit (1)
- Verkehrsfläche (1)
- Vitamin-D (1)
- Vitamin-D-Rezeptor (1)
- Volume rendering (1)
- Water resources (1)
- Wein (1)
- Werkstoffprüfung (1)
- XMCD (1)
- Xerogel (1)
- Xerogele (1)
- Zytokine (1)
- aryl hydrocarbon receptor (1)
- aryl-hydrocarbon-receptor (1)
- bioavailability (1)
- charakteristische Werkstofffestigkeiten (1)
- cobalt (1)
- coffee (1)
- demografischer Wandel (1)
- dioxin-like compounds (1)
- fatigue (1)
- flow cytometry (1)
- gas phase (1)
- geographic information systems (1)
- geology (1)
- hypergraph (1)
- invariant (1)
- iron (1)
- kidney (1)
- liver (1)
- magnetism (1)
- mesoporöse Materialien (1)
- metal cluster (1)
- moment (1)
- nickel (1)
- optimization (1)
- orbit (1)
- peripheral blood mononuclear cells (1)
- periphere Region (1)
- philosophy of technology (1)
- point cloud (1)
- polycyclische Aromaten (1)
- polyphenol (1)
- rat liver cell systems (1)
- relative effect potencies (1)
- single molecule magnet (1)
- soziale Infrastruktur (1)
- spin (1)
- tensor (1)
- tensorfield (1)
- terrain rendering (1)
- tetrachlorodibenzo-p-dioxin (1)
- toxic equivalency factor (TEF) concept (1)
- vectorfield (1)
- virtual reality (1)
- whole genome microarray analysis (1)
- zementgebundene Feinkornsysteme (1)
- Ökonometrie (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (15)
- Kaiserslautern - Fachbereich Informatik (14)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (12)
- Kaiserslautern - Fachbereich Bauingenieurwesen (7)
- Kaiserslautern - Fachbereich Sozialwissenschaften (7)
- Kaiserslautern - Fachbereich Biologie (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich ARUBI (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
Das zinsoptimierte Schuldenmanagement hat zum Ziel, eine möglichst effiziente Abwägung zwischen den erwarteten Finanzierungskosten einerseits und den Risiken für den Staatshaushalt andererseits zu finden. Um sich diesem Spannungsfeld zu nähern, schlagen wir erstmals die Brücke zwischen den Problemstellungen des Schuldenmanagements und den Methoden der zeitkontinuierlichen, dynamischen Portfoliooptimierung.
Das Schlüsselelement ist dabei eine neue Metrik zur Messung der Finanzierungskosten, die Perpetualkosten. Diese spiegeln die durchschnittlichen zukünftigen Finanzierungskosten wider und beinhalten sowohl die bereits bekannten Zinszahlungen als auch die noch unbekannten Kosten für notwendige Anschlussfinanzierungen. Daher repräsentiert die Volatilität der Perpetualkosten auch das Risiko einer bestimmten Strategie; je langfristiger eine Finanzierung ist, desto kleiner ist die Schwankungsbreite der Perpetualkosten.
Die Perpetualkosten ergeben sich als Produkt aus dem Barwert eines Schuldenportfolios und aus der vom Portfolio unabhängigen Perpetualrate. Für die Modellierung des Barwertes greifen wir auf das aus der dynamischen Portfoliooptimierung bekannte Konzept eines selbstfinanzierenden Bondportfolios zurück, das hier auf einem mehrdimensionalen affin-linearen Zinsmodell basiert. Das Wachstum des Schuldenportfolios wird dabei durch die Einbeziehung des Primärüberschusses des Staates gebremst bzw. verhindert, indem wir diesen als externen Zufluss in das selbstfinanzierende Modell aufnehmen.
Wegen der Vielfältigkeit möglicher Finanzierungsinstrumente wählen wir nicht deren Wertanteile als Kontrollvariable, sondern kontrollieren die Sensitivitäten des Portfolios gegenüber verschiedenen Zinsbewegungen. Aus optimalen Sensitivitäten können in einem nachgelagerten Schritt dann optimale Wertanteile für verschiedenste Finanzierungsinstrumente abgeleitet werden. Beispielhaft demonstrieren wir dies mittels Rolling-Horizon-Bonds unterschiedlicher Laufzeit.
Schließlich lösen wir zwei Optimierungsprobleme mit Methoden der stochastischen Kontrolltheorie. Dabei wird stets der erwartete Nutzen der Perpetualkosten maximiert. Die Nutzenfunktionen sind jeweils an das Schuldenmanagement angepasst und zeichnen sich insbesondere dadurch aus, dass höhere Kosten mit einem niedrigeren Nutzen einhergehen. Im ersten Problem betrachten wir eine Potenznutzenfunktion mit konstanter relativer Risikoaversion, im zweiten wählen wir eine Nutzenfunktion, welche die Einhaltung einer vorgegebenen Schulden- bzw. Kostenobergrenze garantiert.
Der „Irrelevant Sound Effect“ besteht in einer Beeinträchtigung der seriellen Wiedergabeleistung für visuell präsentierte Folgen sprachlicher Items durch aufgabenirrelevante Hintergrundgeräusche. Unklar ist jedoch, ob der Irrelevant Sound Effect bei Kindern entwicklungsbedingten Veränderungen unterliegt und welches Arbeitsgedächtnismodell das kindliche Befundmuster am besten abzubilden vermag. Um einen Beitrag zur Klärung dieser Fragestellungen zu leisten, wurden zwei altersvergleichende Experimente zur quantitativen und qualitativen Beschaffenheit des Irrelevant Sound Effect durchgeführt. Experiment 1 prüfte, ob beim Irrelevant Sound Effect Alterseffekte zu verzeichnen sind und ob diese gegebenenfalls durch die Art des Hintergrundschalls (Changing-State- vs. Steady-State-Schall), die Modalität der Aufgabenstellung (auditiv vs. visuell) und/oder die Anforderungen der zu bearbeitenden Aufgabe (serielle Behaltensaufgabe vs. lautanalytische Odd-One-Out-Aufgabe) moderiert werden. Experiment 2 untersuchte etwaige Alterseffekte hinsichtlich des Einflusses der Lautstärke und/oder der Verständlichkeit des Hintergrundschalls. Hervorzuheben ist, dass erstmals Vorschüler berücksichtigt wurden, womit in beiden Studien ein breiter Altersbereich vom Vorschul- bis zum Erwachsenenalter abgedeckt wird.
Wesentliche Erkenntnis ist, dass der Irrelevant Sound Effect entwicklungsbedingten Veränderungen unterliegt, welche zeitlich im Vorschulalter anzusiedeln sind. Vorschüler werden deutlich stärker und umfassender durch Hintergrundschall beeinträchtigt als die übrigen Altersgruppen, die diesbezüglich nicht differieren. Die Effekte irrelevanten Hintergrundschalls scheinen bei Kindern demnach auf zwei qualitativ unterschiedlichen Wirkmechanismen zu fußen: Zunächst erhält irrelevanter Hintergrundschall – entwicklungsunabhängig – obligatorischen, automatischen Zugang zum Arbeitsgedächtnis, wodurch eine Interferenz mit den zu memorierenden Items auftritt. Darüber hinaus ist bei Vorschülern ein zusätzlicher, globalerer, dem Arbeitsgedächtnis vorgelagerter Mechanismus anzunehmen (z.B. gestörte Encodierung der Zielitems) – der Ansatz einer vermehrten Aufmerksamkeitsdistraktion kann stattdessen nicht gestützt werden.
Diese Experimente haben zudem ein Resultat erbracht, dessen nähere Analyse unabhängig vom Entwicklungsaspekt einen wertvollen Beitrag zum modelltheoretischen Diskurs verspricht: Ein irrelevantes Hintergrundsprechen bewirkte nicht nur bei der seriellen Behaltensaufgabe, sondern auch bei einer lautanalytischen Aufgabe eine signifikante Leistungsverschlechterung. Da die gängigen Arbeitsgedächtnismodelle zur Erklärung des Irrelevant Sound Effect hinsichtlich ihrer Annahmen potentiell lärmsensitiver Aufgaben differieren, wurde eine zweite, auf Erwachsene beschränkte Experimentalserie angeschlossen, deren Ergebnisse wie folgt zusammengefasst werden können: Die Leistungsminderung in der lautanalytischen Aufgabe ist vermutlich auf die phonologische Anforderung per se zurückzuführen, da der Effekt aufgehoben wird, wenn anstelle der phonologischen Analyse eine semantische gefordert wird (Experiment 3). Der phonologische Charakter ist jedoch nicht nur bei der Aufgabenstellung eine kritische Größe, sondern auch beim Hintergrundschall: Während Hintergrundsprechen einen Irrelevant Sound Effect provoziert, vermag Nichtsprache vergleichbarer Komplexität (spektral rotierte Sprache) dies nicht zu leisten (Experiment 5). Dies ist als Indiz dafür zu werten, dass über den temporal-spektralen Verlauf hinausgehende Parameter existieren müssen, die den Irrelevant Sound Effect modellieren. Die phonologische Ähnlichkeit zwischen den Stimuli der Primäraufgabe und der Distraktoren (Between-Stream Phonological Similarity Effect) scheint hingegen keinen Einfluss zu nehmen (Experiment 4). Zusammenfassend bevorzugt das Befundmuster Modelle, die zur Erklärung des Phänomens auf modalitätsspezifische Interferenzen mit phonologischen Repräsentationen im Arbeitsgedächtnis rekurrieren.
Methyleugenol ist ein sekundärer Pflanzeninhaltsstoff, der in verschiedenen Kräutern und
Gewürzen vorkommt. In Form von natürlichen ätherischen Ölen findet Methyleugenol als
Aromastoff in Lebensmitteln und als Duftstoff in Kosmetika Verwendung. Methyleugenol
wurde als natürliches gentoxisches Kanzerogen eingestuft. Ein Fokus der vorliegenden
Dissertation lag auf wirkmechanistischen Untersuchungen zur Gentoxizität von
Methyleugenol und ausgewählten oxidativen Phase-I-Metaboliten. So wurden direkt
gentoxische Wirkmechanismen, wie die Induktion von DNA-Strangbrüchen oder Mikrokernen
in der humanen Kolonkarzinomzelllinie HT29 detektiert. Auf Grund der fehlenden in vitro
Mutagenität der Verbindungen sollten weitere Wirkmechanismen zum DNA-strangbrechenden
Potential sowie potentielle Effekte auf DNA-Reparaturprozesse charakterisiert werden.
Die Metaboliten Methyleugenol-2',3'-epoxid und 3'-Oxomethylisoeugenol hemmen die HDAC- und Topoisomerase-I-Aktivität und tragen somit möglicherweise zum DNA-strangbrechenden
Potential der Metaboliten bei. 3'-Oxomethylisoeugenol wurde dabei als
katalytischer Hemmstoff humaner Topoisomerase I identifiziert, welcher signifikant die DNA-strangbrechende
Wirkung und die Enzym/DNA-stabilisierenden Effekte des Topoisomerase-I-Giftes Camptothecin hemmt. In Folge der Induktion von DNA-Doppelstrangbrüchen durch
die Testsubstanzen wird die DNA-Reparatur-assoziierte ATM/ATR-Signalkaskade und das
nachgeschaltete Tumorsuppressorprotein p53 aktiviert. Diese Ergebnisse weisen darauf hin,
dass die zelluläre DNA-Schadensantwort in Verbindung mit DNA-Reparaturmechanismen
oder einer Apoptoseinduktion dazu beitragen, dass die initialen gentoxischen Wirkungen der
Substanzen zu keiner direkten Mutagenität in vitro führen. Insgesamt konnte die Arbeit
zeigen, dass reaktive oxidative Metaboliten von Methyleugenol eine Vielzahl zellulärer
Zielstrukturen beeinflussen und eine potentielle in vitro Gentoxizität aufweisen, weshalb sie
in ihrer Gesamtheit in der Risikobewertung der Ausganssubstanz berücksichtigt werden
sollten.
Ein weiterer Schwerpunkt dieser Arbeit lag auf der Untersuchung der posttranslationalen
Histondeacetylase (HDAC)-Modifikation durch Polyphenole. Es wurde gezeigt, dass
Polyphenole die Expression des Regulatorproteins SUMO E1 beeinflussen. Des Weiteren
hemmen die Polyphenole (-)-Epigallocatechin-3-gallat und Genistein die HDAC-Aktivität und
vermindern den HDAC 1 Proteinstatus in HT29-Kolonkarzinomzellen. HDAC gehört zu den
SUMO-Substratproteinen. Im Rahmen der Arbeit wurde erstmals eine Modulation der posttranslationalen
HDAC 1-Sumoylierung nach Inkubation mit den Polyphenolen nachgewiesen,
welche im direkten Zusammenhang mit der HDAC-Aktivitätshemmung stehen könnte. EGCG
und Genistein beeinflussen somit epigenetische Signalwege in Tumorzellen. Inwieweit eine
Beeinflussung der DNA-Integrität durch HDAC-Hemmstoffe ein Risiko für primäre Zellen
darstellt, muss in weiterführenden Studien noch geklärt werden.
Elastische Klebverbindungen werden heute in der Praxis immer häufiger lastabtragend eingesetzt. Daher steigt auch die Nachfrage nach zuverlässigen Berechnungsmethoden und Beurteilungskriterien für diese Klebstoffe. Ziel dieser Arbeit ist es, anhand von geeigneten Prüfmethoden, Werkstoffkennwerte für Werkstoffgesetze, die für FE-Berechnungen geeignet sind, zu bestimmen und diese zu überprüfen. Außerdem soll der Grenzzustand der Beanspruchbarkeit untersucht werden um einerseits bewerten zu können, bis zu welchem Beanspruchungszustand die verwendeten Werkstoffgesetze einsetzbar sind und andererseits um die Grenzbelastungen für diese Klebstoffe beurteilen zu können. In dieser Arbeit wurden zwei elastische Klebstoffe untersucht, einer auf Silikon und einer auf Polyurethanbasis. Die Ermittlung der Werkstoffkennwerte erfolgt an Normproben, die den Vorteil einer weiten Verbreitung und Reproduzierbarkeit bieten. Das Werkstoffverhalten wurde unter Zug-, Schub- und Druckbelastung untersucht. Dabei wurde die Belastungsgeschwindigkeit in allen Belastungsarten so gewählt, dass der Energieeintrag pro Volumen und Zeiteinheit für alle Belastungsarten gleich ist. Dies bietet den Vorteil, dass für alle Belastungsarten der gleiche energetische Zustand des Klebstoffes untersucht wird. Diese Untersuchungen bilden die Grundlage für die Bestimmung der Werkstoffkonstanten für Green’sche Werkstoffgesetzte. Diese haben sich für die Berechnung von elastomeren Werkstoffen bewährt. Die Kennwerte für diese Werkstoffgesetze wurden durch Methoden der Ausgleichsrechnung (Methode der kleinsten Quadrate) iterativ so bestimmt. Die Überprüfung der Kennwerte erfolgt anhand von Kopfzugproben. Diese geklebten Proben mit mehrachsigen Spannungszuständen zeigen eine Vielzahl von in der Praxis relevanten Spannungszuständen und damit besonders für die Überprüfung der Werkstoffgesetze geeignet. Der Vergleich zwischen Simulation und Experiment zeigt eine sehr gute Übereinstimmung. Anhand dieser Probengeometrie werden auch der Grenzzustand der Beanspruchung und die hierfür maßgeblichen mechanischen Größen untersucht. Die Untersuchungen zeigen, dass die Formänderungsenergiedichte als Bewertungsgröße für den Grenzzustand und das Eintreten von Schädigungen im Werkstoff geeignet ist.
Die Klimaveränderung und die damit einhergehende verstärkte Fäulnisdynamik auf Trauben stellt eine Herausforderung für die nördlichen Weinbauregionen Europas dar. Daher wurde die vollautomatisch-optische Traubensortierung, eine innovative Verfahrenstechnik bei der Traubenverarbeitung, im zugrundeliegenden Projekt erstmals zur maschinellen Selektion fauler Beeren aus Hand- und Maschinenlesegut unter Praxisbedingungen in den Jahrgängen 2010 und 2011 eingesetzt. Hierzu wurden 15 Sortierversuche mit durchschnittlich zwei Tonnen Lesegut unterschiedlicher Rebsorten des Weinanbaugebietes Mosel mit unterschiedlichen Fäulnisarten und intensitäten durchgeführt, wobei Selektionsquoten bis zu 99 % erreicht wurden. Durch die Sortierung erfolgte eine Fraktionierung des Lesegutes in Saftvorlauf (aus geöffneten Beeren austretender Saft), Positivfraktion (gesunde Beeren) und Negativfraktion (faule Beeren), die im Vergleich zur unsortierten Kontrolle repräsentative Aussagen über den Fäulniseinfluss von Beeren auf die standardisiert verarbeiteten Moste und Weine lieferten.
Ziel dieser Arbeit war es, mittels vielseitiger analytischer und sensorischer Untersuchungen der einzelnen Fraktionen die vollautomatisch-optische Traubensortierung als Maßnahme zur Qualitätssicherung, -steigerung und -sicherheit der Moste und korrelierenden Weine zu bewerten. Im Rahmen der analytischen Untersuchungen wurden die Gehalte an Mykotoxinen, biogenen Aminen, Phenolen, Gluconsäure, Glycerin, organischen Säuren, Kationen, Schwefelbindungspartnern und Off-flavour-Verbindungen sowie das Mostgewicht bestimmt. Die notwendigen Methoden zur Bestimmung der Mykotoxine mittels HPLC-MS/MS sowie der phenolischen Verbindungen mittels HPLC-UV wurden entwickelt und validiert. Sensorisch wurden deskriptive sowie diskriminative Untersuchungen durchgeführt.
Die Ergebnisse der analytischen und sensorischen Untersuchungen aller Versuche zeigten, dass die Art und Entwicklung der auf Trauben auftretenden Fäulnis überwiegend zu qualitativ negativen Beeinflussungen der rebsortentypischen Weinstilistik führte. Die effiziente Selektion fäulnisbelasteter Beeren mittels vollautomatisch-optischer Traubensortierung und die hierdurch ermöglichte, individuelle Handhabung der einzelnen Sortierfraktionen tragen zur Sicherung, Steigerung und Sicherheit der Qualität von Weinen bei.
Es muss jedoch berücksichtigt werden, dass diese Ergebnisse nur den Zustand zweier Jahrgänge widerspiegeln. Zukünftige Untersuchungen über mehrere Jahre sollten daher angestrebt werden, um die beobachteten Trends zu bestätigen.
In the presented work, I evaluate if and how Virtual Reality (VR) technologies can be used to support researchers working in the geosciences by providing immersive, collaborative visualization systems as well as virtual tools for data analysis. Technical challenges encountered in the development of theses systems are identified and solutions for these are provided.
To enable geologists to explore large digital terrain models (DTMs) in an immersive, explorative fashion within a VR environment, a suitable terrain rendering algorithm is required. For realistic perception of planetary curvature at large viewer altitudes, spherical rendering of the surface is necessary. Furthermore, rendering must sustain interactive frame rates of about 30 frames per second to avoid sensory confusion of the user. At the same time, the data structures used for visualization should also be suitable for efficiently computing spatial properties such as height profiles or volumes in order to implement virtual analysis tools. To address these requirements, I have developed a novel terrain rendering algorithm based on tiled quadtree hierarchies using the HEALPix parametrization of a sphere. For evaluation purposes, the system is applied to a 500 GiB dataset representing the surface of Mars.
Considering the current development of inexpensive remote surveillance equipment such as quadcopters, it seems inevitable that these devices will play a major role in future disaster management applications. Virtual reality installations in disaster management headquarters which provide an immersive visualization of near-live, three-dimensional situational data could then be a valuable asset for rapid, collaborative decision making. Most terrain visualization algorithms, however, require a computationally expensive pre-processing step to construct a terrain database.
To address this problem, I present an on-the-fly pre-processing system for cartographic data. The system consists of a frontend for rendering and interaction as well as a distributed processing backend executing on a small cluster which produces tiled data in the format required by the frontend on demand. The backend employs a CUDA based algorithm on graphics cards to perform efficient conversion from cartographic standard projections to the HEALPix-based grid used by the frontend.
Measurement of spatial properties is an important step in quantifying geological phenomena. When performing these tasks in a VR environment, a suitable input device and abstraction for the interaction (a “virtual tool”) must be provided. This tool should enable the user to precisely select the location of the measurement even under a perspective projection. Furthermore, the measurement process should be accurate to the resolution of the data available and should not have a large impact on the frame rate in order to not violate interactivity requirements.
I have implemented virtual tools based on the HEALPix data structure for measurement of height profiles as well as volumes. For interaction, a ray-based picking metaphor was employed, using a virtual selection ray extending from the user’s hand holding a VR interaction device. To provide maximum accuracy, the algorithms access the quad-tree terrain database at the highest available resolution level while at the same time maintaining interactivity in rendering.
Geological faults are cracks in the earth’s crust along which a differential movement of rock volumes can be observed. Quantifying the direction and magnitude of such translations is an essential requirement in understanding earth’s geological history. For this purpose, geologists traditionally use maps in top-down projection which are cut (e.g. using image editing software) along the suspected fault trace. The two resulting pieces of the map are then translated in parallel against each other until surface features which have been cut by the fault motion come back into alignment. The amount of translation applied is then used as a hypothesis for the magnitude of the fault action. In the scope of this work it is shown, however, that performing this study in a top-down perspective can lead to the acceptance of faulty reconstructions, since the three-dimensional structure of topography is not considered.
To address this problem, I present a novel terrain deformation algorithm which allows the user to trace a fault line directly within a 3D terrain visualization system and interactively deform the terrain model while inspecting the resulting reconstruction from arbitrary perspectives. I demonstrate that the application of 3D visualization allows for a more informed interpretation of fault reconstruction hypotheses. The algorithm is implemented on graphics cards and performs real-time geometric deformation of the terrain model, guaranteeing interactivity with respect to all parameters.
Paleoceanography is the study of the prehistoric evolution of the ocean. One of the key data sources used in this research are coring experiments which provide point samples of layered sediment depositions at the ocean floor. The samples obtained in these experiments document the time-varying sediment concentrations within the ocean water at the point of measurement. The task of recovering the ocean flow patterns based on these deposition records is a challenging inverse numerical problem, however.
To support domain scientists working on this problem, I have developed a VR visualization tool to aid in the verification of model parameters by providing simultaneous visualization of experimental data from coring as well as the resulting predicted flow field obtained from numerical simulation. Earth is visualized as a globe in the VR environment with coring data being presented using a billboard rendering technique while the
time-variant flow field is indicated using Line-Integral-Convolution (LIC). To study individual sediment transport pathways and their correlation with the depositional record, interactive particle injection and real-time advection is supported.
Das Konzept des Fairen Handels fußt auf der Umsetzung der Ziele ökonomischer, ökologischer und sozialer Nachhaltigkeit. In dieser Arbeit sollte, komplementär zur bisherigen Forschung und Literatur, mit Methoden der Verhaltensökonomik analysiert werden, inwieweit Verteilungspräferenzen hinsichtlich des Einkommens den Kauf von fair gehandelten Produkten beeinflussen.
Monte Carlo simulation is one of the commonly used methods for risk estimation on financial markets, especially for option portfolios, where any analytical approximation is usually too inaccurate. However, the usually high computational effort for complex portfolios with a large number of underlying assets motivates the application of variance reduction procedures. Variance reduction for estimating the probability of high portfolio losses has been extensively studied by Glasserman et al. A great variance reduction is achieved by applying an exponential twisting importance sampling algorithm together with stratification. The popular and much faster Delta-Gamma approximation replaces the portfolio loss function in order to guide the choice of the importance sampling density and it plays the role of the stratification variable. The main disadvantage of the proposed algorithm is that it is derived only in the case of Gaussian and some heavy-tailed changes in risk factors.
Hence, our main goal is to keep the main advantage of the Monte Carlo simulation, namely its ability to perform a simulation under alternative assumptions on the distribution of the changes in risk factors, also in the variance reduction algorithms. Step by step, we construct new variance reduction techniques for estimating the probability of high portfolio losses. They are based on the idea of the Cross-Entropy importance sampling procedure. More precisely, the importance sampling density is chosen as the closest one to the optimal importance sampling density (zero variance estimator) out of some parametric family of densities with respect to Kullback - Leibler cross-entropy. Our algorithms are based on the special choices of the parametric family and can now use any approximation of the portfolio loss function. A special stratification is developed, so that any approximation of the portfolio loss function under any assumption of the distribution of the risk factors can be used. The constructed algorithms can easily be applied for any distribution of risk factors, no matter if light- or heavy-tailed. The numerical study exhibits a greater variance reduction than of the algorithm from Glasserman et al. The use of a better approximation may improve the performance of our algorithms significantly, as it is shown in the numerical study.
The literature on the estimation of the popular market risk measures, namely VaR and CVaR, often refers to the algorithms for estimating the probability of high portfolio losses, describing the corresponding transition process only briefly. Hence, we give a consecutive discussion of this problem. Results necessary to construct confidence intervals for both measures under the mentioned variance reduction procedures are also given.
Es wurde zuerst das intrinsische Puffersystem der Oozyte charakterisiert, als Grundlage für eine weitere Untersuchung des \(CO_2/HCO_3^{-}\)-Puffersystem. Der \(pK_s\) des intrinsischen Puffersystem betrug 6,9 bei einer totalen Konzentration von 40 mM. Auf Basis des bestimmten \(pK_s\) von 6,9 wurden Carnosin und dessen Derivate als mobile Puffer identifiziert, die die Mobilität der \(H^+\) bestimmen. Aus der apparenten Diffusionskonstanten der \(H^+\) konnte der Anteil an mobilen Puffern am gesamten intrinsischen Puffersystem bestimmt werden, er betrug 37,5% bzw. 15 mM. Intrazelluläre CA erhöhte die Effektivität (Geschwindigkeit) des \(CO_2/HCO_3^{-}\)-Puffersystems, aber nicht die Pufferkapazität im Gleichgewicht. Damit dieser Effekt quantifiziert werden kann, musste die bestehende Definition der Pufferkapazität von Koppel & Spiro aus dem Jahre 1914 um eine zeitliche Komponente erweitert werden. Dafür wurde die Nettoreaktionsgeschwindigkeit r als Maß für die Dynamik eines Puffer oder einer Mischung aus verschiedenen Puffern hergeleitet und durch die numerische Lösung eines Systems an ODEs ausgerechnet . Ohne CA befand sich das \(CO_2/HCO_3^{-}\) bei der Applikation von Butyrat nicht mehr zu jeder Zeit im Gleichgewicht \( ( r\neq 0 ) \), was zu einer erhöhten \(\Delta pH_i/\Delta t\) führte. Nicht nur die Effektivität der Pufferung wurde durch die CA erhöht, auch die apparente Mobilität der Protonen wurde in Anwesenheit von \(CO_2/{HCO_3^{-}}\) erhöht. Weiterhin konnte gezeigt werden, dass \(H^+\) alle theoretisch nötigen Voraussetzungen erfüllt, die es braucht, um als Signalmolekül, ähnlich dem Calcium, fungieren zu können. So wird über die hohe Pufferung und den geringen Anteil an mobilen Puffern (37,5 % in der Oozyte) die Mobilität der \(H^+\) gesenkt, so dass sich Mikrodomänen mit aktiven Konzentrationen ausbilden können. Damit sich unter diesen Umständen eine Mikrodomäne ausbilden kann, ist ein Flux von \(0,8\cdot 10^6 H^+ /s\) nötig. Die Ausbildung von solchen Mikrodomänen kann physiologisch zur lokalen Modulation zellulärer Prozesse führen, da wichtige Bestandteile von Signalkaskaden, wie G-Proteine, pH-sensitiv sind. Die CA spielt für die Signalwirkung der \(H^+\) eine wichtige Rolle, so konnte gezeigt werden, dass CA-Aktivtät zu einer Unterscheidbarkeit von metabolischer und respiratorischer Ansäuerung führt, die ohne CA-Aktivität nicht möglich wäre.
As the complexity of embedded systems continuously rises, their development becomes more and more challenging. One technique to cope with this complexity is the employment of virtual prototypes. The virtual prototypes are intended to represent the embedded system’s properties on different levels of detail like register transfer level or transaction level. Virtual prototypes can be used for different tasks throughout the development process. They can act as executable specification, can be used for architecture exploration, can ease system integration, and allow for pre- and post-silicon software development and verification. The optimization objectives for virtual prototypes and their creation process are manifold. Finding an appropriate trade-off between the simulation accuracy, the simulation performance, and the implementation effort is a major challenge, as these requirements are contradictory.
In this work, two new and complementary techniques for the efficient creation of accurate and high-performance SystemC based virtual prototypes are proposed: Advanced Temporal Decoupling (ATD) and Transparent Transaction Level Modeling (TTLM). The suitability for industrial environments is assured by the employment of common standards like SystemC TLM-2.0 and IP-XACT.
Advanced Temporal Decoupling enhances the simulation accuracy while retaining high simulation performance by allowing for cycle accurate simulation in the context of SystemC TLM-2.0 temporal decoupling. This is achieved by exploiting the local time warp arising in SystemC TLM-2.0 temporal decoupled models to support the computation of resource contention effects. In ATD, accesses to shared resource are managed by Temporal Decoupled Semaphores (TDSems) which are integrated into the modeled shared resources. The set of TDSems assures the correct execution order of shared resource accesses and incorporates timing effects resulting from shared resource access execution and resource conflicts. This is done by dynamically varying the data granularity of resource accesses based on information gathered from the local time warp. ATD facilitates modeling of a wide range of resource and resource access properties like preemptable and non-preemptable accesses, synchronous and asynchronous accesses, multiport resources, dynamic access priorities, interacting and cascaded resources, and user specified schedulers prioritizing simultaneous resource accesses.
Transparent Transaction Level Modeling focuses on the efficient creation of virtual prototypes by reducing the implementation effort and consists of a library and a code generator. The TTLM library adds a layer of convenience functions to ATD comprising various application programming interfaces for inter module communication, virtual prototype configuration and run time information extraction. The TTLM generator is used to automatically generate the structural code of the virtual prototype from the formal hardware specification language IP-XACT.
The applicability and benefits of the presented techniques are demonstrated using an image processing centric automotive application. Compared to an existing cycle accurate SystemC model, the implementation effort can be reduced by approximately 50% using TTLM. Applying ATD, the simulation performance can be increased by a factor of up to five while retaining cycle accuracy.