Doctoral Thesis
Refine
Year of publication
- 2014 (78) (remove)
Document Type
- Doctoral Thesis (78) (remove)
Has Fulltext
- yes (78)
Keywords
- Activity recognition (2)
- Arylhydrocarbon-Rezeptor (2)
- Leber (2)
- Querkraft (2)
- Wearable computing (2)
- 2,3,7,8-Tetrachlordibenzo-p-dioxin (1)
- 2,3,7,8-tetrachlordibenzo-p-dioxine (1)
- AFS (1)
- AFSfein (1)
- Abfluss (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (15)
- Kaiserslautern - Fachbereich Informatik (14)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (12)
- Kaiserslautern - Fachbereich Bauingenieurwesen (7)
- Kaiserslautern - Fachbereich Sozialwissenschaften (7)
- Kaiserslautern - Fachbereich Biologie (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (3)
- Kaiserslautern - Fachbereich ARUBI (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
Methyleugenol (ME), (\(\it E \))-Methylisoeugenol (MIE), alpha-Asaron (aA), beta-Asaron (bA) und gamma-Asaron (gA) sind natürlich vorkommende Pflanzeninhaltsstoffe aus der Klasse der Phenylpropene (PP) und Bestandteil der menschlichen Ernährung. ME, aA und bA erwiesen sich im Tierversuch als hepatokanzerogen. MIE und gA wurden bislang nicht untersucht. Die allylischen Hepatokanzerogene Estragol und Safrol werden im Verlauf des Fremdstoff-metabolismus durch Cytochrom P450-Enzyme (CYP) in 1‘-Position hydroxyliert und anschließend durch Sulfotransferasen sulfoniert. Der reaktive Schwefelsäureester kann DNA-Addukte bilden, wodurch in der Folge Mutationen und Tumoren ausgelöst werden können. Für ME wurde der gleiche Mechanismus der Aktivierung postuliert, obgleich definitive Beweise bislang fehlten. Im Gegensatz dazu war die Mehrheit der bislang untersuchten propenylischen PP nicht kanzerogen. aA und bA stellen insofern eine Ausnahme dar. Tierexperimentelle Untersuchungen legen einen alternativen Mechanismus für die Aktivierung von aA und bA nahe. Untersuchungen zum Metabolismus der Asarone liegen bisher nicht vor. Ziel der Arbeit war es daher, den hepatischen Metabolismus dieser fünf PP zu untersuchen, um Einblicke in die potentiellen gentoxischen Mechanismen zu erhalten. Die Metabolitenbildung der fünf Substanzen wurde zeit- und konzentrationsabhängig in humanen und tierischen Lebermikrosomen (LM) sowie verschiedenen humanen CYP-Enzymen (Supersomes\(^{TM}\)) untersucht. Die Metaboliten wurden charakterisiert, identifiziert und synthetisiert, um als Referenzverbindungen für die Quantifizierung sowie für weitere mechanistische in vitro Untersuchungen zu dienen. Ferner wurden enzymkinetische Parameter bestimmt, um eine Extrapolation der Metabolitenbildung hin zu kleinen Substratkonzentrationen sowie die Beteiligung humaner CYPs an der Metabolitenbildung in humanen LM zu ermöglichen. Außerdem wurde die Bildung von DNA-Addukten in primären Rattenhepatozyten nach Inkubation mit ME, MIE sowie deren Metaboliten untersucht. Für alle Verbindungen konnten die folgenden fünf enzymatischen Reaktionen identifiziert werden: Hydroxylierung der Seitenkette, Oxidation dieser Alkohole, Epoxidierung der Seitenkette und Hydrolyse zu Diolen sowie \(\it O \)-Demethylierung. Als Hauptmetaboliten von ME, MIE, aA und gA wurden die jeweiligen Seitenkettenalkohole identifiziert, während bA hauptsächlich über Epoxide zu Diolen metabolisiert wurde. Die Ergebnisse belegen, dass ME, im Gegensatz zu MIE, über den gleichen Mechanismus wie Safrol und Estragol, auch in geringen, humanrelevanten Konzentrationen aktiviert werden kann. Für aA und vor allem bA scheint eine Aktivierung über Epoxide wahrscheinlicher, während es für gA keine Hinweise auf potentiell gentoxische Metaboliten gibt.
In der vorliegenden Arbeit werden einige Probleme der dynamischen Boden-
Bauwerk-Wechselwirkung behandelt. Der Schwerpunkt der Arbeit liegt in
der Untersuchung des Einflusses einer mit der Tiefe zunehmenden
Steifigkeit für den Boden.
In dem ersten Teil der Arbeit werden elastische Bodenplatten unter
vertikaler harmonischer Belastung untersucht. Die Platte wird mit Hilfe der
Finite-Elemente-Methode modelliert. Die Baugrundantwort wird mit Hilfe
von Einflussfunktionen für vertikale Einzel- bzw. Flächenlasten erfasst. Im
Kontaktbereich wird die Kompatibilität an den Mittelpunkten der
Bodenelemente und den darüber liegenden Punkten der Platte hergestellt.
Die Lösung für den homogenen Boden wird mit Ergebnissen aus der
Literatur verglichen. Für den inhomogenen Boden wird die Antwort der
Platte an verschiedenen Punkten über die Frequenz ermittelt und graphisch
dargestellt. In einem weiteren Bearbeitungspunkt wird die dynamische
Wechselwirkung zwischen mehreren starren Fundamenten auf der
Baugrundoberfläche untersucht. Der Einfluss der Inhomogenität des
Baugrundes wird in den Ergebnissen mit Hilfe von dimensionslosen
Parametern erfasst.
In dem zweiten Teil der Arbeit werden dynamische Steifigkeitsfunktionen,
sogenannte Impedanzfunktionen, für Einzelfundamente unter Zuhilfenahme
der Finite-Elemente-Methode im Zeitbereich ermittelt. Ziel ist es dabei, ein
Verfahren zu entwickeln, mit dem später auch nicht-lineare dynamische
Probleme numerisch gelöst werden können. Mit dem vorgestellten
Fensterverfahren wird aus der komplexen Antwort des Fundaments,
berechnet mit der Finite-Elemente-Methode im Zeitbereich, die Lösung im
Frequenzbereich für das in der Anregung enthaltene Frequenzspektrum
bestimmt. Hierzu wird eine eindeutige Vorgehensweise vorgeschlagen, und
die erforderlichen Angaben zur Wahl der Diskretisierungsfeinheit und des
Zeitschrittes gemacht. Schließlich wird das Fensterverfahren für
inhomogene Böden eingesetzt. Vorhandene halb-analytische Lösungen für
starre Fundamente werden mit ausreichender Genauigkeit reproduziert.
According to the domain specific models of speech perception, speech is supposed to be processed distinctively compared to non-speech. This assumption is supported by many studies dealing with the processing of speech and non-speech stimuli. However, the complexity of both stimulus classes is not matched in most studies, which might be a confounding factor, according to the cue specific models of speech perception. One solution is spectrally rotated speech, which has already been used in a range of fMRI and PET studies. In order to be able to investigate the role of stimulus complexity, vowels, spectrally rotated vowels and a second non-speech condition with two bands of sinusoidal waves, representing the first two formants of the vowels, were used in the present thesis. A detailed description of the creation and the properties of the whole stimulus set are given in Chapter 2 (Experiment 1) of this work. These stimuli were used to investigate the auditory processing of speech and non-speech sounds in a group of dyslexic adults and age matched controls (Experiment 2). The results support the assumption of a general auditory deficit in dyslexia. In order to compare the sensory processing of speech and non-speech in healthy adults on the electrophysiological level, stimuli were also presented within a multifeature oddball paradigm (Experiment 3). Vowels evoked a larger mismatch negativity (MMN) compared to both non-speech stimulus types. The MMN evoked by tones and spectrally rotated tones were compared in Experiment 4, to investigate the role of harmony. No difference in the area of MMN was found, indicating that the results found in Experiment 3 were not moderated by the harmonic structure of the vowels. All results are discussed in the context of the domain and cue specific models of speech perception.
Gegenwärtig stellen die hohen Stückkosten das wesentliche Hemmnis für die Marktdurchdringung
endlosfaserverstärkter Bauteile dar. Das umfassende Ziel dieser
Arbeit war daher die Senkung der Prozesskosten durch die Steigerung der Prozessgeschwindigkeit.
Ansatzpunkt bildete der zeitintensive Imprägnierungsvorgang, welcher
durch die Verwendung einer in orthogonaler und planarer Richtung ablaufenden
2D-Imprägnierung optimiert wurde.
In der Analysephase wurden grundlegende Untersuchungen mit einer semi-kontinuierlich
arbeitenden Intervallheißpresse durchgeführt. Dabei zeigten sich komplexe
Wechselwirkungen zwischen inhomogenen Temperatureinstellungen, vorliegender
Druckverteilung, planarem Fließverhalten des Polymers und der resultierenden Imprägnierungsqualität.
Als vorteilhafte Prozessbedingung wurden Polymerfließvorgänge
in Richtung der offenen seitlichen und vorderen Werkzeugkante identifiziert,
welche durch die bei höheren Randtemperaturen vorliegende Druckverteilung begünstigt
werden. Mit einem eigens dafür entwickelten Presswerkzeug ist die prinzipielle
Vorteilhaftigkeit einer Kombination aus orthogonalem und planarem Polymerfließen
auf die Imprägnierungsgeschwindigkeit nachgewiesen worden. Die durchgeführte
Parameterstudie verdeutlicht das Potential durch die Verkürzung der Imprägnierungsdauer
um 33 %. Bei der Analyse der Druckprofile ist für den Übergangsbereich
von der Heiz- zur Kühlzone ein signifikanter Druckabfall festgestellt worden. Um
die dadurch bedingte Dekonsolidierung während der Solidifikation zu verhindern,
wurde ein an das Schwindungsverhalten des Laminats angepasstes Werkzeugdesign
für den Übergangsbereich entwickelt. Dadurch konnte die Reduktion des applizierten
Prozessdrucks verhindert und die Verschlechterung der Organoblechqualität
während der Abkühlung ausgeschlossen werden. Für die Modellierung des
Imprägnierungsvorgangs wurde das B-Faktor-Modell von Mayer durch die Integration
der vom Verarbeitungsdruck abhängigen Sättigungspermeabilität erweitert. Dadurch
wird die Abbildung von Prozessen mit nicht konstantem Prozessdruck ermöglicht.
Die Ergebnisse der Arbeit bilden die Grundlage für die effektive Prozessgestaltung
durch ein materialspezifisches Anlagendesign und die Wahl vorteilhafter Prozessparameter
von der Einzel- bis zur Serienproduktion.
This thesis is devoted to the computational aspects of intersection theory and enumerative geometry. The first results are a Sage package Schubert3 and a Singular library schubert.lib which both provide the key functionality necessary for computations in intersection theory and enumerative geometry. In particular, we describe an alternative method for computations in Schubert calculus via equivariant intersection theory. More concretely, we propose an explicit formula for computing the degree of Fano schemes of linear subspaces on hypersurfaces. As a special case, we also obtain an explicit formula for computing the number of linear subspaces on a general hypersurface when this number is finite. This leads to a much better performance than classical Schubert calculus.
Another result of this thesis is related to the computation of Gromov-Witten invariants. The most powerful method for computing Gromov-Witten invariants is the localization of moduli spaces of stable maps. This method was introduced by Kontsevich in 1995. It allows us to compute Gromov-Witten invariants via Bott's formula. As an insightful application, we computed the numbers of rational curves on general complete intersection Calabi-Yau threefolds in projective spaces up to degree six. The results are all in agreement with predictions made from mirror symmetry.
Three dimensional (3d) point data is used in industry for measurement and reverse engineering. Precise point data is usually acquired with triangulating laser scanners or high precision structured light scanners. Lower precision point data is acquired by real-time structured light devices or by stereo matching with multiple cameras. The basic principle of all these methods is the so-called triangulation of 3d coordinates from two dimensional (2d) camera images.
This dissertation contributes a method for multi-camera stereo matching that uses a system of four synchronized cameras. A GPU based stereo matching method is presented to achieve a high quality reconstruction at interactive frame rates. Good depth resolution is achieved by allowing large disparities between the images. A multi level approach on the GPU allows a fast processing of these large disparities. In reverse engineering, hand-held laser scanners are used for the scanning of complex shaped objects. The operator of the scanner can scan complex regions slower, multiple times, or from multiple angles to achieve a higher point density. Traditionally, computer aided design (CAD) geometry is reconstructed in a separate step after the scanning. Errors or missing parts in the scan prevent a successful reconstruction. The contribution of this dissertation is an on-line algorithm that allows the reconstruction during the scanning of an object. Scanned points are added to the reconstruction and improve it on-line. The operator can detect the areas in the scan where the reconstruction needs additional data.
First, the point data is thinned out using an octree based data structure. Local normals and principal curvatures are estimated for the reduced set of points. These local geometric values are used for segmentation using a region growing approach. Implicit quadrics are fitted to these segments. The canonical form of the quadrics provides the parameters of basic geometric primitives.
An improved approach uses so called accumulated means of local geometric properties to perform segmentation and primitive reconstruction in a single step. Local geometric values can be added and removed on-line to these means to get a stable estimate over a complete segment. By estimating the shape of the segment it is decided which local areas are added to a segment. An accumulated score estimates the probability for a segment to belong to a certain type of geometric primitive. A boundary around the segment is reconstructed using a growing algorithm that ensures that the boundary is closed and avoids self intersections.
Feine Feststoffe mit einer Korngröße zwischen > 45 µm und ≤ 63 µm (PM63) können als Maß für eine Belastung von Niederschlagsabflüssen dienen, da sie abhängig von der Herkunftsfläche überproportional mit Schadstoffen, wie z.B. Schwermetalle, belastet sein können. Neben den Aktivitäten auf der Herkunftsfläche (Staubniederschlag, Verkehr) beeinflussen jahreszeitliche Randbedingungen und bauliche Gegebenheiten das Feststoffaufkommen sowie den Feststofftransport in die Niederschlagsabflüsse maßgeblich.
Das Ziel der Arbeit war, den Kenntnisstand bezüglich Herkunft, Verhalten und Verbleib, aber auch Zusammensetzung und Korngrößenverteilung von Feststoffen auf Verkehrs- und Dachflächen darzustellen. Anhand der Kenntnisse und der Auswertung von Ergebnissen aus Messkampagnen wurden Gleichungen für unterschiedliche Herkunftsflächen (Verkehrsflächen, Dachflächen, Mischflächen) entwickelt, mit denen das flächenspezifische jährliche Aufkommen abfiltrierbarer Stoffe (AFS) und feiner Feststoffe (PM63) in [kg/(ha∙a)] bzw. jeweils eine mittlere Jahreskonzentration in [mg/l] abgeschätzt werden können.
Die Gleichungen wurden schließlich jeweils einer Sensitivitätsanalyse unterzogen und anhand von gut beschriebenen Messprogrammen zur Gesamtfeststoffkonzentration (AFS) verifiziert.
Da es derzeit noch wenige Studien bezüglich des Aufkommens und -transportes feiner Feststoffe in Niederschlagsabflüssen gibt, blieben einige Fragestellungen offen. Sind in Zukunft weitere Studien über PM63-Anteile, -Aufkommen und -Transport verfügbar, lassen sich die hier zunächst vorgeschlagenen PM63-Anteile und -Faktoren problemlos anpassen.
Es wurde zuerst das intrinsische Puffersystem der Oozyte charakterisiert, als Grundlage für eine weitere Untersuchung des \(CO_2/HCO_3^{-}\)-Puffersystem. Der \(pK_s\) des intrinsischen Puffersystem betrug 6,9 bei einer totalen Konzentration von 40 mM. Auf Basis des bestimmten \(pK_s\) von 6,9 wurden Carnosin und dessen Derivate als mobile Puffer identifiziert, die die Mobilität der \(H^+\) bestimmen. Aus der apparenten Diffusionskonstanten der \(H^+\) konnte der Anteil an mobilen Puffern am gesamten intrinsischen Puffersystem bestimmt werden, er betrug 37,5% bzw. 15 mM. Intrazelluläre CA erhöhte die Effektivität (Geschwindigkeit) des \(CO_2/HCO_3^{-}\)-Puffersystems, aber nicht die Pufferkapazität im Gleichgewicht. Damit dieser Effekt quantifiziert werden kann, musste die bestehende Definition der Pufferkapazität von Koppel & Spiro aus dem Jahre 1914 um eine zeitliche Komponente erweitert werden. Dafür wurde die Nettoreaktionsgeschwindigkeit r als Maß für die Dynamik eines Puffer oder einer Mischung aus verschiedenen Puffern hergeleitet und durch die numerische Lösung eines Systems an ODEs ausgerechnet . Ohne CA befand sich das \(CO_2/HCO_3^{-}\) bei der Applikation von Butyrat nicht mehr zu jeder Zeit im Gleichgewicht \( ( r\neq 0 ) \), was zu einer erhöhten \(\Delta pH_i/\Delta t\) führte. Nicht nur die Effektivität der Pufferung wurde durch die CA erhöht, auch die apparente Mobilität der Protonen wurde in Anwesenheit von \(CO_2/{HCO_3^{-}}\) erhöht. Weiterhin konnte gezeigt werden, dass \(H^+\) alle theoretisch nötigen Voraussetzungen erfüllt, die es braucht, um als Signalmolekül, ähnlich dem Calcium, fungieren zu können. So wird über die hohe Pufferung und den geringen Anteil an mobilen Puffern (37,5 % in der Oozyte) die Mobilität der \(H^+\) gesenkt, so dass sich Mikrodomänen mit aktiven Konzentrationen ausbilden können. Damit sich unter diesen Umständen eine Mikrodomäne ausbilden kann, ist ein Flux von \(0,8\cdot 10^6 H^+ /s\) nötig. Die Ausbildung von solchen Mikrodomänen kann physiologisch zur lokalen Modulation zellulärer Prozesse führen, da wichtige Bestandteile von Signalkaskaden, wie G-Proteine, pH-sensitiv sind. Die CA spielt für die Signalwirkung der \(H^+\) eine wichtige Rolle, so konnte gezeigt werden, dass CA-Aktivtät zu einer Unterscheidbarkeit von metabolischer und respiratorischer Ansäuerung führt, die ohne CA-Aktivität nicht möglich wäre.
Obwohl das Zufußgehen die natürliche Fortbewegungsform des Menschen darstellt, spielte diese Mobilitätsform ab der zweiten Hälfte des 20. Jahrhunderts eine zunehmend schwindende Rolle in der politischen Wahrnehmung und der Stadt- und Verkehrsplanung. Zu Beginn des 21. Jahrhunderts wird im Zuge eines Paradigmenwechsel der Fußverkehr wieder von der Politik, der Planungspraxis aber auch von der Immobilienwirtschaft als ein wichtiger Baustein für eine nachhaltige Stadt- und Quartiersentwicklung angesehen. Hierbei wird der Nahmobilität, d.h. der fußläufigen Erreichbarkeit alltagsrelevanter Aktivitätsziele, eine wichtige Rolle beigemessen. Aus verkehrswissenschaftlicher Sicht bleibt bislang die Frage unbeantwortet, inwiefern das theoretische Konstrukt „Nahmobilität“ objektiv ermittelt werden kann. Aus immobilienwirtschaftlicher Sicht ist der Einfluss der Nahmobilität auf die Immobilienpreise von Wohnungen und Häusern in verschiedenen siedlungsstrukturellen Raumtypen von Interesse. Für die theoretische Konzeption eines Nahmobilitätsindikators werden nationale und international empirische Studien zum Fußgängerverhalten sowie Bewohner-, Makler- und Expertenbefragungen ausgewertet. Die praktische Umsetzung des Nahmobilitätsindikators erfolgt mithilfe eines Geographischen Informationssystems für die Städte Frankfurt, Köln und Wiesbaden. Damit können Bereiche mit einem hohen oder niedrigen Nahmobilitätspotential differenziert werden. Ergänzend wird eine Sozialraumanalyse zur Ableitung von vier siedlungsstrukturellen Raumtypen durchgeführt. Aus der Kombination von drei Nahmobilitätsniveau und vier Raumtypen können zwölf Gebietstypen abgeleitet werden, um den Einfluss der Nahmobilität auf Immobilienpreise differenziert analysieren zu können. Nach Herleitung des Angebotspreisfestsetzungsprozesses wird die ökonometrische Analyse mit dem Spatial Durbin Modell (SDM) und dem Ordinary Least Squares Modell (OLS-Modell) auf Stadtteil- und Stadtviertelebene durchgeführt. Die als ebenfalls relevant erachtete geografisch gewichtete Regression (GWR) wird aufgrund räumlicher Autokorrelation der Variablen nicht durchgeführt. Das SDM-Modell hat bei Wohnungen zum Ergebnis, dass Haushalte allgemein Standorte mit einem mittleren Nahmobilitätsniveau vorziehen, da an Standorten mit hohen Nahmobilitätswerten negative externe Effekte (z.B. Lärm) auftreten können. In urbanen Räumen werden niedrige Nahmobilitätswerte als Malus in suburbanen Räumen dagegen als Bonus angesehen. Beide Ergebnisse werden auf Basis von Bewohnerbefragungen plausibilisiert. Bei Häusern führen die ökonometrischen Analysen auf Stadtteil- und Stadtviertelebene zu gegensätzlichen Ergebnissen. Dies wird auf das Problem der veränderbaren Gebietseinheit zurückgeführt. Da auf Stadtviertelebene Gebietsabgrenzungen präziser möglich sind, werden diese als glaubwürdiger angesehen. Damit verbunden ist kein Einfluss der Nahmobilität auf Hauspreise festzustellen. Die Residuen des OLS-Modells weisen erwartungsgemäß eine räumliche Autokorrelation auf, weshalb die Schätzer nur bedingt interpretierbar sind.
Researchers and analysts in modern industrial and academic environments are faced with a daunting amount of multivariate data. While there has been significant development in the areas of data mining and knowledge
discovery, there is still the need for improved visualizations and generic solutions. The state-of-the-art in visual analytics and exploratory data visualization is to incorporate more profound analysis methods while focusing on improving interactive abilities, in order to support data analysts in gaining new insights through visual exploration and hypothesis building.
In the research field of exploratory data visualization, this thesis contributes new approaches in dimension reduction that tackle a number of shortcomings in state-of-the-art methods, such as interpretability and ambiguity. By combining methods from several disciplines, we describe how ambiguity can be countered effectively by visualizing coordinate values within a lower-dimensional embedding, thereby focusing on the display of the structural composition of high-dimensional data and on an intuitive depiction of inherent global relationships. We also describe how properties and alignment of high-dimensional manifolds can be analyzed in different levels of detail by means of a self-embedding hierarchy of local projections, each using full degree of freedom, while keeping the global context.
To the application field of air quality research, the thesis provides novel means for the research of aerosol source contributions. Triggered by this particularly challenging application problem, we instigate a new research direction in the area of visual analytics by describing a methodology to model-based visual analysis that (i) allows the scientist to be “in the loop” of computations and (ii) enables him to verify and control the analysis process, in order to steer computations towards physical meaning. Careful reflection of our work in this application has led us to derive key design choices that underlie and transcend beyond application-specific solutions. As a result, we describe a general design methodology to computing parameters of a pre-defined analytical model that map to multivariate data. Core applications areas that can benefit from our approach are within engineering disciplines, such as civil, chemical, electrical, and mechanical engineering, as well as in geology, physics, and biology.