Refine
Year of publication
- 2014 (146) (remove)
Document Type
- Doctoral Thesis (78)
- Preprint (28)
- Periodical Part (17)
- Article (15)
- Working Paper (4)
- Other (2)
- Report (1)
- Study Thesis (1)
Has Fulltext
- yes (146)
Keywords
- Denkmäler (8)
- Monitoring (8)
- Raumplanung (8)
- Brücken (5)
- Bestandserhaltung (4)
- Zerstörungsfreie Prüfung (4)
- Multiobjective optimization (3)
- Querkraft (3)
- Zustandserfassung (3)
- Activity recognition (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (43)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (16)
- Kaiserslautern - Fachbereich Informatik (15)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (13)
- Kaiserslautern - Fachbereich Sozialwissenschaften (13)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Bauingenieurwesen (10)
- Universität (8)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (3)
Das in Manderen, Departement Moselle, gelegene Schloss von Malbrouck befindet sich genau an der deutschen und luxemburgischen Grenze. Sein Bau wurde nach dem Willen von Arnold VI, dem Grundherrn von Sierck, im Jahre 1419 begonnen, wurde 1434, in dem Jahr, in dem das Schloss für geeignet befunden wurde, einem Angriff widerstehen zu können, vollendet und dann in den Dienst des Erzbistums Trier gestellt.
Unglücklicherweise war zum Zeitpunkt des Todes von Ritter Arnold dessen Nachfolge nicht gesichert, weshalb das Schloss ab Ende des XV. bis Anfang des XVII. Jahrhunderts von einer Hand in die nächste überwechselte.
Seit es im Jahre 1930 unter Denkmalschutz gestellt wurde und der Conseil Général de la Moselle es 1975 von seinem letzten Eigentümer, einem Bauern, zurückkaufte, wurde das Schloss vollständig saniert und im September 1988 wiedereröffnet. Wie jedes andere Bauwerk dieser Größenordnung braucht es eine feine und genaue Überwachung. Aus diesem Grund wollte der Conseil Général de la Moselle strategischer Partner im Projekt CURe MODERN werden.
Die Brücke von Rosbrück ist ein Bauwerk aus Spannbeton, das vom Departement Moselle verwaltet wird. Da sie schon 1952 gebaut wurde, weist sie mehrere Spannkabel auf, die offensichtlich rissig oder brüchig sind. Diese Schädigungen stellen die Tragfähigkeit des Bauwerks in Frage.
Es erschien daher notwendig, den Zustand der Kabel im Inneren der Träger zu überprüfen. Im Vorfeld der Kontrolle mittels der MFL-Methode (Magnetic Flux Leakage) wurde deren Position im Verhältnis zu den Ausführungsebenen überprüft. Da diese Überprüfung schlüssig war, wurden dann die MFL-Messungen an einem der Träger des Bauwerks durchgeführt. Die Ergebnisse sind beweiskräftig und es wurden keine Mängel nachgewiesen. In der Folge erscheint es nötig, die Überprüfung (Auskultation) auf geschädigte Bereiche auszudehnen.
In der Betriebswirtschaftslehre bestehen unterschiedliche Sichtweisen in Bezug auf Unternehmensziele und deren Verhältnis zu Stakeholderzielen. Der vorliegende Beitrag untersucht das Verhältnis von Unternehmenszielen und Stakeholderzielen, wobei die zentrale Zielsetzung des Beitrags darin besteht, die Stakeholderziele zu spezifizieren, da bislang existierende Kataloge mit Stakeholderzielen wenig detailliert sind. Dabei werden die unterschiedlichen Stakeholderziele anhand ihrer drei Zieldimensionen untersucht sowie in Formal- und Sachziele unterteilt. Des Weiteren wird deutlich, dass zwischen Unternehmenszielen und Stakeholderzielen durch die differierenden Ziele der unterschiedlichen Stakeholdergruppen ständige Konflikte herrschen, wodurch es grundsätzlich innerhalb unter-nehmerischer Zielsysteme nur zu einer Quasilösung der Konflikte kommen kann.
Das zinsoptimierte Schuldenmanagement hat zum Ziel, eine möglichst effiziente Abwägung zwischen den erwarteten Finanzierungskosten einerseits und den Risiken für den Staatshaushalt andererseits zu finden. Um sich diesem Spannungsfeld zu nähern, schlagen wir erstmals die Brücke zwischen den Problemstellungen des Schuldenmanagements und den Methoden der zeitkontinuierlichen, dynamischen Portfoliooptimierung.
Das Schlüsselelement ist dabei eine neue Metrik zur Messung der Finanzierungskosten, die Perpetualkosten. Diese spiegeln die durchschnittlichen zukünftigen Finanzierungskosten wider und beinhalten sowohl die bereits bekannten Zinszahlungen als auch die noch unbekannten Kosten für notwendige Anschlussfinanzierungen. Daher repräsentiert die Volatilität der Perpetualkosten auch das Risiko einer bestimmten Strategie; je langfristiger eine Finanzierung ist, desto kleiner ist die Schwankungsbreite der Perpetualkosten.
Die Perpetualkosten ergeben sich als Produkt aus dem Barwert eines Schuldenportfolios und aus der vom Portfolio unabhängigen Perpetualrate. Für die Modellierung des Barwertes greifen wir auf das aus der dynamischen Portfoliooptimierung bekannte Konzept eines selbstfinanzierenden Bondportfolios zurück, das hier auf einem mehrdimensionalen affin-linearen Zinsmodell basiert. Das Wachstum des Schuldenportfolios wird dabei durch die Einbeziehung des Primärüberschusses des Staates gebremst bzw. verhindert, indem wir diesen als externen Zufluss in das selbstfinanzierende Modell aufnehmen.
Wegen der Vielfältigkeit möglicher Finanzierungsinstrumente wählen wir nicht deren Wertanteile als Kontrollvariable, sondern kontrollieren die Sensitivitäten des Portfolios gegenüber verschiedenen Zinsbewegungen. Aus optimalen Sensitivitäten können in einem nachgelagerten Schritt dann optimale Wertanteile für verschiedenste Finanzierungsinstrumente abgeleitet werden. Beispielhaft demonstrieren wir dies mittels Rolling-Horizon-Bonds unterschiedlicher Laufzeit.
Schließlich lösen wir zwei Optimierungsprobleme mit Methoden der stochastischen Kontrolltheorie. Dabei wird stets der erwartete Nutzen der Perpetualkosten maximiert. Die Nutzenfunktionen sind jeweils an das Schuldenmanagement angepasst und zeichnen sich insbesondere dadurch aus, dass höhere Kosten mit einem niedrigeren Nutzen einhergehen. Im ersten Problem betrachten wir eine Potenznutzenfunktion mit konstanter relativer Risikoaversion, im zweiten wählen wir eine Nutzenfunktion, welche die Einhaltung einer vorgegebenen Schulden- bzw. Kostenobergrenze garantiert.
Zerstörungsfreie (ND) Erkundungstechniken, seien es nun zerstörungsfreie oder geophysikalische Bewertungsmethoden, werden üblicherweise im Bau- und Transportwesen, im Bereich der Energietechnik oder der Stadtentwicklung angewandt. Während sich jedoch im Laufe der letzten Jahrzehnte das Interesse auf interne geometrische Informationen zu der untersuchten Umgebung richtete, konzentrieren sich jüngere Forschungen auf Informationen, die mit der Art und dem Zustand dieser Umgebung verbunden sind, um so dem Begiff der zerstörungsfreien Bewertung näher zu kommen. Die gegenwärtig laufenden Studien versuchen, die aus zerstörungsfreien Messungen abgeleiteten Werte in statistische, mit Lebensdauermodellen verknüpfte Ansätze zu integrieren.
Der „Irrelevant Sound Effect“ besteht in einer Beeinträchtigung der seriellen Wiedergabeleistung für visuell präsentierte Folgen sprachlicher Items durch aufgabenirrelevante Hintergrundgeräusche. Unklar ist jedoch, ob der Irrelevant Sound Effect bei Kindern entwicklungsbedingten Veränderungen unterliegt und welches Arbeitsgedächtnismodell das kindliche Befundmuster am besten abzubilden vermag. Um einen Beitrag zur Klärung dieser Fragestellungen zu leisten, wurden zwei altersvergleichende Experimente zur quantitativen und qualitativen Beschaffenheit des Irrelevant Sound Effect durchgeführt. Experiment 1 prüfte, ob beim Irrelevant Sound Effect Alterseffekte zu verzeichnen sind und ob diese gegebenenfalls durch die Art des Hintergrundschalls (Changing-State- vs. Steady-State-Schall), die Modalität der Aufgabenstellung (auditiv vs. visuell) und/oder die Anforderungen der zu bearbeitenden Aufgabe (serielle Behaltensaufgabe vs. lautanalytische Odd-One-Out-Aufgabe) moderiert werden. Experiment 2 untersuchte etwaige Alterseffekte hinsichtlich des Einflusses der Lautstärke und/oder der Verständlichkeit des Hintergrundschalls. Hervorzuheben ist, dass erstmals Vorschüler berücksichtigt wurden, womit in beiden Studien ein breiter Altersbereich vom Vorschul- bis zum Erwachsenenalter abgedeckt wird.
Wesentliche Erkenntnis ist, dass der Irrelevant Sound Effect entwicklungsbedingten Veränderungen unterliegt, welche zeitlich im Vorschulalter anzusiedeln sind. Vorschüler werden deutlich stärker und umfassender durch Hintergrundschall beeinträchtigt als die übrigen Altersgruppen, die diesbezüglich nicht differieren. Die Effekte irrelevanten Hintergrundschalls scheinen bei Kindern demnach auf zwei qualitativ unterschiedlichen Wirkmechanismen zu fußen: Zunächst erhält irrelevanter Hintergrundschall – entwicklungsunabhängig – obligatorischen, automatischen Zugang zum Arbeitsgedächtnis, wodurch eine Interferenz mit den zu memorierenden Items auftritt. Darüber hinaus ist bei Vorschülern ein zusätzlicher, globalerer, dem Arbeitsgedächtnis vorgelagerter Mechanismus anzunehmen (z.B. gestörte Encodierung der Zielitems) – der Ansatz einer vermehrten Aufmerksamkeitsdistraktion kann stattdessen nicht gestützt werden.
Diese Experimente haben zudem ein Resultat erbracht, dessen nähere Analyse unabhängig vom Entwicklungsaspekt einen wertvollen Beitrag zum modelltheoretischen Diskurs verspricht: Ein irrelevantes Hintergrundsprechen bewirkte nicht nur bei der seriellen Behaltensaufgabe, sondern auch bei einer lautanalytischen Aufgabe eine signifikante Leistungsverschlechterung. Da die gängigen Arbeitsgedächtnismodelle zur Erklärung des Irrelevant Sound Effect hinsichtlich ihrer Annahmen potentiell lärmsensitiver Aufgaben differieren, wurde eine zweite, auf Erwachsene beschränkte Experimentalserie angeschlossen, deren Ergebnisse wie folgt zusammengefasst werden können: Die Leistungsminderung in der lautanalytischen Aufgabe ist vermutlich auf die phonologische Anforderung per se zurückzuführen, da der Effekt aufgehoben wird, wenn anstelle der phonologischen Analyse eine semantische gefordert wird (Experiment 3). Der phonologische Charakter ist jedoch nicht nur bei der Aufgabenstellung eine kritische Größe, sondern auch beim Hintergrundschall: Während Hintergrundsprechen einen Irrelevant Sound Effect provoziert, vermag Nichtsprache vergleichbarer Komplexität (spektral rotierte Sprache) dies nicht zu leisten (Experiment 5). Dies ist als Indiz dafür zu werten, dass über den temporal-spektralen Verlauf hinausgehende Parameter existieren müssen, die den Irrelevant Sound Effect modellieren. Die phonologische Ähnlichkeit zwischen den Stimuli der Primäraufgabe und der Distraktoren (Between-Stream Phonological Similarity Effect) scheint hingegen keinen Einfluss zu nehmen (Experiment 4). Zusammenfassend bevorzugt das Befundmuster Modelle, die zur Erklärung des Phänomens auf modalitätsspezifische Interferenzen mit phonologischen Repräsentationen im Arbeitsgedächtnis rekurrieren.
Methyleugenol ist ein sekundärer Pflanzeninhaltsstoff, der in verschiedenen Kräutern und
Gewürzen vorkommt. In Form von natürlichen ätherischen Ölen findet Methyleugenol als
Aromastoff in Lebensmitteln und als Duftstoff in Kosmetika Verwendung. Methyleugenol
wurde als natürliches gentoxisches Kanzerogen eingestuft. Ein Fokus der vorliegenden
Dissertation lag auf wirkmechanistischen Untersuchungen zur Gentoxizität von
Methyleugenol und ausgewählten oxidativen Phase-I-Metaboliten. So wurden direkt
gentoxische Wirkmechanismen, wie die Induktion von DNA-Strangbrüchen oder Mikrokernen
in der humanen Kolonkarzinomzelllinie HT29 detektiert. Auf Grund der fehlenden in vitro
Mutagenität der Verbindungen sollten weitere Wirkmechanismen zum DNA-strangbrechenden
Potential sowie potentielle Effekte auf DNA-Reparaturprozesse charakterisiert werden.
Die Metaboliten Methyleugenol-2',3'-epoxid und 3'-Oxomethylisoeugenol hemmen die HDAC- und Topoisomerase-I-Aktivität und tragen somit möglicherweise zum DNA-strangbrechenden
Potential der Metaboliten bei. 3'-Oxomethylisoeugenol wurde dabei als
katalytischer Hemmstoff humaner Topoisomerase I identifiziert, welcher signifikant die DNA-strangbrechende
Wirkung und die Enzym/DNA-stabilisierenden Effekte des Topoisomerase-I-Giftes Camptothecin hemmt. In Folge der Induktion von DNA-Doppelstrangbrüchen durch
die Testsubstanzen wird die DNA-Reparatur-assoziierte ATM/ATR-Signalkaskade und das
nachgeschaltete Tumorsuppressorprotein p53 aktiviert. Diese Ergebnisse weisen darauf hin,
dass die zelluläre DNA-Schadensantwort in Verbindung mit DNA-Reparaturmechanismen
oder einer Apoptoseinduktion dazu beitragen, dass die initialen gentoxischen Wirkungen der
Substanzen zu keiner direkten Mutagenität in vitro führen. Insgesamt konnte die Arbeit
zeigen, dass reaktive oxidative Metaboliten von Methyleugenol eine Vielzahl zellulärer
Zielstrukturen beeinflussen und eine potentielle in vitro Gentoxizität aufweisen, weshalb sie
in ihrer Gesamtheit in der Risikobewertung der Ausganssubstanz berücksichtigt werden
sollten.
Ein weiterer Schwerpunkt dieser Arbeit lag auf der Untersuchung der posttranslationalen
Histondeacetylase (HDAC)-Modifikation durch Polyphenole. Es wurde gezeigt, dass
Polyphenole die Expression des Regulatorproteins SUMO E1 beeinflussen. Des Weiteren
hemmen die Polyphenole (-)-Epigallocatechin-3-gallat und Genistein die HDAC-Aktivität und
vermindern den HDAC 1 Proteinstatus in HT29-Kolonkarzinomzellen. HDAC gehört zu den
SUMO-Substratproteinen. Im Rahmen der Arbeit wurde erstmals eine Modulation der posttranslationalen
HDAC 1-Sumoylierung nach Inkubation mit den Polyphenolen nachgewiesen,
welche im direkten Zusammenhang mit der HDAC-Aktivitätshemmung stehen könnte. EGCG
und Genistein beeinflussen somit epigenetische Signalwege in Tumorzellen. Inwieweit eine
Beeinflussung der DNA-Integrität durch HDAC-Hemmstoffe ein Risiko für primäre Zellen
darstellt, muss in weiterführenden Studien noch geklärt werden.
Elastische Klebverbindungen werden heute in der Praxis immer häufiger lastabtragend eingesetzt. Daher steigt auch die Nachfrage nach zuverlässigen Berechnungsmethoden und Beurteilungskriterien für diese Klebstoffe. Ziel dieser Arbeit ist es, anhand von geeigneten Prüfmethoden, Werkstoffkennwerte für Werkstoffgesetze, die für FE-Berechnungen geeignet sind, zu bestimmen und diese zu überprüfen. Außerdem soll der Grenzzustand der Beanspruchbarkeit untersucht werden um einerseits bewerten zu können, bis zu welchem Beanspruchungszustand die verwendeten Werkstoffgesetze einsetzbar sind und andererseits um die Grenzbelastungen für diese Klebstoffe beurteilen zu können. In dieser Arbeit wurden zwei elastische Klebstoffe untersucht, einer auf Silikon und einer auf Polyurethanbasis. Die Ermittlung der Werkstoffkennwerte erfolgt an Normproben, die den Vorteil einer weiten Verbreitung und Reproduzierbarkeit bieten. Das Werkstoffverhalten wurde unter Zug-, Schub- und Druckbelastung untersucht. Dabei wurde die Belastungsgeschwindigkeit in allen Belastungsarten so gewählt, dass der Energieeintrag pro Volumen und Zeiteinheit für alle Belastungsarten gleich ist. Dies bietet den Vorteil, dass für alle Belastungsarten der gleiche energetische Zustand des Klebstoffes untersucht wird. Diese Untersuchungen bilden die Grundlage für die Bestimmung der Werkstoffkonstanten für Green’sche Werkstoffgesetzte. Diese haben sich für die Berechnung von elastomeren Werkstoffen bewährt. Die Kennwerte für diese Werkstoffgesetze wurden durch Methoden der Ausgleichsrechnung (Methode der kleinsten Quadrate) iterativ so bestimmt. Die Überprüfung der Kennwerte erfolgt anhand von Kopfzugproben. Diese geklebten Proben mit mehrachsigen Spannungszuständen zeigen eine Vielzahl von in der Praxis relevanten Spannungszuständen und damit besonders für die Überprüfung der Werkstoffgesetze geeignet. Der Vergleich zwischen Simulation und Experiment zeigt eine sehr gute Übereinstimmung. Anhand dieser Probengeometrie werden auch der Grenzzustand der Beanspruchung und die hierfür maßgeblichen mechanischen Größen untersucht. Die Untersuchungen zeigen, dass die Formänderungsenergiedichte als Bewertungsgröße für den Grenzzustand und das Eintreten von Schädigungen im Werkstoff geeignet ist.
Die Klimaveränderung und die damit einhergehende verstärkte Fäulnisdynamik auf Trauben stellt eine Herausforderung für die nördlichen Weinbauregionen Europas dar. Daher wurde die vollautomatisch-optische Traubensortierung, eine innovative Verfahrenstechnik bei der Traubenverarbeitung, im zugrundeliegenden Projekt erstmals zur maschinellen Selektion fauler Beeren aus Hand- und Maschinenlesegut unter Praxisbedingungen in den Jahrgängen 2010 und 2011 eingesetzt. Hierzu wurden 15 Sortierversuche mit durchschnittlich zwei Tonnen Lesegut unterschiedlicher Rebsorten des Weinanbaugebietes Mosel mit unterschiedlichen Fäulnisarten und intensitäten durchgeführt, wobei Selektionsquoten bis zu 99 % erreicht wurden. Durch die Sortierung erfolgte eine Fraktionierung des Lesegutes in Saftvorlauf (aus geöffneten Beeren austretender Saft), Positivfraktion (gesunde Beeren) und Negativfraktion (faule Beeren), die im Vergleich zur unsortierten Kontrolle repräsentative Aussagen über den Fäulniseinfluss von Beeren auf die standardisiert verarbeiteten Moste und Weine lieferten.
Ziel dieser Arbeit war es, mittels vielseitiger analytischer und sensorischer Untersuchungen der einzelnen Fraktionen die vollautomatisch-optische Traubensortierung als Maßnahme zur Qualitätssicherung, -steigerung und -sicherheit der Moste und korrelierenden Weine zu bewerten. Im Rahmen der analytischen Untersuchungen wurden die Gehalte an Mykotoxinen, biogenen Aminen, Phenolen, Gluconsäure, Glycerin, organischen Säuren, Kationen, Schwefelbindungspartnern und Off-flavour-Verbindungen sowie das Mostgewicht bestimmt. Die notwendigen Methoden zur Bestimmung der Mykotoxine mittels HPLC-MS/MS sowie der phenolischen Verbindungen mittels HPLC-UV wurden entwickelt und validiert. Sensorisch wurden deskriptive sowie diskriminative Untersuchungen durchgeführt.
Die Ergebnisse der analytischen und sensorischen Untersuchungen aller Versuche zeigten, dass die Art und Entwicklung der auf Trauben auftretenden Fäulnis überwiegend zu qualitativ negativen Beeinflussungen der rebsortentypischen Weinstilistik führte. Die effiziente Selektion fäulnisbelasteter Beeren mittels vollautomatisch-optischer Traubensortierung und die hierdurch ermöglichte, individuelle Handhabung der einzelnen Sortierfraktionen tragen zur Sicherung, Steigerung und Sicherheit der Qualität von Weinen bei.
Es muss jedoch berücksichtigt werden, dass diese Ergebnisse nur den Zustand zweier Jahrgänge widerspiegeln. Zukünftige Untersuchungen über mehrere Jahre sollten daher angestrebt werden, um die beobachteten Trends zu bestätigen.
In the presented work, I evaluate if and how Virtual Reality (VR) technologies can be used to support researchers working in the geosciences by providing immersive, collaborative visualization systems as well as virtual tools for data analysis. Technical challenges encountered in the development of theses systems are identified and solutions for these are provided.
To enable geologists to explore large digital terrain models (DTMs) in an immersive, explorative fashion within a VR environment, a suitable terrain rendering algorithm is required. For realistic perception of planetary curvature at large viewer altitudes, spherical rendering of the surface is necessary. Furthermore, rendering must sustain interactive frame rates of about 30 frames per second to avoid sensory confusion of the user. At the same time, the data structures used for visualization should also be suitable for efficiently computing spatial properties such as height profiles or volumes in order to implement virtual analysis tools. To address these requirements, I have developed a novel terrain rendering algorithm based on tiled quadtree hierarchies using the HEALPix parametrization of a sphere. For evaluation purposes, the system is applied to a 500 GiB dataset representing the surface of Mars.
Considering the current development of inexpensive remote surveillance equipment such as quadcopters, it seems inevitable that these devices will play a major role in future disaster management applications. Virtual reality installations in disaster management headquarters which provide an immersive visualization of near-live, three-dimensional situational data could then be a valuable asset for rapid, collaborative decision making. Most terrain visualization algorithms, however, require a computationally expensive pre-processing step to construct a terrain database.
To address this problem, I present an on-the-fly pre-processing system for cartographic data. The system consists of a frontend for rendering and interaction as well as a distributed processing backend executing on a small cluster which produces tiled data in the format required by the frontend on demand. The backend employs a CUDA based algorithm on graphics cards to perform efficient conversion from cartographic standard projections to the HEALPix-based grid used by the frontend.
Measurement of spatial properties is an important step in quantifying geological phenomena. When performing these tasks in a VR environment, a suitable input device and abstraction for the interaction (a “virtual tool”) must be provided. This tool should enable the user to precisely select the location of the measurement even under a perspective projection. Furthermore, the measurement process should be accurate to the resolution of the data available and should not have a large impact on the frame rate in order to not violate interactivity requirements.
I have implemented virtual tools based on the HEALPix data structure for measurement of height profiles as well as volumes. For interaction, a ray-based picking metaphor was employed, using a virtual selection ray extending from the user’s hand holding a VR interaction device. To provide maximum accuracy, the algorithms access the quad-tree terrain database at the highest available resolution level while at the same time maintaining interactivity in rendering.
Geological faults are cracks in the earth’s crust along which a differential movement of rock volumes can be observed. Quantifying the direction and magnitude of such translations is an essential requirement in understanding earth’s geological history. For this purpose, geologists traditionally use maps in top-down projection which are cut (e.g. using image editing software) along the suspected fault trace. The two resulting pieces of the map are then translated in parallel against each other until surface features which have been cut by the fault motion come back into alignment. The amount of translation applied is then used as a hypothesis for the magnitude of the fault action. In the scope of this work it is shown, however, that performing this study in a top-down perspective can lead to the acceptance of faulty reconstructions, since the three-dimensional structure of topography is not considered.
To address this problem, I present a novel terrain deformation algorithm which allows the user to trace a fault line directly within a 3D terrain visualization system and interactively deform the terrain model while inspecting the resulting reconstruction from arbitrary perspectives. I demonstrate that the application of 3D visualization allows for a more informed interpretation of fault reconstruction hypotheses. The algorithm is implemented on graphics cards and performs real-time geometric deformation of the terrain model, guaranteeing interactivity with respect to all parameters.
Paleoceanography is the study of the prehistoric evolution of the ocean. One of the key data sources used in this research are coring experiments which provide point samples of layered sediment depositions at the ocean floor. The samples obtained in these experiments document the time-varying sediment concentrations within the ocean water at the point of measurement. The task of recovering the ocean flow patterns based on these deposition records is a challenging inverse numerical problem, however.
To support domain scientists working on this problem, I have developed a VR visualization tool to aid in the verification of model parameters by providing simultaneous visualization of experimental data from coring as well as the resulting predicted flow field obtained from numerical simulation. Earth is visualized as a globe in the VR environment with coring data being presented using a billboard rendering technique while the
time-variant flow field is indicated using Line-Integral-Convolution (LIC). To study individual sediment transport pathways and their correlation with the depositional record, interactive particle injection and real-time advection is supported.
Das Konzept des Fairen Handels fußt auf der Umsetzung der Ziele ökonomischer, ökologischer und sozialer Nachhaltigkeit. In dieser Arbeit sollte, komplementär zur bisherigen Forschung und Literatur, mit Methoden der Verhaltensökonomik analysiert werden, inwieweit Verteilungspräferenzen hinsichtlich des Einkommens den Kauf von fair gehandelten Produkten beeinflussen.
Monte Carlo simulation is one of the commonly used methods for risk estimation on financial markets, especially for option portfolios, where any analytical approximation is usually too inaccurate. However, the usually high computational effort for complex portfolios with a large number of underlying assets motivates the application of variance reduction procedures. Variance reduction for estimating the probability of high portfolio losses has been extensively studied by Glasserman et al. A great variance reduction is achieved by applying an exponential twisting importance sampling algorithm together with stratification. The popular and much faster Delta-Gamma approximation replaces the portfolio loss function in order to guide the choice of the importance sampling density and it plays the role of the stratification variable. The main disadvantage of the proposed algorithm is that it is derived only in the case of Gaussian and some heavy-tailed changes in risk factors.
Hence, our main goal is to keep the main advantage of the Monte Carlo simulation, namely its ability to perform a simulation under alternative assumptions on the distribution of the changes in risk factors, also in the variance reduction algorithms. Step by step, we construct new variance reduction techniques for estimating the probability of high portfolio losses. They are based on the idea of the Cross-Entropy importance sampling procedure. More precisely, the importance sampling density is chosen as the closest one to the optimal importance sampling density (zero variance estimator) out of some parametric family of densities with respect to Kullback - Leibler cross-entropy. Our algorithms are based on the special choices of the parametric family and can now use any approximation of the portfolio loss function. A special stratification is developed, so that any approximation of the portfolio loss function under any assumption of the distribution of the risk factors can be used. The constructed algorithms can easily be applied for any distribution of risk factors, no matter if light- or heavy-tailed. The numerical study exhibits a greater variance reduction than of the algorithm from Glasserman et al. The use of a better approximation may improve the performance of our algorithms significantly, as it is shown in the numerical study.
The literature on the estimation of the popular market risk measures, namely VaR and CVaR, often refers to the algorithms for estimating the probability of high portfolio losses, describing the corresponding transition process only briefly. Hence, we give a consecutive discussion of this problem. Results necessary to construct confidence intervals for both measures under the mentioned variance reduction procedures are also given.
Es wurde zuerst das intrinsische Puffersystem der Oozyte charakterisiert, als Grundlage für eine weitere Untersuchung des \(CO_2/HCO_3^{-}\)-Puffersystem. Der \(pK_s\) des intrinsischen Puffersystem betrug 6,9 bei einer totalen Konzentration von 40 mM. Auf Basis des bestimmten \(pK_s\) von 6,9 wurden Carnosin und dessen Derivate als mobile Puffer identifiziert, die die Mobilität der \(H^+\) bestimmen. Aus der apparenten Diffusionskonstanten der \(H^+\) konnte der Anteil an mobilen Puffern am gesamten intrinsischen Puffersystem bestimmt werden, er betrug 37,5% bzw. 15 mM. Intrazelluläre CA erhöhte die Effektivität (Geschwindigkeit) des \(CO_2/HCO_3^{-}\)-Puffersystems, aber nicht die Pufferkapazität im Gleichgewicht. Damit dieser Effekt quantifiziert werden kann, musste die bestehende Definition der Pufferkapazität von Koppel & Spiro aus dem Jahre 1914 um eine zeitliche Komponente erweitert werden. Dafür wurde die Nettoreaktionsgeschwindigkeit r als Maß für die Dynamik eines Puffer oder einer Mischung aus verschiedenen Puffern hergeleitet und durch die numerische Lösung eines Systems an ODEs ausgerechnet . Ohne CA befand sich das \(CO_2/HCO_3^{-}\) bei der Applikation von Butyrat nicht mehr zu jeder Zeit im Gleichgewicht \( ( r\neq 0 ) \), was zu einer erhöhten \(\Delta pH_i/\Delta t\) führte. Nicht nur die Effektivität der Pufferung wurde durch die CA erhöht, auch die apparente Mobilität der Protonen wurde in Anwesenheit von \(CO_2/{HCO_3^{-}}\) erhöht. Weiterhin konnte gezeigt werden, dass \(H^+\) alle theoretisch nötigen Voraussetzungen erfüllt, die es braucht, um als Signalmolekül, ähnlich dem Calcium, fungieren zu können. So wird über die hohe Pufferung und den geringen Anteil an mobilen Puffern (37,5 % in der Oozyte) die Mobilität der \(H^+\) gesenkt, so dass sich Mikrodomänen mit aktiven Konzentrationen ausbilden können. Damit sich unter diesen Umständen eine Mikrodomäne ausbilden kann, ist ein Flux von \(0,8\cdot 10^6 H^+ /s\) nötig. Die Ausbildung von solchen Mikrodomänen kann physiologisch zur lokalen Modulation zellulärer Prozesse führen, da wichtige Bestandteile von Signalkaskaden, wie G-Proteine, pH-sensitiv sind. Die CA spielt für die Signalwirkung der \(H^+\) eine wichtige Rolle, so konnte gezeigt werden, dass CA-Aktivtät zu einer Unterscheidbarkeit von metabolischer und respiratorischer Ansäuerung führt, die ohne CA-Aktivität nicht möglich wäre.
This work presents a framework for the computation of complex geometries containing intersections of multiple patches with Reissner-Mindlin shell elements. The main objective is to provide an isogeometric finite element implementation which neither requires drilling rotation stabilization, nor user interaction to quantify the number of rotational degrees of freedom for every node. For this purpose, the following set of methods is presented. Control points with corresponding physical location are assigned to one common node for the finite element solution. A nodal basis system in every control point is defined, which ensures an exact interpolation of the director vector throughout the whole domain. A distinction criterion for the automatic quantification of rotational degrees of freedom for every node is presented. An isogeometric Reissner-Mindlin shell formulation is enhanced to handle geometries with kinks and allowing for arbitrary intersections of patches. The parametrization of adjacent patches along the interface has to be conforming. The shell formulation is derived from the continuum theory and uses a rotational update scheme for the current director vector. The nonlinear kinematic allows the computation of large deformations and large rotations. Two concepts for the description of rotations are presented. The first one uses an interpolation which is commonly used in standard Lagrange-based shell element formulations. The second scheme uses a more elaborate concept proposed by the authors in prior work, which increases the accuracy for arbitrary curved geometries. Numerical examples show the high accuracy and robustness of both concepts. The applicability of the proposed framework is demonstrated.
Due to the increasing number of natural or man-made disasters, the application of operations research methods in evacuation planning has seen a rising interest in the research community. From the beginning, evacuation planning has been highly focused on car-based evacuation. Recently, also the evacuation of transit depended evacuees with the help of buses has been considered.
In this case study, we apply two such models and solution algorithms to evacuate a core part of the metropolitan capital city Kathmandu of Nepal as a hypothetical endangered region, where a large part of population is transit dependent. We discuss the computational results for evacuation time under a broad range of possible scenarios, and derive planning suggestions for practitioners.
As the complexity of embedded systems continuously rises, their development becomes more and more challenging. One technique to cope with this complexity is the employment of virtual prototypes. The virtual prototypes are intended to represent the embedded system’s properties on different levels of detail like register transfer level or transaction level. Virtual prototypes can be used for different tasks throughout the development process. They can act as executable specification, can be used for architecture exploration, can ease system integration, and allow for pre- and post-silicon software development and verification. The optimization objectives for virtual prototypes and their creation process are manifold. Finding an appropriate trade-off between the simulation accuracy, the simulation performance, and the implementation effort is a major challenge, as these requirements are contradictory.
In this work, two new and complementary techniques for the efficient creation of accurate and high-performance SystemC based virtual prototypes are proposed: Advanced Temporal Decoupling (ATD) and Transparent Transaction Level Modeling (TTLM). The suitability for industrial environments is assured by the employment of common standards like SystemC TLM-2.0 and IP-XACT.
Advanced Temporal Decoupling enhances the simulation accuracy while retaining high simulation performance by allowing for cycle accurate simulation in the context of SystemC TLM-2.0 temporal decoupling. This is achieved by exploiting the local time warp arising in SystemC TLM-2.0 temporal decoupled models to support the computation of resource contention effects. In ATD, accesses to shared resource are managed by Temporal Decoupled Semaphores (TDSems) which are integrated into the modeled shared resources. The set of TDSems assures the correct execution order of shared resource accesses and incorporates timing effects resulting from shared resource access execution and resource conflicts. This is done by dynamically varying the data granularity of resource accesses based on information gathered from the local time warp. ATD facilitates modeling of a wide range of resource and resource access properties like preemptable and non-preemptable accesses, synchronous and asynchronous accesses, multiport resources, dynamic access priorities, interacting and cascaded resources, and user specified schedulers prioritizing simultaneous resource accesses.
Transparent Transaction Level Modeling focuses on the efficient creation of virtual prototypes by reducing the implementation effort and consists of a library and a code generator. The TTLM library adds a layer of convenience functions to ATD comprising various application programming interfaces for inter module communication, virtual prototype configuration and run time information extraction. The TTLM generator is used to automatically generate the structural code of the virtual prototype from the formal hardware specification language IP-XACT.
The applicability and benefits of the presented techniques are demonstrated using an image processing centric automotive application. Compared to an existing cycle accurate SystemC model, the implementation effort can be reduced by approximately 50% using TTLM. Applying ATD, the simulation performance can be increased by a factor of up to five while retaining cycle accuracy.
Mechanical ventilation of patients with severe lung injury is an important clinical treatment to ensure proper lung oxygenation and to mitigate the extent of collapsed lung regions. While current imaging technologies such as Computed Tomography (CT) and chest X-ray allow for a thorough inspection of the thorax, they are limited to static pictures and exhibit several disadvantages, including exposure to ionizing radiation and high cost. Electrical Impedance Tomography (EIT) is a novel method to determine functional processes inside the thorax such as lung ventilation and cardiac activity. EIT reconstructs the internal electrical conductivity distribution within the thorax from voltage measurements on the body surface. Conductivity changes correlate with important clinical parameters such as lung volume and perfusion. Current EIT systems and algorithms use simplified or generalized thorax models to solve the reconstruction problem, which reduce image quality and anatomical significance. In this thesis, the development of a clinically relevant workflow to compute sophisticated three-dimensional thorax models from patient-specific CT data is described. The method allows medical experts to generate a multi-material segmentation in an interactive and fast way, while a volumetric mesh is computed automatically from the segmentation. The significantly improved image quality and anatomical precision of EIT images reconstructed with these 3D models is reported, and the impact on clinical applicability is discussed. In addition, three projects concerning quantitative CT (qCT) measurements and multi-modal 3D visualization are presented, which demonstrate the importance and productivity of interdisciplinary research groups including computer scientists and medical experts. The results presented in this thesis contribute significantly to clinical research efforts to pave the way towards improved patient-specific treatments of lung injury using EIT and qCT.
The work presented in this thesis discusses the thermal and power management of multi-core processors (MCPs) with both two dimensional (2D) package and there dimensional (3D) package chips. The power and thermal management/balancing is of increasing concern and is a technological challenge to the MCP development and will be a main performance bottleneck for the development of MCPs. This thesis develops optimal thermal and power management policies for MCPs. The system thermal behavior for both 2D package and 3D package chips is analyzed and mathematical models are developed. Thereafter, the optimal thermal and power management methods are introduced.
Nowadays, the chips are generally packed in 2D technique, which means that there is only one layer of dies in the chip. The chip thermal behavior can be described by a 3D heat conduction partial differential equation (PDE). As the target is to balance the thermal behavior and power consumption among the cores, a group of one dimensional (1D) PDEs, which is derived from the developed 3D PDE heat conduction equation, is proposed to describe the thermal behavior of each core. Therefore, the thermal behavior of the MCP is described by a group of 1D PDEs. An optimal controller is designed to manage the power consumption and balance the temperature among the cores based on the proposed 1D model.
3D package is an advanced package technology, which contains at least 2 layers of dies stacked in one chip. Different from 2D package, the cooling system should be installed among the layers to reduce the internal temperature of the chip. In this thesis, the micro-channel liquid cooling system is considered, and the heat transfer character of the micro-channel is analyzed and modeled as an ordinary differential equation (ODE). The dies are discretized to blocks based on the chip layout with each block modeled as a thermal resistance and capacitance (R-C) circuit. Thereafter, the micro-channels are discretized. The thermal behavior of the whole system is modeled as an ODE system. The micro-channel liquid velocity is set according to the workload and the temperature of the dies. Under each velocity, the system can be described as a linear ODE model system and the whole system is a switched linear system. An H-infinity observer is designed to estimate the states. The model predictive control (MPC) method is employed to design the thermal and power management/balancing controller for each submodel.
The models and controllers developed in this thesis are verified by simulation experiments via MATLAB. The IBM cell 8 cores processor and water micro-channel cooling system developed by IBM Research in collaboration with EPFL and ETHZ are employed as the experiment objects.
According to the domain specific models of speech perception, speech is supposed to be processed distinctively compared to non-speech. This assumption is supported by many studies dealing with the processing of speech and non-speech stimuli. However, the complexity of both stimulus classes is not matched in most studies, which might be a confounding factor, according to the cue specific models of speech perception. One solution is spectrally rotated speech, which has already been used in a range of fMRI and PET studies. In order to be able to investigate the role of stimulus complexity, vowels, spectrally rotated vowels and a second non-speech condition with two bands of sinusoidal waves, representing the first two formants of the vowels, were used in the present thesis. A detailed description of the creation and the properties of the whole stimulus set are given in Chapter 2 (Experiment 1) of this work. These stimuli were used to investigate the auditory processing of speech and non-speech sounds in a group of dyslexic adults and age matched controls (Experiment 2). The results support the assumption of a general auditory deficit in dyslexia. In order to compare the sensory processing of speech and non-speech in healthy adults on the electrophysiological level, stimuli were also presented within a multifeature oddball paradigm (Experiment 3). Vowels evoked a larger mismatch negativity (MMN) compared to both non-speech stimulus types. The MMN evoked by tones and spectrally rotated tones were compared in Experiment 4, to investigate the role of harmony. No difference in the area of MMN was found, indicating that the results found in Experiment 3 were not moderated by the harmonic structure of the vowels. All results are discussed in the context of the domain and cue specific models of speech perception.
We consider two major topics in this thesis: spatial domain partitioning which serves as a framework to simulate creep flows in representative volume elements.
First, we introduce a novel multi-dimensional space partitioning method. A new type of tree combines the advantages of the Octree and the KD-tree without having their disadvantages. We present a new data structure allowing local refinement, parallelization and proper restriction of transition ratios between nodes. Our technique has no dimensional restrictions at all. The tree's data structure is defined by a topological algebra based on the symbols \( A = \{ L, I, R \} \) that encode the partitioning steps. The set of successors is restricted such that each node has the partition of unity property to partition domains without overlap. With our method it is possible to construct a wide choice of spline spaces to compress or reconstruct scientific data such as pressure and velocity fields and multidimensional images. We present a generator function to build a tree that represents a voxel geometry. The space partitioning system is used as a framework to allow numerical computations. This work is triggered by the problem of representing, in a numerically appropriate way, huge three-dimensional voxel geometries that could have up to billions of voxels. These large datasets occure in situations where it is needed to deal with large representative volume elements (REV).
Second, we introduce a novel approach of variable arrangement for pressure and velocity to solve the Stokes equations. The basic idea of our method is to arrange variables in a way such that each cell is able to satisfy a given physical law independently from its neighbor cells. This is done by splitting velocity values to a left and right converging component. For each cell we can set up a small linear system that describes the momentum and mass conservation equations. This formulation allows to use the Gauß-Seidel algorithm to solve the global linear system. Our tree structure is used for spatial partitioning of the geometry and provides a proper initial guess. In addition, we introduce a method that uses the actual velocity field to refine the tree and improve the numerical accuracy where it is needed. We developed a novel approach rather than using existing approaches such as the SIMPLE algorithm, Lattice-Boltzmann methods or Exlicit jump methods since they are suited for regular grid structures. Other standard CFD approaches extract surfaces and creates tetrahedral meshes to solve on unstructured grids thus can not be applied to our datastructure. The discretization converges to the analytical solution with respect to grid refinement. We conclude a high strength in computational time and memory for high porosity geometries and a high strength in memory requirement for low porosity geometries.
In automotive testrigs we apply load time series to components such that the outcome is as close as possible to some reference data. The testing procedure should in general be less expensive and at the same time take less time for testing. In my thesis, I propose a testrig damage optimization problem (WSDP). This approach improves upon the testrig stress optimization problem (TSOP) used as a state of the art by industry experts.
In both (TSOP) and (WSDP), we optimize the load time series for a given testrig configuration. As the name suggests, in (TSOP) the reference data is the stress time series. The detailed behaviour of the stresses as functions of time are sometimes not the most important topic. Instead the damage potential of the stress signals are considered. Since damage is not part of the objectives in the (TSOP) the total damage computed from the optimized load time series is not optimal with respect to the reference damage. Additionally, the load time series obtained is as long as the reference stress time series and the total damage computation needs cycle counting algorithms and Goodmann corrections. The use of cycle counting algorithms makes the computation of damage from load time series non-differentiable.
To overcome the issues discussed in the previous paragraph this thesis uses block loads for the load time series. Using of block loads makes the damage differentiable with respect to the load time series. Additionally, in some special cases it is shown that damage is convex when block loads are used and no cycle counting algorithms are required. Using load time series with block loads enables us to use damage in the objective function of the (WSDP).
During every iteration of the (WSDP), we have to find the maximum total damage over all plane angles. The first attempt at solving the (WSDP) uses discretization of the interval for plane angle to find the maximum total damage at each iteration. This is shown to give unreliable results and makes maximum total damage function non-differentiable with respect to the plane angle. To overcome this, damage function for a given surface stress tensor due to a block load is remodelled by Gaussian functions. The parameters for the new model are derived.
When we model the damage by Gaussian function, the total damage is computed as a sum of Gaussian functions. The plane with the maximum damage is similar to the modes of the Gaussian Mixture Models (GMM), the difference being that the Gaussian functions used in GMM are probability density functions which is not the case in the damage approximation presented in this work. We derive conditions for a single maximum for Gaussian functions, similar to the ones given for the unimodality of GMM by Aprausheva et al. in [1].
By using the conditions for a single maximum we give a clustering algorithm that merges the Gaussian functions in the sum as clusters. Each cluster obtained through clustering is such that it has a single maximum in the absence of other Gaussian functions of the sum. The approximate point of the maximum of each cluster is used as the starting point for a fixed point equation on the original damage function to get the actual maximum total damage at each iteration.
We implement the method for the (TSOP) and the two methods (with discretization and with clustering) for (WSDP) on two example problems. The results obtained from the (WSDP) using discretization is shown to be better than the results obtained from the (TSOP). Furthermore we show that, (WSDP) using clustering approach to finding the maximum total damage, takes less number of iterations and is more reliable than using discretization.
Test rig optimization
(2014)
Designing good test rigs for fatigue life tests is a common task in the auto-
motive industry. The problem to find an optimal test rig configuration and
actuator load signals can be formulated as a mathematical program. We in-
troduce a new optimization model that includes multi-criteria, discrete and
continuous aspects. At the same time we manage to avoid the necessity to
deal with the rainflow-counting (RFC) method. RFC is an algorithm, which
extracts load cycles from an irregular time signal. As a mathematical func-
tion it is non-convex and non-differentiable and, hence, makes optimization
of the test rig intractable.
The block structure of the load signals is assumed from the beginning.
It highly reduces complexity of the problem without decreasing the feasible
set. Also, we optimize with respect to the actuators’ positions, which makes
it possible to take torques into account and thus extend the feasible set. As
a result, the new model gives significantly better results, compared with the
other approaches in the test rig optimization.
Under certain conditions, the non-convex test rig problem is a union of
convex problems on cones. Numerical methods for optimization usually need
constraints and a starting point. We describe an algorithm that detects each
cone and its interior point in a polynomial time.
The test rig problem belongs to the class of bilevel programs. For every
instance of the state vector, the sum of functions has to be maximized. We
propose a new branch and bound technique that uses local maxima of every
summand.
Technik ist in der heutigen Zeit allgegenwärtig. Bei all ihrer Omnipräsenz wird jedoch leicht übersehen, dass die Frage nach der Technik selber, d.h. die Frage danach, was genau unter „Technik“ überhaupt zu verstehen ist, bisher weitestgehend undeutlich geblieben ist.
Für die Philosophie erwächst daraus die Aufgabe, an dieser Stelle begriffsklärend einzugreifen.
Die vorliegende Arbeit hat zum Ziel, einen Beitrag zu einem besseren Verständnis von Technik und technischen Artefakten zu leisten. Die Argumentation gliedert sich dabei in zwei Schritte: Zuerst wird gezeigt, dass sich Technik nur in ihren Abgrenzungsverhältnissen zur Natur und zum Leben verstehen lässt und eine dem entsprechende Definition des Technikbegriffs vorgeschlagen. Anschließend wird daraus ein Verständnis technischer Artefakte im Sinne einer artefaktischen Technik abgeleitet.
Die Gliederung der Arbeit besteht dann im wesentlichen aus drei Teilen:
1. Das erste Kapitel dient der Einführung in die Problematik des Technikbegriffs:
Dabei wird in einem ersten Abschnitt auf die historische Dimension des Technikbegriffs verwiesen (1.1), anschließend die gegenwärtige Diskussion um den Technikbegriff zusammengefasst und kritisch bewertet (1.2) sowie Klassifikationen bzw. Kriterien hinsichtlich einer möglichen Definition des Technikbegriffs vorgeschlagen (1.3).
2. Das zweite Kapitel dient der Etablierung eines Technikbegriffs, der sich als semantisch abhängig von den Begriffen „Leben“ und „Natur“ erweist:
Dabei wird in einem ersten Abschnitt ein solches semantisches Verhältnis der Begriffe zueinander von anderen Möglichkeiten wechselseitiger Abgrenzung unterschieden (2.1). Sodann wird diese Abgrenzung mittels sogenannter Konstitutionsformen inhaltlich aufgefüllt (2.2). Nach der ausführlichen Erläuterung dieser Konstitutionsformen in ihrem paarweisen Zusammenhang, wird eine auf ihnen beruhende Definition von „Technik“ vorgeschlagen. In einem dritten Abschnitt wird das Modell der Konstitutionsformen um sogenannte Erschließungsformen erweitert, als diejenigen Fragehorizonte, mittels denen eine Binnendifferenzierung in verschieden Arten von Technik gelingt (2.3). In der Folge davon, wird eine Definition für eine jeweils „spezifische Technik“ vorgeschlagen.
3. Das dritte Kapitel dient der Untersuchung des ontologischen Status' technischer Artefakte:
Dabei werden technische Artefakte im Sinne einer „spezifischen Technik“ konkretisiert und damit als eine artefaktische Technik interpretiert (3.1). Anschließend wird überprüft, inwiefern sich eine solche Interpretation bezüglich a) der Frage, ob technische Artefakte natürliche Arten darstellen, bzw. b) des Problems der Koinzidenz von Objekten bewährt. Die aus diesen Überlegungen heraus gewonnenen Erkenntnisse werden abschließend in ihrer Anwendung auf Grenzfälle technischer Artefakte fruchtbar gemacht (3.2).
When stimulus and response overlap in a choice-reaction task, enhanced performance can be observed. This effect, the so-called Stimulus-Response Compatibility (SRC) has been shown to appear for a variety of different stimulus features such as numerical or physical size, luminance, or pitch height. While many of these SRC effects have been investigated in an isolated manner, only fewer studies focus on possible interferences when more than one stimulus dimension is varied. The present thesis investigated how the SRC effect of pitch heights, the so-called SPARC effect (Spatial Pitch Associations of Response Codes), is influenced by additionally varied stimulus information. In Study 1, the pitch heights of presented tones were varied along with timbre categories under two different task and pitch range conditions and with two different response alignments. Similarly, in Study 2, pitch heights as well as numerical values were varied within sung numbers under two different task conditions. The results showed simultaneous SRC effects appearing independently of each other in both studies: In Study 1, an expected SRC effect of pitch heights with horizontal responses (i.e., a horizontal SPARC effect) was observed. More interestingly, an additional and unexpected SRC effect of timbre with response sides presented itself independently of this SPARC effect. Similar results were obtained in Study 2: Here, an SRC effect for pitch heights (SPARC) and an SRC effect for numbers (i.e., SNARC or Spatial Numerical Associations of Response Codes, respectively) were observed and again the effects did not interfere with each other. Thus, results indicate that SPARC with horizontal responses does not interfere with SRC effects of other, simultaneously varied stimulus dimensions. These findings are discussed within the principle of polarity correspondence and the dimensional overlap model as theoretical accounts for SRC effects. In sum, it appears that the different types of information according to varied stimulus dimensions enter the decision stage of stimulus processing from separate channels.
ABSTRACT
"Spin and orbital contribution to the magnetic moment of transition metal clusters and complexes"
The spin and orbital contributions to the magnetic moments of isolated iron \(Fe_n^+\) \((7 ≤ n ≤ 18)\), cobalt \(Co_n^+\) \((8 ≤ n ≤ 22)\) and nickel \(Ni_n^+\) \((7 ≤ n ≤ 17)\) clusters were investigated. An experimental access to both contributions is possible by the application of x-ray magnetic circular dichroism (XMCD) spectroscopy. XMCD spectroscopy is based on x-ray absorption spectroscopy (XAS). It exploits the fact that for a magnetic sample the resonant absorption cross sections for negative and positive circular polarized x-rays differ for the transition from a spin orbit split ground state to the valence level. The resulting dichroic effects contain the information about the magnetism of the investigated sample. It can be extracted from the experimental spectrum via application of the so called sum rules. However, only the projections of the magnetic moments onto the quantization axis are experimentally accessible which corresponds to the magnetization of the sample.
We developed a method to apply XMCD spectroscopy to isolated clusters in the gas phase. A modified Fourier Transform Ion Cyclotron Resonance (FT-ICR) mass spectrometer was used to record the XA spectra in Total Ion Yield (TIY) mode, i.e. by recording the fragmentation intensity of the clusters in dependence of x-ray energy. The clusters can be considered to be a superparamagnetic ensemble. Thus, the magnetization follows a Langevin curve. The intrinsic magnetic moments can be calculated by Langevin correction of the experimental magnetic moments because the cluster temperature and the magnetic field are known.
The spin and the orbital magnetic moments are enhanced compared to the respective bulk values for all three investigated elements. The enhancement of the orbital contribution is more pronounced, by about a factor 3 - 4 compared to the bulk, than for the spin magnetic moment. However, if compared to the atomic value, both contributions are quenched. The orbital magnetic moment only amounts to about 10 - 15 % of the atomic value while the spin retains about 80 % of its atomic value. If the magnetic moments found for the clusters are put into perspective with respect to the atomic and bulk values by means of scaling laws, it becomes evident that both contributions follow different interpolations between the atomic and bulk value. The spin follows the well-known trend
\(n^{-1/3} = 1/(cluster radius)\) (n = number of atoms per cluster, assumption of a spherical particle). This trend relates to the ratio of surface to inner atoms in spherical particle. Hence, our interpretation is that the spin magnetic moment seems to follow the surface area of the cluster. On the other hand, the orbital magnetic moment follows \(1/n = 1/(cluster volume)\).
First XA spectra recorded with circularly polarized x-rays of a Single Molecule Magnet (SMM) \([Fe_4Ln_2(N_3)_4(Htea)_4(piv_6)]\) (Ln = Gd, Tb; \(H_3tea\) = triethanolamine, Hpiv = pivalic acid) are presented.
In the present work, the phase transitions in different Fe/FeC systems were studied by using the molecular dynamics simulation and the Meyer-Entel interaction potential (also the Johnson potential for Fe-C interaction). Fe-bicrystal, thin film, Fe-C bulk and Fe-C nanowire systems were investigated to study the behaviour of the phase transition, where the energetics, dynamics and transformations pathways were analysed.
The sink location problem is a combination of network flow and location problems: From a given set of nodes in a flow network a minimum cost subset \(W\) has to be selected such that given supplies can be transported to the nodes in \(W\). In contrast to its counterpart, the source location problem which has already been studied in the literature, sinks have, in general, a limited capacity. Sink location has a decisive application in evacuation planning, where the supplies correspond to the number of evacuees and the sinks to emergency shelters.
We classify sink location problems according to capacities on shelter nodes, simultaneous or non-simultaneous flows, and single or multiple assignments of evacuee groups to shelters. Resulting combinations are interpreted in the evacuation context and analyzed with respect to their worst-case complexity status.
There are several approaches to tackle these problems: Generic solution methods for uncapacitated problems are based on source location and modifications of the network. In the capacitated case, for which source location cannot be applied, we suggest alternative approaches which work in the original network. It turns out that latter class algorithms are superior to the former ones. This is established in numerical tests including random data as well as real world data from the city of Kaiserslautern, Germany.
Basierend auf eigenen Fließ- und Füllversuchsreihen und vergleichenden 2D- und 3D-Simulationen wurde ein Verfahren zur numerischen Simulation des Fließ- und Füllverhaltens von zementgebundenen Feinkornsystemen mit und ohne Stahlfasern entwickelt bzw. weiterentwickelt. Das stark zeit- und scherratenabhängige rheologische Verhalten dieser Feinkornsysteme wurde mit einem Rotationsrheometer anhand speziell entwickelter Messprofile untersucht und mittels eines geeigneten Modells abgebildet. Im Rahmen von Parameterstudien und Vergleichen der experimentellen Ergebnisse der durchgeführten Haegermann- und L-Box-Versuche mit denen der Simulation wurden Simulationsparameter und -modelle angepasst und validiert. Das Fließ- und Füllverhalten der untersuchten Feinkornsysteme konnte dadurch mit der verwendeten Software-Plattform „Complex Rheology Solver“ (CoRheoS) zufriedenstellend beschrieben werden. Darüber hinaus wurde die Orientierung von Stahlfasern mithilfe einer bi-direktionalen Kopplung der Gleichungen für das Fließverhalten der Feinkornsysteme mit denen für die Faserorientierung qualitativ gut wiedergegeben.
This dissertation focuses on the evaluation of technical and environmental sustainability of water distribution systems based on scenario analysis. The decision support system is created to assist in the decision making-process and to visualize the results of the sustainability assessment for current and future populations and scenarios. First, a methodology is developed to assess the technical and environmental sustainability for the current and future water distribution system scenarios. Then, scenarios are produced to evaluate alternative solutions for the current water distribution system as well as future populations and water demand variations. Finally, a decision support system is proposed using a combination of several visualization approaches to increase the data readability and robustness for the sustainability evaluations of the water distribution system.
The technical sustainability of a water distribution system is measured using the sustainability index methodology which is based on the reliability, resiliency and vulnerability performance criteria. Hydraulic efficiency and water quality requirements are represented using the nodal pressure and water age parameters, respectively. The U.S. Environmental Protection Agency EPANET software is used to simulate hydraulic (i.e. nodal pressure) and water quality (i.e. water age) analysis in a case study. In addition, the environmental sustainability of a water network is evaluated using the “total fresh water use” and “total energy intensity” indicators. For each scenario, multi-criteria decision analysis is used to combine technical and environmental sustainability criteria for the study area.
The technical and environmental sustainability assessment methodology is first applied to the baseline scenario (i.e. the current water distribution system). Critical locations where hydraulic efficiency and water quality problems occur in the current system are identified. There are two major scenario options that are considered to increase the sustainability at these critical locations. These scenarios focus on creating alternative systems in order to test and verify the technical and environmental sustainability methodology rather than obtaining the best solution for the current and future water distribution systems. The first scenario is a traditional approach in order to increase the hydraulic efficiency and water quality. This scenario includes using additional network components such as booster pumps, valves etc. The second scenario is based on using reclaimed water supply to meet the non-potable water demand and fire flow. The fire flow simulation is specifically included in the sustainability assessment since regulations have significant impact on the urban water infrastructure design. Eliminating the fire flow need from potable water distribution systems would assist in saving fresh water resources as well as to reduce detention times.
The decision support system is created to visualize the results of each scenario and to effectively compare these results with each other. The EPANET software is a powerful tool used to conduct hydraulic and water quality analysis but for the decision support system purposes the visualization capabilities are limited. Therefore, in this dissertation, the hydraulic and water quality simulations are completed using EPANET software and the results for each scenario are visualized by combining several visualization techniques in order to provide a better data readability. The first technique introduced here is using small multiple maps instead of the animation technique to visualize the nodal pressure and water age parameters. This technique eliminates the change blindness and provides easy comparison of time steps. In addition, a procedure is proposed to aggregate the nodes along the edges in order to simplify the water network. A circle view technique is used to visualize two values of a single parameter (i.e. the nodal pressure or water age). The third approach is based on fitting the water network into a grid representation which assists in eliminating the irregular geographic distribution of the nodes and improves the visibility of each circle view. Finally, a prototype for an interactive decision support tool is proposed for the current population and water demand scenarios. Interactive tools enable analyzing of the aggregated nodes and provide information about the results of each of the current water distribution scenarios.
Geometric Programming is a useful tool with a wide range of applications in engineering. As in real-world problems input data is likely to be affected by uncertainty, Hsiung, Kim, and Boyd introduced robust geometric programming to include the uncertainty in the optimization process. They also developed a tractable approximation method to tackle this problem. Further, they pose the question whether there exists a tractable reformulation of their robust geometric programming model instead of only an approximation method. We give a negative answer to this question by showing that robust geometric programming is co-NP hard in its natural posynomial form.
We consider a network flow problem, where the outgoing flow is reduced by a certain percentage in each node. Given a maximum amount of flow that can leave the source node, the aim is to find a solution that maximizes the amount of flow which arrives at the sink.
Starting from this basic model, we include two new, additional aspects: On the one hand, we are able to reduce the loss at some of the nodes; on the other hand, the exact loss values are not known, but may come from a discrete uncertainty set of exponential size.
Applications for problems of this type can be found in evacuation planning, where one would like to improve the safety of nodes such that the number of evacuees reaching safety is maximized.
We formulate the resulting robust flow problem with losses and improvability as a mixed-integer program for finitely many scenarios, and present an iterative scenario-generation procedure that avoids the inclusion of all scenarios from the beginning. In a computational study using both randomly generated instance and realistic data based on the city of Nice, France, we compare our solution algorithms.
For many decades, the search for language classes that extend the
context-free laguages enough to include various languages that arise in
practice, while still keeping as many of the useful properties that
context-free grammars have - most notably cubic parsing time - has been
one of the major areas of research in formal language theory. In this thesis
we add a new family of classes to this field, namely
position-and-length-dependent context-free grammars. Our classes use the
approach of regulated rewriting, where derivations in a context-free base
grammar are allowed or forbidden based on, e.g., the sequence of rules used
in a derivation or the sentential forms, each rule is applied to. For our
new classes we look at the yield of each rule application, i.e. the
subword of the final word that eventually is derived from the symbols
introduced by the rule application. The position and length of the yield
in the final word define the position and length of the rule application and
each rule is associated a set of positions and lengths where it is allowed
to be applied.
We show that - unless the sets of allowed positions and lengths are really
complex - the languages in our classes can be parsed in the same time as
context-free grammars, using slight adaptations of well-known parsing
algorithms. We also show that they form a proper hierarchy above the
context-free languages and examine their relation to language classes
defined by other types of regulated rewriting.
We complete the treatment of the language classes by introducing pushdown
automata with position counter, an extension of traditional pushdown
automata that recognizes the languages generated by
position-and-length-dependent context-free grammars, and we examine various
closure and decidability properties of our classes. Additionally, we gather
the corresponding results for the subclasses that use right-linear resp.
left-linear base grammars and the corresponding class of automata, finite
automata with position counter.
Finally, as an application of our idea, we introduce length-dependent
stochastic context-free grammars and show how they can be employed to
improve the quality of predictions for RNA secondary structures.
Die Dissertation "Portfoliooptimierung im Binomialmodell" befasst sich mit der Frage, inwieweit
das Problem der optimalen Portfolioauswahl im Binomialmodell lösbar ist bzw. inwieweit
die Ergebnisse auf das stetige Modell übertragbar sind. Dabei werden neben dem
klassischen Modell ohne Kosten und ohne Veränderung der Marktsituation auch Modellerweiterungen
untersucht.
Zur Herstellung von Kolbenbeschichtungen wird oft Polyamidimid (PAI)-Harz eingesetzt.
Dieses Harz benötigt die Verwendung eines Lösungsmittels, welches das Auftragen der
PAI-basierten Beschichtungen ermöglicht und nach der Applikation wieder entzogen
wird. Als Standard zur Herstellung von Polyamidimid-Harzen wird das Lösungsmittel
N-Methyl-2-Pyrrolidone (NMP) verwendet. NMP hat sich im Laufe der Jahre als das am
besten geeigneten Lösungsmittel für diese Anwendung bewährt.
Im Jahr 2010 wurde NMP als toxisch eingestuft. Auch die mittlerweile verwendeten
alternativen Lösungsmittel, N-Ethyl-2-Pyrrolidon (NEP) und gamma-Butyrolacton (GBL),
bringen Schwierigkeiten mit sich: NEP wird aufgrund der Ähnlichkeit seiner chemischen
Struktur zu NMP aller Voraussicht nach in naher Zukunft auch als toxisch eingestuft, und
GBL, als Vorstufe eines Narkotikums, stellt eine Herausforderung mit Hinblick auf
Arbeitsschutz und –sicherheit dar.
Ziel der vorliegenden Arbeit war die Entwicklung eines PAI-basierten
Beschichtungssystems, welches ein umweltfreundliches Lösungsmittel verwendet und
die Anforderungen zur Herstellung von Kolbenschaftbeschichtungen hinreichend gut
erfüllt. Desweiteren muss die neu entwickelte PAI-Beschichtung gute mechanische
Eigenschaften, gute Haftfestigkeit zum Kolbengrundmaterial und optimales
tribologisches Verhalten mit Augenmerk auf eine niedrige spezifische Verschleißrate
aufweisen. Diese Eigenschaften müssen nach Aushärtung bei einer Temperatur nicht
höher als 215 °C erfüllbar sein, welche in einem realen Beschichtungsprozess einen
problemlosen Ablauf sicherstellen würde.
Damit die erworbenen mechanischen und tribologischen Endeigenschaften der
hergestellten PAI-basierten Gleitlackbeschichtungen richtig verstanden und interpretiert
werden, wurden die Grundlagen der chemischen Struktur der PAI-Harze möglichst
detailliert untersucht. Diese geben einen tiefen Einblick in die vorliegenden Struktur-
Eigenschafts-Beziehungen und erklären das mechanische und tribologische Verhalten
der PAI-Harze. Eine grundlegende Untersuchung der chemischen Struktur ausgewählter PAI-Harze
ergab neue Erkenntnisse bezüglich deren Aushärtekinetik und gewährleistete die
Aufklärung der chemischen Prozesse, die während der PAI-Aushärtung ablaufen. In
diesem Zusammenhang wurde der Umsatz, die Reaktionsgeschwindigkeit und die
Vernetzungsdichte als Funktion verschiedener Aushärtetemperaturen ermittelt.
Es wurden PAI-Beschichtungssysteme basiert auf verschiedenen Lösungsmittel, wie
z.B. 1,3-Dimethyl-3,4,5,6-tetrahydro-2(1H)-pyrimidinon (DMPU), 1,3-Dimethyl-2-
imidazolidinon (DMEU) und 1-Methylimidazol (MI), tribologisch und mechanisch
analysiert und den NMP-, NEP- und GBL-basierten Systemen gegenüber gestellt.
Aufgrund der zahlreichen Versuche konnte festgestellt werden, dass das Lösungsmittel
1-Methylimidazol die gestellten tribologischen Anforderungen, sogar schon bei der für
eine Kolbenschaftbeschichtung maximal zulässigen Aushärtetemperatur (215 °C), am
besten erfüllt.
Die Untersuchungen der chemischen Struktur und der Aushärtekinetik ergaben die
Ursache für diese guten finalen Eigenschaften des PAI-MI-Harzsystems. Dabei wurde
festgestellt, dass 1-Methylimidazol die Imidisierungsreaktion von PAI katalysiert, so dass
die Aushärtereaktion bei niedriger Aushärtetemperatur vollständiger und mit höherer
Reaktionsrate im Vergleich zu konventionellen PAI-Harzen verläuft. Aufgrund der
Bildung von Wasserstoffbrücken-Bindungen zeigte das PAI-MI-Harz bei einer
Aushärtung mit Endtemperatur 215 °C eine doppelt so hohe Steifigkeit im Vergleich zu
konventionellen Harzsystemen.
Weiterhin ergab die tribologische Versuchsreihe, dass die Zugabe von
aminofunktionalisierten TiO2-Submikropartikeln, kombiniert mit gemahlenen kurzen
Kohlenstofffasern, die tribologischen Eigenschaften von PAI-basierten Beschichtungssystemen
in Motortests signifikant verbesserte. Die Aminofunktionalisierung der TiO2-
Submikropartikel verbesserte deren Anbindung an die aminhaltige PAI-Matrix. Die
gemahlenen kurzen Kohlenstofffasern gewährleisteten eine Minimierung der
Schwierigkeiten beim Siebdruckprozess.
Regular physical activity is essential to maintain or even improve an individual’s health. There exist various guidelines on how much individuals should do. Therefore, it is important to monitor performed physical activities during people’s daily routine in order to tell how far they meet professional recommendations. This thesis follows the goal to develop a mobile, personalized physical activity monitoring system applicable for everyday life scenarios. From the mentioned recommendations, this thesis concentrates on monitoring aerobic physical activity. Two main objectives are defined in this context. On the one hand, the goal is to estimate the intensity of performed activities: To distinguish activities of light, moderate or vigorous effort. On the other hand, to give a more detailed description of an individual’s daily routine, the goal is to recognize basic aerobic activities (such as walk, run or cycle) and basic postures (lie, sit and stand).
With recent progress in wearable sensing and computing the technological tools largely exist nowadays to create the envisioned physical activity monitoring system. Therefore, the focus of this thesis is on the development of new approaches for physical activity recognition and intensity estimation, which extend the applicability of such systems. In order to make physical activity monitoring feasible in everyday life scenarios, the thesis deals with questions such as 1) how to handle a wide range of e.g.
everyday, household or sport activities and 2) how to handle various potential users. Moreover, this thesis deals with the realistic scenario where either the currently performed activity or the current user is unknown during the development and training
phase of activity monitoring applications. To answer these questions, this thesis proposes and developes novel algorithms, models and evaluation techniques, and performs thorough experiments to prove their validity.
The contributions of this thesis are both of theoretical and of practical value. Addressing the challenge of creating robust activity monitoring systems for everyday life the concept of other activities is introduced, various models are proposed and validated. Another key challenge is that complex activity recognition tasks exceed the potential of existing classification algorithms. Therefore, this thesis introduces a confidence-based extension of the well known AdaBoost.M1 algorithm, called ConfAdaBoost.M1. Thorough experiments show its significant performance improvement compared to commonly used boosting methods. A further major theoretical contribution is the introduction and validation of a new general concept for the personalization of physical activity recognition applications, and the development of a novel algorithm (called Dependent Experts) based on this concept. A major contribution of practical value is the introduction of a new evaluation technique (called leave-one-activity-out) to simulate when performing previously unknown activities in a physical activity monitoring system. Furthermore, the creation and benchmarking of publicly available physical activity monitoring datasets within this thesis are directly benefiting the research community. Finally, the thesis deals with issues related to the implementation of the proposed methods, in order to realize the envisioned mobile system and integrate it into a full healthcare application for aerobic activity monitoring and support in daily life.
Perceptual grouping is an integral part of visual object recognition. It organizes elements within our visual field according to a set of heuristics (grouping principles), most of which are not well understood. To identify their temporal processing dynamics (i.e., to identify whether they rely on neuronal feedforward or recurrent activation), we introduce the primed flanker task that is based on a firm empirical and theoretical background. In three sets of experiments, participants responded to visual stimuli that were either grouped by (1) similarity of brightness, shape, or size, (2) symmetry and closure, or (3) Good Gestalt. We investigated whether these grouping cues were effective in rapid visuomotor processing (i.e., in terms of response times, error rates, and priming effects) and whether the results met theory-driven indicators of feedforward processing. (1) In the first set of experiments with similarity cues, we varied subjective grouping strength and found that stronger grouping in the targets enhanced overall response times while stronger grouping in the primes enhanced priming effects in motor responses. We also obtained differences between rapid visuomotor processing and the subjective impression with cues of brightness and shape but not with cues of brightness and size. These results show that the primed flanker task is an objective measure for comparing different feedforward-transmitted groupings. (2) In the second set of experiments, we used the task to study grouping by symmetry and grouping by closure that are more complex than similarity cues. We obtained results that were mostly in accordance with a feedforward model. Some other factors (line of view, orientation of the symmetry axis) were irrelevant for processing of symmetry cues. Thus, these experiments suggest that closure and (possibly) viewpoint-independent symmetry cues are extracted rapidly during the first feedforward wave of neuronal processing. (3) In the third set of experiments, we used the task to study grouping by Good Gestalt (i.e., visual completion in occluded shapes). By varying the amount of occlusion, we found that the processing was in accordance with a feedforward model only when occlusion was very limited. Thus, these experiments suggest that Good Gestalt is not extracted rapidly during the first feedforward wave of neuronal processing but relies on recurrent activation. I conclude (1) that the primed flanker task is an excellent tool to identify and compare the processing characteristics of different grouping cues by behavioral means, (2) that grouping strength and other factors are strongly modulating these processing characteristics, which (3) challenges a dichotomous classification of grouping cues based on feedforward vs. recurrent processing (incremental grouping theory, Roelfsema, 2006), and (4) that a focus on temporal processing dynamics is necessary to understand perceptual grouping.
Pedestrian Flow Models
(2014)
There have been many crowd disasters because of poor planning of the events. Pedestrian models are useful in analysing the behavior of pedestrians in advance to the events so that no pedestrians will be harmed during the event. This thesis deals with pedestrian flow models on microscopic, hydrodynamic and scalar scales. By following the Hughes' approach, who describes the crowd as a thinking fluid, we use the solution of the Eikonal equation to compute the optimal path for pedestrians. We start with the microscopic model for pedestrian flow and then derive the hydrodynamic and scalar models from it. We use particle methods to solve the governing equations. Moreover, we have coupled a mesh free particle method to the fixed grid for solving the Eikonal equation. We consider an example with a large number of pedestrians to investigate our models for different settings of obstacles and for different parameters. We also consider the pedestrian flow in a straight corridor and through T-junction and compare our numerical results with the experiments. A part of this work is devoted for finding a mesh free method to solve the Eikonal equation. Most of the available methods to solve the Eikonal equation are restricted to either cartesian grid or triangulated grid. In this context, we propose a mesh free method to solve the Eikonal equation, which can be applicable to any arbitrary grid and useful for the complex geometries.
We argue that the concepts of resilience in engineering science and robustness in mathematical optimization are strongly related. Using evacuation planning as an example application, we demonstrate optimization techniques to improve solution resilience. These include a direct modelling of the uncertainty for stochastic or robust optimization, as well as taking multiple objective functions into account.
Gegenwärtig stellen die hohen Stückkosten das wesentliche Hemmnis für die Marktdurchdringung
endlosfaserverstärkter Bauteile dar. Das umfassende Ziel dieser
Arbeit war daher die Senkung der Prozesskosten durch die Steigerung der Prozessgeschwindigkeit.
Ansatzpunkt bildete der zeitintensive Imprägnierungsvorgang, welcher
durch die Verwendung einer in orthogonaler und planarer Richtung ablaufenden
2D-Imprägnierung optimiert wurde.
In der Analysephase wurden grundlegende Untersuchungen mit einer semi-kontinuierlich
arbeitenden Intervallheißpresse durchgeführt. Dabei zeigten sich komplexe
Wechselwirkungen zwischen inhomogenen Temperatureinstellungen, vorliegender
Druckverteilung, planarem Fließverhalten des Polymers und der resultierenden Imprägnierungsqualität.
Als vorteilhafte Prozessbedingung wurden Polymerfließvorgänge
in Richtung der offenen seitlichen und vorderen Werkzeugkante identifiziert,
welche durch die bei höheren Randtemperaturen vorliegende Druckverteilung begünstigt
werden. Mit einem eigens dafür entwickelten Presswerkzeug ist die prinzipielle
Vorteilhaftigkeit einer Kombination aus orthogonalem und planarem Polymerfließen
auf die Imprägnierungsgeschwindigkeit nachgewiesen worden. Die durchgeführte
Parameterstudie verdeutlicht das Potential durch die Verkürzung der Imprägnierungsdauer
um 33 %. Bei der Analyse der Druckprofile ist für den Übergangsbereich
von der Heiz- zur Kühlzone ein signifikanter Druckabfall festgestellt worden. Um
die dadurch bedingte Dekonsolidierung während der Solidifikation zu verhindern,
wurde ein an das Schwindungsverhalten des Laminats angepasstes Werkzeugdesign
für den Übergangsbereich entwickelt. Dadurch konnte die Reduktion des applizierten
Prozessdrucks verhindert und die Verschlechterung der Organoblechqualität
während der Abkühlung ausgeschlossen werden. Für die Modellierung des
Imprägnierungsvorgangs wurde das B-Faktor-Modell von Mayer durch die Integration
der vom Verarbeitungsdruck abhängigen Sättigungspermeabilität erweitert. Dadurch
wird die Abbildung von Prozessen mit nicht konstantem Prozessdruck ermöglicht.
Die Ergebnisse der Arbeit bilden die Grundlage für die effektive Prozessgestaltung
durch ein materialspezifisches Anlagendesign und die Wahl vorteilhafter Prozessparameter
von der Einzel- bis zur Serienproduktion.
Optical character recognition (OCR) of machine printed text is ubiquitously considered as a solved problem. However, error free OCR of degraded (broken and merged) and noisy text is still challenging for modern OCR systems. OCR of degraded text with high accuracy is very important due to many applications in business, industry and large scale document digitization projects. This thesis presents a new OCR method for degraded
text recognition by introducing a combined ANN/HMM OCR approach. The approach
provides significantly better performance in comparison with state-of-the-art HMM based OCR methods and existing open source OCR systems. In addition, the thesis introduces novel applications of ANNs and HMMs for document image preprocessing and recognition of low resolution text. Furthermore, the thesis provides psychophysical experiments to determine the effect of letter permutation in visual word recognition of Latin and Cursive
script languages.
HMMs and ANNs are widely employed pattern recognition paradigms and have been
used in numerous pattern classification problems. This work presents a simple and novel method for combining the HMMs and ANNs in application to segmentation free OCR of degraded text. HMMs and ANNs are powerful pattern recognition strategies and their combination is interesting to improve current state-of-the-art research in OCR. Mostly, previous attempts in combining the HMMs and ANNs were focused on applying ANNs
as approximation of the probability density function or as a neural vector quantizer for HMMs. These methods either require combined NN/HMM training criteria [ECBG-MZM11] or they use complex neural network architecture like time delay or space displacement neural networks [BLNB95]. However, in this work neural networks are used as discriminative feature extractor, in combination with novel text line scanning mechanism, to extract discriminative features from unsegmented text lines. The features are
processed by HMMs to provide segmentation free text line recognition. The ANN/HMM modules are trained separately on a common dataset by using standard machine learning procedures. The proposed ANN/HMM OCR system also realizes to some extent several cognitive reading based strategies during the OCR. On a dataset of 1,060 degraded text lines extracted from the widely used UNLV-ISRI benchmark database [TNBC99], the presented system achieves a 30% reduction in error rate as compared to Google’s Tesseract OCR system [Smi13] and 43% reduction in error as compared to OCRopus OCR system [Bre08], which are the best open source OCR systems available today.
In addition, this thesis introduces new applications of HMMs and ANNs in OCR and document images preprocessing. First, an HMMs-based segmentation free OCR approach is presented for recognition of low resolution text. OCR of low resolution text is quite important due to presence of low resolution text in screen-shots, web images and video captions. OCR of low resolution text is challenging because of antialiased rendering and use of very small font size. The characters in low resolution text are usually joined to each other and they may appear differently at different locations on computer screen. This
work presents the use of HMMs in optical recognition of low resolution isolated characters and text lines. The evaluation of the proposed method shows that HMMs-based OCR techniques works quite well and reaches the performance of specialized approaches for OCR of low resolution text.
Then, this thesis presents novel applications of ANNs for automatic script recognition and orientation detection. Script recognition determines the written script on the page for the application of an appropriate character recognition algorithm. Orientation detection detects and corrects the deviation of the document’s orientation angle from the horizontal direction. Both, script recognition and orientation detection, are important preprocessing steps in developing robust OCR systems. In this work, instead of extracting handcrafted features, convolutional neural networks are used to extract relevant discriminative features for each classification task. The proposed method resulted in more than 95% script recognition accuracy on various multi-script documents at connected component level
and 100% page orientation detection accuracy for Urdu documents.
Human reading is a nearly analogous cognitive process to OCR that involves decoding of printed symbols into meanings. Studying the cognitive reading behavior may help in building a robust machine reading strategy. This thesis presents a behavioral study that deals on how cognitive system works in visual recognition of words and permuted non-words. The objective of this study is to determine the impact of overall word shape
in visual word recognition process. The permutation is considered as a source of shape degradation and visual appearance of actual words can be distorted by changing the constituent letter positions inside the words. The study proposes a hypothesis that reading of words and permuted non-words are two distinct mental level processes, and people use
different strategies in handling permuted non-words as compared to normal words. The hypothesis is tested by conducting psychophysical experiments in visual recognition of words from orthographically different languages i.e. Urdu, German and English. Experimental data is analyzed using analysis of variance (ANOVA) and distribution free rank tests to determine significance differences in response time latencies for two classes of data. The results support the presented hypothesis and the findings are consistent with
the dual route theories of reading.