Diploma Thesis
Refine
Year of publication
Document Type
- Diploma Thesis (35) (remove)
Has Fulltext
- yes (35)
Keywords
Faculty / Organisational entity
Hamiltonian daemons allow the transfer of energy from systems with very fast degrees
of freedom to systems with slower ones across several orders of magnitude. They act on
small scales and can be regarded as micro-engines.
Such daemons were previously described in the classical as well as the quantum me-
chanical regime. In this thesis the semi-classical regime is examined, where quantum
phenomena occur as corrections to classical systems. Here, the focus is on numerical
simulations.
First some introductory models are examined. They are concerned with quantum
tunneling, since it occurs as an important quantum correction, as well as with the
capture and decay of bound states, since this represents the transition between the
dynamical phases of a daemon: adiabatic decoupling and downconversion.
The examinations are carried out using wave functions, as solutions to the Schrödinger
equation, and by means of Wigner functions in a quantum mechanical phase-space in
the framework of the Weyl-Wigner-Groenewold-Moyal formalism. For one these Wigner
functions are computed from the wave functions, but they are also obtained from a
numerical method based on the Moyal equation, which will be introduced here.
After developing this methodology, it is employed in the study of a daemon system
with a tilted washboard potential. The daemon behavior is studied with regards to
quantum corrections, especially in phase-space and concerning Kruskal’s theorem, which
describes the capture of phase-space flow via a time-dependent separatrix.
Lastly the semi-classically quantized phase-space will be discussed as a basis for a
combined description of both classical and quantum daemons. The behavior of the
energy spectrum in the deep quantum regime is explained by dynamical tunneling pro-
cesses.
Im Projekt MAFoaM - Modular Algorithms for closed Foam Mechanics - des
Fraunhofer ITWM in Zusammenarbeit mit dem Fraunhofer IMWS wurde eine Methode zur Analyse und Simulation geschlossenzelliger PMI-Hartschäume entwickelt. Die Zellstruktur der Hartschäume wurde auf Basis von CT-Aufnahmen modelliert, um ihr Verformungs- und Versagensverhalten zu simulieren, d.h. wie sich die Schäume unter Belastungen bis hin zum totalen Defekt verhalten.
In der Diplomarbeit wird die
bildanalytische Zellrekonstruktion für PMI-Hartschäume automatisiert. Die Zellrekonstruktion dient der Bestimmung von Mikrostrukturgrößen,
also geometrischer Eigenschaften der Schaumzellen, wie z.B.
Mittelwert und Varianz des Zellvolumens oder der Zelloberfläche.
Eine grundlegende Voraussetzung für die Entwicklung von teilautonomer hydraulischen Maschinen ist die automatisierte Bewegung der notwendigen Strukturen. Die Anforderungen an diese Bewegungen sind hoch und aus diesem Grund sind einfache Reglerstrukturen ohne konkrete Streckenkenntnis nicht ausreichend. Die Beschreibung des Streckenkennmodells ist bei hydraulischen Maschinen sehr komplex und zeitaufwendig. Die Modellierung mit theoretischen auf physikalischen Ansätzen beruhenden Methoden ist daher unwirtschaftlich. Aufgrund dessen müssen für die Entwicklung von teilautonomen Maschinen alternative Strategien zur Beschreibung der Dynamik entwickelt werden. Im Rahmen der Diplomarbeit wurde die Machbarkeit von Neuronalen Netzen zur modellbasierten Geschwindigkeitsregelung von hydraulischen Zylindern an einem Bagger untersucht. Dabei wurden unterschiedliche Anregungssignale überprüft und das Regelverhalten des Neuronalen-Reglers auf einem realen Versuchsträger verifiziert. Es hat sich gezeigt, dass sich die datenbasierten Methoden zur Regelung von elektrohydraulischen Baggern eignen. Im Vergleich zu theoretischen Ansätzen konnte eine Steigerung der Regelgüte, bei gleichzeitiger Reduzierung des Arbeitsaufwandes von mehreren Monaten hinzu wenigen Tagen, erreicht werden.
Assistenzfunktionen stellen einen Meilenstein bei der Automatisierung hydraulischer Baumaschinen dar. Zur Regelung der Position des Tool Center Points von Hydraulikbaggern, den komplexesten Vertretern dieser Klasse, können inverse Modelle als Teil einer Vorsteuerung genutzt werden. In dieser Arbeit werden hierzu physikalische und datenbasierte Modellierungsansätze in Form von hybriden Modellen vereint. Die Zielanwendung stellt eine Assistenzfunktion zur automatisierten Durchführung von Planziehbewegungen dar. Es konnte gezeigt werden, dass durch hybride Modelle eine verbesserte Güte und höhere Robustheit gegenüber Schwingungen im Vergleich zu rein datenbasierten Ansätzen erzielt werden kann. Die untersuchten Ansätze lassen sich auf andere Maschinen übertragen. Die Validierung erfolgte an einem realen Versuchsträger, dem Mobilbagger JCB Hydradig. Zur Systemidentifikation generierte Daten wurden darüber hinaus mittels Methoden des unüberwachten Lernens auf Vollständigkeit untersucht. Hierbei konnte der Effekt der konzeptbedingten Datenlücken festgestellt und untersucht werden, welcher eine Genauigkeitsgrenze bezüglich der inversen Modellierung darstellt.
The understanding of the many fields of control theory can be supported using demonstrators, as
influencing a system to achieve a desired behaviour is the main purpose of control theory. This
thesis covers the setup, implementation and controlling of an inverse multi-pendulum on a cart.
Construction design and brief dimensioning will be described. In addition, a drive to move the
cart and influence the system will be chosen, which will be controlled using industrial automation
technology components. The state feedback controller introduced requires state measurement that
is made available by a radio sensor designed in this thesis. A web user interface is designed and
in addition the data processing structure involving the industrial automation technology and the
custom radio sensor is implemented. The pendulum is then controlled and stabilized by an optimal
controller. Furthermore, an upswing control approach is pointed out using numerical optimal
control.
Im Rahmen dieser Diplomarbeit konnte das etablierte direkte Laserschreiben um einen zusätzlichen
abregenden Strahlengang ergänzt werden, dessen Einfluss im Hinblick auf das
Polymerisationsverhalten untersucht wurde.
Bei dem verwendeten (Negativ-) Photolack IP-L 780 konnte durch stimulierte Emission die
Generierung von Radikalen unterbunden werden, indem die an- und abregenden Laserfokusse
räumlich überlagert wurden. Dabei stellte sich heraus, dass ein relativ großer Intensitätsbereich
den erwünschten Effekt hervorruft.
Die in der Fluoreszenzmikroskopie seit langem verwendeten Abregungsmoden (doughnut und
bottleshape) konnten mithilfe von räumlichen Lichtmodulatoren und dem speziell für diesen
Zweck entwickelten Programm zur PSF-Darstellung sehr gut erzeugt werden. Dabei fanden
neben den Zernike-Polynomen auch inverse Gauß-Funktionen zur Aberrationskorrektur Anwendung.
Auch sogenannte Multifokusse (lateral und axial) konnten durch eine geeignete
Gewichtung der Zernike-Polynome zuverlässig generiert werden, wobei die dafür notwendigen
Phasen- und Amplitudenpattern mithilfe eines entsprechenden iterativen Algorithmus
(GSA3D) berechnet wurden.
Der laterale Polymerisationsdurchmesser konnte sowohl durch die doughnut-Mode, als auch
durch den lateralen Multifokus von 240 nm um ca. 50 % auf ungefähr 120 nm reduziert
werden. Der stimulierende Teil der doughnut-Mode, der entlang der Schreibrichtung dem
Polymerisationsfokus vorauseilt (oder hinterherläuft), führt zu keinerlei relevanten Unterschieden
im Vergleich zum Multifokus.
Dies konnte zudem durch ein Experiment verifiziert werden, bei dem die An- und Abregungsfokusse
entlang der Schreibrichtung um verschiedene Distanzen versetzt positioniert
wurden. Ob der stimulierende Laser den Photolack räumlich (und damit zeitlich) einige hundert
Nanometer (bzw. einige Millisekunden) vor oder nach dem anregenden beeinflusst, zeigt
dabei keinerlei Unterschiede. Je größer der Versatz, desto geringer die stimulierende Wirkung.
Demnach scheint der abregende Laser den Photoinitiator (DETC) zu stimulierter Emission
zu bringen, bevor dieser seine absorbierte Energie zur Spaltung und damit zum Polymerisationsbeginn
nutzen kann.
Der axiale Polymerisationsdurchmesser konnte sowohl mit der etablierten bottleshape-Mode,
als auch mit dem hier entwickelten axialen Multifokus von ca. 400 nm um 50% auf unge-
57
5 Zusammenfassung und Ausblick Julian Hering
fähr 200 nm reduziert werden. Bei Letzterem war der Intensitätsring in der xy-Ebene bei
z = 0 deutlich stärker ausgeprägt als bei der bottleshape-Mode, was zu einer erhöhten
lateralen Polymerisationsunterdrückung und damit zu einem schlechteren Aspektverhältnis
führte. Nichtsdestotrotz konnte dadurch im Rahmen dieser Arbeit erstmals STED-DLW mittels
räumlicher Lichtmodulatoren betrieben werden.
Die mit starren Phasenmasken bereits erreichten Linienabmessungen von bis zu 65 nm lateral
und 180 nm axial konnten somit zwar nicht erreicht werden, jedoch ist in dieser Hinsicht eine
deutliche Verbesserung gegenüber dem zuvor verwendeten normalen DLW unverkennbar. Leider
zeigt die Kombination mit STED jedoch neue Herausforderungen auf. So wurde z.B. die
Strukturqualität beim Anfahren und Abbremsen des Piezos enorm verschlechtert. Auch die
Generierung mancher Abregungsmoden erwies sich als äußerst mühsam und zeitaufwendig.
Aus diesem Grund wird in Zukunft ein automatisiertes Vorgehen bei der Aberrationskorrektur
angestrebt, sowie eine aufeinander abgestimmte Ansteuerung der jeweiligen Laserleistungen.
Der Strukturierungszeitaufwand aufgrund der verwendeten Geschwindigkeit von 100 μm/s
kann in Zukunft ebenfalls verringert werden, da das Auslenkverhalten der beiden Fokusse in
einem Radius von 50 μm mittels Galvanospiegel-System weitestgehend gleich ist. Zu diesem
Zweck müssen allerdings je nach verwendeter Geschwindigkeit die nötigen Laserleistungen
ermittelt werden. Außerdem muss die räumliche Formkonstanz der An- und Abregungsmoden
bei einer Auslenkung um bis zu 50 μm untersucht werden. Durch den Verzicht auf das
Piezo-System würde sich das Problem der schlechten Qualität an den Strukturkanten eventuell
erübrigen.
Zudem lässt sich durch die Verwendung räumlicher Lichtmodulatoren der Einsatz verwendeter
Abregungsmoden weiter ausbauen. Axiale Multifokusse mit einer Halbwertslücke von
unter 300 nm und einem Intensitätsminimum von unter 30% sind theoretisch kein Problem.
Es gilt demnach, diese Moden zu generieren und auf deren Verbesserung hinsichtlich Linienbreite
und -länge zu untersuchen. Ein Test zur Ermittlung des Signal zu Rausch Verhältnisses
der jeweiligen Moden über den gesamten möglichen Bereich der stimulierten Emission würde
beispielsweise stark zur Charakterisierung der Multifokusse beitragen.
Bulk-boundary correspondence in non-equilibrium dynamics of one-dimensional topological insulators
(2017)
Dynamical phase transitions (DPT) are receiving a rising interest. They are known to behave analogously to
equilibrium phase transitions (EPT) to a large extend. However, it is easy to see that DPT can occur in finite
systems, while EPT are only possible in the thermodynamic limit. So far it is not clear how far the analogy of
DPT and EPT goes. It was suggested, that there is a relation between topological phase transitions (TPT)
and DPT, but many open questions remain.
Typically, to study DPT, the Loschmidt echo (LE) after a quench is investigated, where DPT are visible as
singularities. For one-dimensional systems, each singularity is connected to a certain critical time scale, which
is given by the dispersion in the chain.
In topological free-fermion models with winding numbers 0 or 1, only the LE in periodic boundary conditions
(PBC) has been investigated. In open boundary conditions (OBC), these models are characterized by symmetry
protected edge modes in the topologically non-trivial phase. It is completely unclear how these modes affect
DPT. We investigate systems with PBC governed by multiple time scales with a Z topological invariant. In
OBC, we provide numerical evidence for the presence of bulk-boundary correspondence in DPT in quenches
across a TPT.
Zur Untersuchung der Zell-Topographie-Interaktionen werden im Rahmen dieser Arbeit zwei Arten von Mikrostrukturen mittels Direktem Laser Schreiben erzeugt, einerseits Pfosten unterschiedlicher Abstände und andererseits Pfosten-Steg-Strukturen mit unterschiedlicher Steghöhe. Auf diesen Topographien werden die untersuchten Zellen ausgesät und ihr Verhalten mit Zeitrafferaufnahmen über einen Zeitraum von 24 h beobachtet. Aus den Zellkoordinaten und den daraus erhaltenen Zellpfaden wird das Migrationsverhalten der Zellen im Hinblick auf den lenkenden Einfluss der betrachteten Topographie analysiert.
Konzeptionelle Studien der letzten Jahre deuten darauf hin, dass für eine Verwurzelung von Nachhaltigkeit in modernen Unternehmen eine Veränderung der Denkweise der Unternehmensentscheidungsträger notwendig ist. Dabei werden Verantwortung und nachhaltiges Handeln nicht ausschließlich als Instrumente zur Erreichung ökonomischer Ziele eingesetzt, sondern bilden, verankert in der persönlichen Spiritualität, fundamentale Prinzipien und eigenständige Werte. Ziel der vorliegenden Arbeit ist es deshalb, die Zusammenhänge zwischen Spiritualität und unternehmerischer Nachhaltigkeit zu beleuchten. Mit Hilfe von sechs halbstrukturierten Interviews mit GründerInnen und Un-ternehmensführerInnen kleiner und mittlerer Unternehmen des Dienstleistungssektors untersuchte die Autorin, inwiefern die Spiritualität der UnternehmerInnen einen Einfluss auf nachhaltige Entscheidungen in ihren Unternehmen hat. Sie konnte herausfinden, dass Werte und Ansichten, die die individuelle Spiritualität der UnternehmerInnen ausdrücken, als Motivation für nachhaltiges unternehmerisches Handeln dienen können. Überdies identifizierte sie einzelne Werte und Ansichten, die als Treiber für einzelne Dimensionen der Nachhaltigkeit fungieren. Weiterhin entwickelte sie ein Modell, das sowohl persönliche Werte und Ansichten als Teil der Spiritualität, als auch die in der Literatur diskutierten Konzepte Spiritualität am Arbeitsplatz und spirituelle Führung integriert. Dieses Modell kann als Grundlage für weitere Forschung im Kontext von Spiritualität und unternehmerische Nachhaltigkeit dienen. Die Ergebnisse implizieren, dass in Bildung und Gesellschaft verankerte Aktivitäten zur Unterstützung von Spiritualität eine nachhaltige Entwicklung innerhalb und außerhalb von Unternehmen vorantreiben können.
This diploma thesis sets out to analyse the applicability of the instrument ’European Grouping of
Territorial Cooperation (EGTC)’ in the transnational and interregional non-contiguous cooperation.
EGTCs that are applied in spatially non-contiguous cooperations are called ’Network-EGTCs’. As
no scientific research about network-EGTCs has been made so far, this diploma thesis fills this
research gap.
As a basis for the analysis, a literature review on the instrument EGTC in general and its historic
background was conducted. In addition the scientific literature has been searched for characteristics
of non-contiguous cooperations and different stakeholders were interviewed for their
estimations about network-EGTCs. The so far existing and planned network-EGTCs have been
explored. Out of these network-EGTCs two case studies – the E.G.T.C. Amphictyony and the
planned CETC-EGTC – have been examined in depth. Their characteristics have further been
compared with the information about EGTCs and non contiguous-cooperations in general.
It was found out that network-EGTCs show advantages from ordinary non-contiguous cooperations.
Additionally, it was discovered that network-EGTCs do not differ in their character as much
as it had been expected from EGTCs established in the cross-border cooperation. This applies
also to the establishment process as well as to the fulfilment of the instrument’s potentials. In
general all EGTCs show discrepancies between planning and practice. Only a few differences
have been discovered. Contrary to expectation network-EGTCs show only certain disadvantages
but also advantages compared to EGTCs in the cross-border cooperation.
This thesis delivers evidence that EGTCs are applicable in the transnational and interregional
cooperation when certain preconditions are fulfilled. Then they can contribute to a successful
transnational and interregional cooperation.
Recommendations were given to territorial non-contiguous cooperations that are considering to
establish an EGTC.
It is expected that more network-EGTCs will be established in the future due to the higher experience
and knowledge about network-EGTCs.
Tropical geometry is a very new mathematical domain. The appearance of
tropical geometry was motivated by its deep relations to other mathematical
branches. These include algebraic geometry, symplectic geometry, complex
analysis, combinatorics and mathematical biology.
In this work we see some more relations between algebraic geometry and
tropical geometry. Our aim is to prove a one-to-one correspondence between
the divisor classes on the moduli space of n-pointed rational stable curves
and the divisors of the moduli space of n-pointed abstract tropical curves.
Thus we state some results of the algebraic case first. In algebraic geometry
these moduli spaces are well understood. In particular, the group of divisor
classes is calculated by S. Keel. We recall the needed results in chapter one.
For the proof of the correspondence we use some results of toric geometry.
Further we want to show an equality of the Chow groups of a special toric
variety and the algebraic moduli space. Thus we state some results of the
toric geometry as well.
This thesis tries to discover some connection between algebraic and tropical
geometry. Thus we also need the corresponding tropical objects to the
algebraic objects. Therefore we give some necessary definitions such as fan,
tropical fan, morphisms between tropical fans, divisors or the topical moduli
space of all n-marked tropical curves. Since we need it, we show that the
tropical moduli space can be embedded as a tropical fan.
After this preparatory work we prove that the group of divisor classes in
v
classical algebraic geometry has it equivalence in tropical geometry. For this
it is useful to give a map from the group of divisor classes of the algebraic
moduli space to the group of divisors of the tropical moduli space. Our aim is
to prove the bijectivity of this map in chapter three. On the way we discover
a deep connection between the algebraic moduli space and the toric variety
given by the tropical fan of the tropical moduli space.
In this work a 3-dimensional contact elasticity problem for a thin fiber and a rigid foundation is studied. We describe the contact condition by a linear Robin-condition (by meaning of the penalized and linearized non-penetration and friction conditions).
The dimension of the problem is reduced by an asymptotic approach. Scaling the Robin parameters appropriately we obtain a recurrent chain of Neumann type boundary value problems which are considered only in the microscopic scale. The problem for the leading term is a homogeneous Neumann problem, hence the leading term depends only on the slow variable. This motivates the choice of a multiplicative ansatz in the asymptotic expansion.
The theoretical results are illustrated with numerical examples performed with a commercial finite-element software-tool.
In this thesis we present the implementation of libraries center.lib and perron.lib for the non-commutative extension Plural of the Computer Algebra System Singular. The library center.lib was designed for the computation of elements of the centralizer of a set of elements and the center of a non-commutative polynomial algebra. It also provides solutions to related problems. The library perron.lib contains a procedure for the computation of relations between a set of pairwise commuting polynomials. The thesis comprises the theory behind the libraries, aspects of the implementation and some applications of the developed algorithms. Moreover, we provide extensive benchmarks for the computation of elements of the center. Some of our examples were never computed before.
The scope of this diploma thesis is to examine the four generations of asset pricing models and the corresponding volatility dynamics which have been devepoled so far. We proceed as follows: In chapter 1 we give a short repetition of the Black-Scholes first generation model which assumes a constant volatility and we show that volatility should not be modeled as constant by examining statistical data and introducing the notion of implied volatility. In chapter 2, we examine the simplest models that are able to produce smiles or skews - local volatility models. These are called second generation models. Local volatility models model the volatility as a function of the stock price and time. We start with the work of Dupire, show how local volatility models can be calibrated and end with a detailed discussion of the constant elasticity of volatility model. Chapter 3 focuses on the Heston model which represents the class of the stochastic volatility models, which assume that the volatility itself is driven by a stochastic process. These are called third generation models. We introduce the model structure, derive a partial differential pricing equation, give a closed-form solution for European calls by solving this equation and explain how the model is calibrated. The last part of chapter 3 then deals with the limits and the mis-specifications of the Heston model, in particular for recent exotic options like reverse cliquets, Accumulators or Napoleons. In chapter 4 we then introduce the Bergomi forward variance model which is called fourth generation model as a consequence of the limits of the Heston model explained in chapter 3. The Bergomi model is a stochastic local volatility model - the spot price is modeled as a constant elasticity of volatility diffusion and its volatility parameters are functions of the so called forward variances which are specified as stochastic processes. We start with the model specification, derive a partial differential pricing equation, show how the model has to be calibrated and end with pricing examples and a concluding discussion.
This work is concerned with dynamic flow problems, especially maximal dynamic flows and earliest arrival flows - also called universally maximal flows. First of all, a survey of known results about existence, computation and approximation of earliest arrival flows is given. For the special case of series-parallel graphs a polynomial algorithm for computing maximal dynamic flows is presented and this maximal dynamic flow is proven to be an earliest arrival flow.
In an undirected graph G we associate costs and weights to each edge. The weight-constrained minimum spanning tree problem is to find a spanning tree of total edge weight at most a given value W and minimum total costs under this restriction. In this thesis a literature overview on this NP-hard problem, theoretical properties concerning the convex hull and the Lagrangian relaxation are given. We present also some in- and exclusion-test for this problem. We apply a ranking algorithm and the method of approximation through decomposition to our problem and design also a new branch and bound scheme. The numerical results show that this new solution approach performs better than the existing algorithms.
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
* naive examples which show drawbacks of discrete wavelet transform and windowed Fourier transform; * adaptive partition (with a 'best basis' approach) of speech-like signals by means of local trigonometric bases with orthonormal windows. * extraction of formant-like features from the cosine transform; * further proceedingings for classification of vowels or voiced speech are suggested at the end.
In der Arbeit sollen ausgewählte technische Indikatoren und deren Handelsstrategien hinsichtlich ihres Verhaltens bzw. ihrer Profitabilität in verschiedenen Marktphasen untersucht werden. Um das Argument, dass die Indikatoren selbst erfüllend sind, zu entkräften, werden Finanzzeitreihen simuliert und die Indikatoren auf diese angewendet und ausgewertet. Zu diesem Zweck wird zu gegebenen echten Kursdaten ein finanzzeitreihenanalytisches Modell angepasst. Dieses wird zur Simulation von Finanzzeitreihen und damit zur Auswertung der Indikatoren verwendet werden. Durch geeignete Auswahlverfahren sollen verschiedene Handelsstrategien zu Strategien kombiniert werden, um ein besseres Ertrag/Risikoverhältnis zu erreichen als dies bei einzelnen Strategien der Fall wäre.
Using covering problems (CoP) combined with binary search is a well-known and successful solution approach for solving continuous center problems. In this thesis, we show that this is also true for center hub location problems in networks. We introduce and compare various formulations for hub covering problems (HCoP) and analyse the feasibility polyhedron of the most promising one. Computational results using benchmark instances are presented. These results show that the new solution approach performs better in most examples.
Aggregation of Large-Scale Network Flow Problems with Application to Evacuation Planning at SAP
(2005)
Our initial situation is as follows: The blueprint of the ground floor of SAP’s main building the EVZ is given and the open question on how mathematic can support the evacuation’s planning process ? To model evacuation processes in advance as well as for existing buildings two models can be considered: macro- and microscopic models. Microscopic models emphasize the individual movement of evacuees. These models consider individual parameters such as walking speed, reaction time or physical abilities as well as the interaction of evacuees during the evacuation process. Because of the fact that the microscopic model requires lots of data, simulations are taken for implementation. Most of the current approaches concerning simulation are based on cellular automats. In contrast to microscopic models, macroscopic models do not consider individual parameters such as the physical abilities of the evacuees. This means that the evacuees are treated as a homogenous group for which only common characteristics are considered; an average human being is assumed. We do not have that much data as in the case of the microscopic models. Therefore, the macroscopic models are mainly based on optimization approaches. In most cases, a building or any other evacuation object is represented through a static network. A time horizon T is added, in order to be able to describe the evolution of the evacuation process over time. Connecting these two components we finally get a dynamic network. Based on this network, dynamic network flow problems are formulated, which can map evacuation processes. We focused on the macroscopic model in our thesis. Our main focus concerning the transfer from the real world problem (e.g. supporting the evacuation planning) will be the modeling of the blueprint as a dynamic network. After modeling the blueprint as a dynamic network, it will be no problem to give a formulation of a dynamic network flow problem, the so-called evacuation problem, which seeks for an optimal evacuation time. However, we have to solve a static large-scale network flow problem to derive a solution for this formulation. In order to reduce the network size, we will examine the possibility of applying aggregation to the evacuation problem. Aggregation (lat. aggregare = piling, affiliate; lat. aggregatio = accumulation, union; the act of gathering something together) was basically used to reduce the size of general large-scale linear or integer programs. The results gained for the general problem definitions were then applied to the transportation problem and the minimum cost network flow problem. We review this theory in detail and look on how results derived there can be used for the evacuation problem, too.
This diploma thesis examines logistic problems occurring in a container terminal. The thesis focuses on the scheduling of cranes handling containers in a port. Two problems are discussed in detail: the yard crane scheduling of rubber-tired gantry cranes (RMGC) which move freely among the container blocks, and the scheduling of rail-mounted gantry cranes (RMGC) which can only move within a yard zone. The problems are formulated as integer programs. For each of the two problems discussed, two models are presented: In one model, the crane tasks are interpreted as jobs with release times and processing times while in the other model, it is assumed that the tasks can be modeled as generic workload measured in crane minutes. It is shown that the problems are NP-hard in the strong sense. Heuristic solution procedures are developed and evaluated by numerical results. Further ideas which could lead to other solution procedures are presented and some interesting special cases are discussed.
Diese Diplomarbeit gibt eine kurze Einführung in das Gebiet der Diffusionsprozesse (beschrieben als Lösungen stochastischer Differentialgleichungen) und der großen Abweichungen. Mit Methoden aus dem Gebiet der großen Abweichungen wird dann das asymptotische Verhalten des Bayesrisikos für die unterscheidung zweier Diffusionsprozesse untersucht.
Satellite-to-satellite tracking (SST) and satellite gravity gradiometry (SGG), respectively, are two measurement principles in modern satellite geodesy which yield knowledge of the first and second order radial derivative of the earth's gravitational potential at satellite altitude, respectively. A numerical method to compute the gravitational potential on the earth's surface from those observations should be capable of processing huge amounts of observational data. Moreover, it should yield a reconstruction of the gravitational potential at different levels of detail, and it should be possible to reconstruct the gravitational potential from only locally given data. SST and SGG are modeled as ill-posed linear pseudodifferential operator equations with an injective but non-surjective compact operator, which operates between Sobolev spaces of harmonic functions and such ones consisting of their first and second order radial derivatives, respectively. An immediate discretization of the operator equation is obtained by replacing the signal on its right-hand-side either by an interpolating or a smoothing spline which approximates the observational data. Here the noise level and the spatial distribution of the data determine whether spline-interpolation or spline-smoothing is appropriate. The large full linear equation system with positive definite matrix which occurs in the spline-interplation and spline-smoothing problem, respectively, is efficiently solved with the help of the Schwarz alternating algorithm, a domain decomposition method which allows it to split the large linear equation system into several smaller ones which are then solved alernatingly in an iterative procedure. Strongly space-localizing regularization scaling functions and wavelets are used to obtain a multiscale reconstruction of the gravitational potential on the earth's surface. In a numerical experiment the advocated method is successfully applied to reconstruct the earth's gravitational potential from simulated 'exact' and 'error-affected' SGG data on a spherical orbit, using Tikhonov regularization. The applicability of the numerical method is, however, not restricted to data given on a closed orbit but it can also cope with realistic satellite data.
Zuerst einmal werden die Grundlagen der nichtparametrischen Regression sowie die der Kleinste-Quadrate-Schätzer behandelt und unser verwendetes Modell hergeleitet. Kapitel 3 führt dann in die Theorie der gewichteten Kernschätzer ein, wobei auch das asymptotische Verhalten genauer untersucht wird. Des Weiteren wird ein numerischer Algorithmus zur Berechnung der Kernschätzer angegeben. Die Simulationsstudie der gewichteten Kernschätzer anhand von Regressionsdaten und Zeitreihendaten sowie die praktische Beurteilung erfolgen in Kapitel 4 und 5. Reale Zeitreihendaten bilden danach im sechsten Kapitel die Grundlage für die praktische Betrachtung der neuen Schätzer. Im letzten Kapitel folgt dann ein Resümee und ein kleiner Ausblick auf die gewichteten Kernschätzer für allgemeinere Modelle.
While there exist closed-form solutions for vanilla options in the presence of stochastic volatility for nearly a decade, practitioners still depend on numerical methods - in particular the Finite Difference and Monte Carlo methods - in the case of double barrier options. It was only recently that Lipton proposed (semi-)analytical solutions for this special class of path-dependent options. Although he presents two different approaches to derive these solutions, he restricts himself in both cases to a less general model, namely one where the correlation and the interest rate differential are assumed to be zero. Naturally the question arises, if these methods are still applicable for the general stochastic volatility model without these restrictions. In this paper we show that such a generalization fails for both methods. We will explain why this is the case and discuss the consequences of our results.
The flow of a liquid into an empty channel is simulated. The simulation is based on a recently published model for general fluid/liquid/solid systems which eliminates the shear stress singularity at the moving contact line between the liquid/fluid interface and the solid. This model is carefully analyzed for low Reynolds and Capillary numbers, adapted to the channel inflow problem, and implemented. Very convincing numerical results are presented.
Matrices with the consecutive ones property and interval graphs are important notations in the field of applied mathematics. We give a theoretical picture of them in first part. We present the earliest work in interval graphs and matrices with the consecutive ones property pointing out the close relation between them. We pay attention to Tucker's structure theorem on matrices with the consecutive ones property as an essential step that requires a deep considerations. Later on we concentrate on some recent work characterizing the matrices with the consecutive ones property and matrices related to them in the terms of interval digraphs as the latest and most interesting outlook on our topic. Within this framework we introduce a classiffcation of matrices with consecutive ones property and matrices related to them. We describe the applications of matrices with the consecutive ones property and interval graphs in different fields. We make sure to give a general view of application and their close relation to our studying phenomena. Sometimes we mention algorithms that work in certain fields. In the third part we give a polyhedral approach to matrices with the consecutive ones property. We present the weighted consecutive ones problem and its relation to Tucker's matrices. The constraints of the weighted consecutive ones problem are improved by introducing stronger inequalities, based on the latest theorems on polyhedral aspect of consecutive ones property. Finally we implement a separation algorithm of Oswald and Reinhelt on matrices with the consecutive ones property. We would like to mention that we give a complete proof to the theorems when we consider important within our framework. We prove theorems partially when it is worthwhile to have a closer look, and we omit the proof when there are is only an intersection with our studying phenomena.
Das TSP wird auf zeitabhängige Kosten und Wegelängen verallgemeinert, der Komplexitätstatus untersucht, verschiedene Formulierungen verglichen, Spezialfälle untersucht und ein auf Lagrange-Relaxation und Branch&Bound beruhendes exaktes Lösungsverfahren von Lucena erweitert, implementiert und getestet. Für das TDTSP wird die Dimension des ganzzahligen Polyeders bestimmt.
This essay discusses the multileaf collimator leaf sequencing problem, which occurs in every treatment planning in radiation therapy. The problem is to find a good realization in terms of a leaf sequence in the multileaf collimator such that the time needed to deliver the given dose profile is minimized. A mathematical model using an integer programming formulation has been developed. Additionally, a heuristic, based on existing algorithms and an integer programming formulation, has been developed to enhance the quality of the solutions. Comparing the results to those provided by other algorithms, a significant improvement can be observed.
Aus der Körpertheorie ist der Satz von der Normalbasis bekannt , der besagt, dass es zu jeder endlichen Galoiserweiterung L/K ein Element in L gibt, dessen Konjugierte unter der Galoisgruppe von L/K eine K-Basis von L bilden. Ein solches Element wird als regulär in L/K bezeichnet, die zugehörige K-Basis von L heisst Normalbasis. Für einen Zwischenkörper M einer Galoiserweiterung L/K ist nach dem Hauptsatz der Galoistheorie auch L/M galoissch und besitzt infolgedessen eine Normalbasis. Ist ein reguläres Element von L/K auch regulär in L/M für alle Zwischenkörper M von L/K, so wird es vollständig regulär in L/K genannt. Dies wirft die Frage auf, ob es in jeder Galoiserweiterung ein vollständig reguläres Element gibt. Wie sich zeigt, kann diese Frage für alle endlichen Galoiserweiterungen bejaht werden. Ein reguläres Element x einer Galoiserweiterung L/K ist durch zwei Eigenschaften gekennzeichnet: zum einen wird L von x über K erzeugt und zum anderen sind die Konjugierten von x unter der Galoisgruppe von L/K linear unabh"angig über K. Letzteres besagt gerade, dass die Nullstellen des Minimalpolynoms von x über K linear unabhängig über K sind. Hat x diese zweite Eigenschaft, so heisst x frei über K. Ist x ein Element aus einer algebraische Hülle A von K, so wird x vollst"andig frei über K genannt, wenn für jeden Zwischenkörper M von A/K die Nullstellen des Minimalpolynoms von x über M linear unabhängig über M sind. Es lässt sich zeigen, dass ein x aus A genau dann vollständig frei über K ist, wenn x frei über allen Zwischenkörpern M von N/K ist, wobei N den Zerfällungskörper des Minimalpolynoms von x über K bezeichnet. Dass es in jeder endlichen Galoiserweiterung L/K ein vollständig reguläres Element gibt, ist daher ein Spezialfall der Aussage, dass es in jeder endlichen, separablen Körpererweiterung L/K ein über K vollständig freies Element gibt, welches L erzeugt. Das erste Ziel dieser Arbeit ist deshalb der Beweis, dass jede endliche, separable Körpererweiterung L/K von einem über K vollständig freien Element erzeugt wird. Ist K ein Körper mit unendlich vielen Elementen, so ist der Beweis eine Verallgemeinerung des Beweises von E. Artin zur Existenz von Normalbasen in Galoiserweiterungen. Weitaus schwieriger ist der Fall, wenn K ein endlicher Körper ist. Dann ist L/K stets eine Galoiserweiterung und die über K vollständig freien Elemente, die L über K erzeugen, sind genau diejenigen, die in L/K vollständig regulär sind. Ist G die Galoisgruppe von L/K, so lässt sich L zu einem KG-Modul machen, der als solcher wegen des Satzes von der Normalbasis sogar isomorph zu KG ist. Ein Element aus L ist genau dann regulär in L/K, wenn es in keinem echten KG-Teilmodul von L liegt. Entsprechendes gilt natürlich auch für alle Zwischenkörper M von L/K. Das heisst, ein Element aus L ist genau dann vollständig regulär in L/K, falls es für keinen Zwischenkörper M von L/K in einem echten M U -Teilmodul von L liegt; hierbei bezeichnet U die Galoisgruppe von L/M . In Abschnitt 2 wird gezeigt, dass der Beweis auf den Fall, dass G eine zyklische Gruppe von Primzahlpotenzordnung ist, reduziert werden kann. Durch nähere Betrachtung der M U -Teilmoduln von L für diese Situation, wobei bereits allgemeiner K und L nicht als endlich vorausgesetzt werden, lässt sich dann zeigen, dass es stets ein Element in L gibt, das vollständig regulär in L/K ist. Die Tatsache, dass es in jeder Galoiserweiterung L/K ein vollständig reguläres Element gibt, lässt natürlich nicht darauf schliessen, dass jedes reguläre Element in L/K auch schon vollst"andig regulär in L/K ist. Dies leitet über zu der von C. C. Faith gestellten Frage, wann in einer endlichen, abelschen Galoiserweiterung jedes reguläre Element schon vollständig regulär ist; eine solche Galoiserweiterung heisst dann vollst"andig regulär. Im letzten Abschnitt wird diese Frage für Galoiserweiterungen L/K mit zyklischer Galoisgruppe G von Primzahlpotenzordnung beantwortet. Ist G = qn mit einer Primzahl q, so gibt es zwei Möglichkeiten: entweder q ist gleich oder q ist ungleich der Charakteristik von K. Im ersten Fall lässt sich relativ einfach zeigen, dass L/K stets vollständig regulär ist, selbst wenn G nur als abelsche q-Gruppe vorausgesetzt wird. Ist hingegen q ungleich der Charakteristik von K, so ist weit mehr Aufwand erforderlich. Die Untersuchung der Strukturen von L als M U -Modul für die verschiedenen Zwischenkörper M von L/K, - hierbei ist U wieder die Galoisgruppe von L/M -, die schon beim Existenzbeweis von vollständig regulären Elementen durchgeführt wird, ist dabei das entscheidende Hilfsmittel. Unter den gemachten Voraussetzungen ergibt sich dann folgende Charakterisierung einer vollständig regulären Erweiterung: L/K ist genau dann vollständig regulär, wenn L / K[iq] = K gilt, wobei i eine primitive qnte Einheitswurzel ist. Wird K zusätzlich als endlich angenommen, so l"asst sich dieses notwendige und hinreichende Kriterium sogar recht einfach überprüfen.