Diploma Thesis
Refine
Year of publication
Document Type
- Diploma Thesis (35) (remove)
Has Fulltext
- yes (35)
Keywords
- Künstliche Intelligenz (2)
- Robotik (2)
- Adjazenz-Beziehungen (1)
- Aggregation (1)
- Algebraic dependence of commuting elements (1)
- Algebraische Abhängigkeit der kommutierende Elementen (1)
- Artificial Intelligence (1)
- Automatisierung (1)
- Bagger (1)
- Baum <Mathematik> (1)
- Bayesrisiko (1)
- CFD (1)
- Computer Algebra System (1)
- Computeralgebra System (1)
- Container (1)
- Crane (1)
- Cut (1)
- Data-Driven Modelling (1)
- Data-Driven Control (1)
- Diffusionsprozess (1)
- Doppelbarriereoption (1)
- Double Barrier Option (1)
- Dynamic Network Flow Problem (1)
- European Groupings of Territorial Cooperation (1)
- European Spatial Planning (1)
- European Territorial Cooperation (1)
- Europäische Territoriale Zusammenarbeit (1)
- Europäischer Verbund für Territoriale Zusammenarbeit (1)
- Evacuation Planning (1)
- Finanzmathematik (1)
- Finanzzeitreihe (1)
- Gauss-Manin connection (1)
- Gewichtung (1)
- Graph Theory (1)
- Graphentheorie (1)
- Heuristic (1)
- Heuristik (1)
- Hub-and-Spoke-System (1)
- Hydraulik (1)
- Interregional cooperation (1)
- Inverse Model Control (1)
- Inverse Problems (1)
- Inverse control (1)
- Kernschätzer (1)
- Knapsack (1)
- Kombinatorische Optimierung (1)
- Lagrange (1)
- Large-Scale Problems (1)
- Levy process (1)
- Lucena (1)
- MLC (1)
- Maschinelles Lernen (1)
- Medical Physics (1)
- Mess-, Steuerungs- und Regelungstechnik-Industrie (1)
- Minimal spannender Baum (1)
- Minimum Cost Network Flow Problem (1)
- Modellbasierte Regelung (1)
- Multileaf Collimator (1)
- Multiplicative Schwarz Algorithm (1)
- Nachhaltigkeit (1)
- Navier-Stokes (1)
- Neuronales Netz (1)
- Nichtlineares Regelungssystem (1)
- Nichtparametrische Regression (1)
- Optimization (1)
- Optionspreistheorie (1)
- Polyhedron (1)
- Radiation Therapy (1)
- Ray-Knight Theorem (1)
- Regelungstechnik (1)
- Regularization Wavelets (1)
- Relaxation (1)
- Scheduling (1)
- Schnitt <Mathematik> (1)
- Spiritualität (1)
- Splines (1)
- Stochastic Volatility (1)
- Stochastische Volatilität (1)
- Support Vector Machines (1)
- Systemidentifikation (1)
- TDTSP (1)
- TSP (1)
- Transnational cooperation (1)
- Transportation Problem (1)
- Tree (1)
- Volatilität (1)
- Zeitreihen (1)
- adjacency relations (1)
- best basis (1)
- biorthogonal bases of L^2 (1)
- branching process (1)
- combinatorial optimization (1)
- consecutive ones polytopes (1)
- consecutive ones property (1)
- earliest arrival flow (1)
- entropy (1)
- estimate (1)
- estimator (1)
- facets (1)
- finite biodiversity (1)
- formants (1)
- hub covering (1)
- hub location (1)
- integer programming (1)
- interval graphs (1)
- knapsack (1)
- kombinatorische Optimierung (1)
- local trigonometric packets (1)
- maximal dynamic flow (1)
- minimal spanning tree (1)
- monodromy (1)
- monotone consecutive arrangement (1)
- moving contact line (1)
- nichtparametrisch (1)
- non-parametric regression (1)
- nonparametric (1)
- numerics for pdes (1)
- separation problem (1)
- series-parallel graphs (1)
- simulierte Finanzzeitreihe (1)
- singularities (1)
- spectrogram (1)
- speech recognition (1)
- technische Analyse (1)
- time series (1)
- wavelet packets (1)
- wavelets (1)
Faculty / Organisational entity
Aus der Körpertheorie ist der Satz von der Normalbasis bekannt , der besagt, dass es zu jeder endlichen Galoiserweiterung L/K ein Element in L gibt, dessen Konjugierte unter der Galoisgruppe von L/K eine K-Basis von L bilden. Ein solches Element wird als regulär in L/K bezeichnet, die zugehörige K-Basis von L heisst Normalbasis. Für einen Zwischenkörper M einer Galoiserweiterung L/K ist nach dem Hauptsatz der Galoistheorie auch L/M galoissch und besitzt infolgedessen eine Normalbasis. Ist ein reguläres Element von L/K auch regulär in L/M für alle Zwischenkörper M von L/K, so wird es vollständig regulär in L/K genannt. Dies wirft die Frage auf, ob es in jeder Galoiserweiterung ein vollständig reguläres Element gibt. Wie sich zeigt, kann diese Frage für alle endlichen Galoiserweiterungen bejaht werden. Ein reguläres Element x einer Galoiserweiterung L/K ist durch zwei Eigenschaften gekennzeichnet: zum einen wird L von x über K erzeugt und zum anderen sind die Konjugierten von x unter der Galoisgruppe von L/K linear unabh"angig über K. Letzteres besagt gerade, dass die Nullstellen des Minimalpolynoms von x über K linear unabhängig über K sind. Hat x diese zweite Eigenschaft, so heisst x frei über K. Ist x ein Element aus einer algebraische Hülle A von K, so wird x vollst"andig frei über K genannt, wenn für jeden Zwischenkörper M von A/K die Nullstellen des Minimalpolynoms von x über M linear unabhängig über M sind. Es lässt sich zeigen, dass ein x aus A genau dann vollständig frei über K ist, wenn x frei über allen Zwischenkörpern M von N/K ist, wobei N den Zerfällungskörper des Minimalpolynoms von x über K bezeichnet. Dass es in jeder endlichen Galoiserweiterung L/K ein vollständig reguläres Element gibt, ist daher ein Spezialfall der Aussage, dass es in jeder endlichen, separablen Körpererweiterung L/K ein über K vollständig freies Element gibt, welches L erzeugt. Das erste Ziel dieser Arbeit ist deshalb der Beweis, dass jede endliche, separable Körpererweiterung L/K von einem über K vollständig freien Element erzeugt wird. Ist K ein Körper mit unendlich vielen Elementen, so ist der Beweis eine Verallgemeinerung des Beweises von E. Artin zur Existenz von Normalbasen in Galoiserweiterungen. Weitaus schwieriger ist der Fall, wenn K ein endlicher Körper ist. Dann ist L/K stets eine Galoiserweiterung und die über K vollständig freien Elemente, die L über K erzeugen, sind genau diejenigen, die in L/K vollständig regulär sind. Ist G die Galoisgruppe von L/K, so lässt sich L zu einem KG-Modul machen, der als solcher wegen des Satzes von der Normalbasis sogar isomorph zu KG ist. Ein Element aus L ist genau dann regulär in L/K, wenn es in keinem echten KG-Teilmodul von L liegt. Entsprechendes gilt natürlich auch für alle Zwischenkörper M von L/K. Das heisst, ein Element aus L ist genau dann vollständig regulär in L/K, falls es für keinen Zwischenkörper M von L/K in einem echten M U -Teilmodul von L liegt; hierbei bezeichnet U die Galoisgruppe von L/M . In Abschnitt 2 wird gezeigt, dass der Beweis auf den Fall, dass G eine zyklische Gruppe von Primzahlpotenzordnung ist, reduziert werden kann. Durch nähere Betrachtung der M U -Teilmoduln von L für diese Situation, wobei bereits allgemeiner K und L nicht als endlich vorausgesetzt werden, lässt sich dann zeigen, dass es stets ein Element in L gibt, das vollständig regulär in L/K ist. Die Tatsache, dass es in jeder Galoiserweiterung L/K ein vollständig reguläres Element gibt, lässt natürlich nicht darauf schliessen, dass jedes reguläre Element in L/K auch schon vollst"andig regulär in L/K ist. Dies leitet über zu der von C. C. Faith gestellten Frage, wann in einer endlichen, abelschen Galoiserweiterung jedes reguläre Element schon vollständig regulär ist; eine solche Galoiserweiterung heisst dann vollst"andig regulär. Im letzten Abschnitt wird diese Frage für Galoiserweiterungen L/K mit zyklischer Galoisgruppe G von Primzahlpotenzordnung beantwortet. Ist G = qn mit einer Primzahl q, so gibt es zwei Möglichkeiten: entweder q ist gleich oder q ist ungleich der Charakteristik von K. Im ersten Fall lässt sich relativ einfach zeigen, dass L/K stets vollständig regulär ist, selbst wenn G nur als abelsche q-Gruppe vorausgesetzt wird. Ist hingegen q ungleich der Charakteristik von K, so ist weit mehr Aufwand erforderlich. Die Untersuchung der Strukturen von L als M U -Modul für die verschiedenen Zwischenkörper M von L/K, - hierbei ist U wieder die Galoisgruppe von L/M -, die schon beim Existenzbeweis von vollständig regulären Elementen durchgeführt wird, ist dabei das entscheidende Hilfsmittel. Unter den gemachten Voraussetzungen ergibt sich dann folgende Charakterisierung einer vollständig regulären Erweiterung: L/K ist genau dann vollständig regulär, wenn L / K[iq] = K gilt, wobei i eine primitive qnte Einheitswurzel ist. Wird K zusätzlich als endlich angenommen, so l"asst sich dieses notwendige und hinreichende Kriterium sogar recht einfach überprüfen.
Das TSP wird auf zeitabhängige Kosten und Wegelängen verallgemeinert, der Komplexitätstatus untersucht, verschiedene Formulierungen verglichen, Spezialfälle untersucht und ein auf Lagrange-Relaxation und Branch&Bound beruhendes exaktes Lösungsverfahren von Lucena erweitert, implementiert und getestet. Für das TDTSP wird die Dimension des ganzzahligen Polyeders bestimmt.
Diese Diplomarbeit gibt eine kurze Einführung in das Gebiet der Diffusionsprozesse (beschrieben als Lösungen stochastischer Differentialgleichungen) und der großen Abweichungen. Mit Methoden aus dem Gebiet der großen Abweichungen wird dann das asymptotische Verhalten des Bayesrisikos für die unterscheidung zweier Diffusionsprozesse untersucht.
The flow of a liquid into an empty channel is simulated. The simulation is based on a recently published model for general fluid/liquid/solid systems which eliminates the shear stress singularity at the moving contact line between the liquid/fluid interface and the solid. This model is carefully analyzed for low Reynolds and Capillary numbers, adapted to the channel inflow problem, and implemented. Very convincing numerical results are presented.
This essay discusses the multileaf collimator leaf sequencing problem, which occurs in every treatment planning in radiation therapy. The problem is to find a good realization in terms of a leaf sequence in the multileaf collimator such that the time needed to deliver the given dose profile is minimized. A mathematical model using an integer programming formulation has been developed. Additionally, a heuristic, based on existing algorithms and an integer programming formulation, has been developed to enhance the quality of the solutions. Comparing the results to those provided by other algorithms, a significant improvement can be observed.
Satellite-to-satellite tracking (SST) and satellite gravity gradiometry (SGG), respectively, are two measurement principles in modern satellite geodesy which yield knowledge of the first and second order radial derivative of the earth's gravitational potential at satellite altitude, respectively. A numerical method to compute the gravitational potential on the earth's surface from those observations should be capable of processing huge amounts of observational data. Moreover, it should yield a reconstruction of the gravitational potential at different levels of detail, and it should be possible to reconstruct the gravitational potential from only locally given data. SST and SGG are modeled as ill-posed linear pseudodifferential operator equations with an injective but non-surjective compact operator, which operates between Sobolev spaces of harmonic functions and such ones consisting of their first and second order radial derivatives, respectively. An immediate discretization of the operator equation is obtained by replacing the signal on its right-hand-side either by an interpolating or a smoothing spline which approximates the observational data. Here the noise level and the spatial distribution of the data determine whether spline-interpolation or spline-smoothing is appropriate. The large full linear equation system with positive definite matrix which occurs in the spline-interplation and spline-smoothing problem, respectively, is efficiently solved with the help of the Schwarz alternating algorithm, a domain decomposition method which allows it to split the large linear equation system into several smaller ones which are then solved alernatingly in an iterative procedure. Strongly space-localizing regularization scaling functions and wavelets are used to obtain a multiscale reconstruction of the gravitational potential on the earth's surface. In a numerical experiment the advocated method is successfully applied to reconstruct the earth's gravitational potential from simulated 'exact' and 'error-affected' SGG data on a spherical orbit, using Tikhonov regularization. The applicability of the numerical method is, however, not restricted to data given on a closed orbit but it can also cope with realistic satellite data.
Matrices with the consecutive ones property and interval graphs are important notations in the field of applied mathematics. We give a theoretical picture of them in first part. We present the earliest work in interval graphs and matrices with the consecutive ones property pointing out the close relation between them. We pay attention to Tucker's structure theorem on matrices with the consecutive ones property as an essential step that requires a deep considerations. Later on we concentrate on some recent work characterizing the matrices with the consecutive ones property and matrices related to them in the terms of interval digraphs as the latest and most interesting outlook on our topic. Within this framework we introduce a classiffcation of matrices with consecutive ones property and matrices related to them. We describe the applications of matrices with the consecutive ones property and interval graphs in different fields. We make sure to give a general view of application and their close relation to our studying phenomena. Sometimes we mention algorithms that work in certain fields. In the third part we give a polyhedral approach to matrices with the consecutive ones property. We present the weighted consecutive ones problem and its relation to Tucker's matrices. The constraints of the weighted consecutive ones problem are improved by introducing stronger inequalities, based on the latest theorems on polyhedral aspect of consecutive ones property. Finally we implement a separation algorithm of Oswald and Reinhelt on matrices with the consecutive ones property. We would like to mention that we give a complete proof to the theorems when we consider important within our framework. We prove theorems partially when it is worthwhile to have a closer look, and we omit the proof when there are is only an intersection with our studying phenomena.
In der Arbeit sollen ausgewählte technische Indikatoren und deren Handelsstrategien hinsichtlich ihres Verhaltens bzw. ihrer Profitabilität in verschiedenen Marktphasen untersucht werden. Um das Argument, dass die Indikatoren selbst erfüllend sind, zu entkräften, werden Finanzzeitreihen simuliert und die Indikatoren auf diese angewendet und ausgewertet. Zu diesem Zweck wird zu gegebenen echten Kursdaten ein finanzzeitreihenanalytisches Modell angepasst. Dieses wird zur Simulation von Finanzzeitreihen und damit zur Auswertung der Indikatoren verwendet werden. Durch geeignete Auswahlverfahren sollen verschiedene Handelsstrategien zu Strategien kombiniert werden, um ein besseres Ertrag/Risikoverhältnis zu erreichen als dies bei einzelnen Strategien der Fall wäre.
While there exist closed-form solutions for vanilla options in the presence of stochastic volatility for nearly a decade, practitioners still depend on numerical methods - in particular the Finite Difference and Monte Carlo methods - in the case of double barrier options. It was only recently that Lipton proposed (semi-)analytical solutions for this special class of path-dependent options. Although he presents two different approaches to derive these solutions, he restricts himself in both cases to a less general model, namely one where the correlation and the interest rate differential are assumed to be zero. Naturally the question arises, if these methods are still applicable for the general stochastic volatility model without these restrictions. In this paper we show that such a generalization fails for both methods. We will explain why this is the case and discuss the consequences of our results.
Zuerst einmal werden die Grundlagen der nichtparametrischen Regression sowie die der Kleinste-Quadrate-Schätzer behandelt und unser verwendetes Modell hergeleitet. Kapitel 3 führt dann in die Theorie der gewichteten Kernschätzer ein, wobei auch das asymptotische Verhalten genauer untersucht wird. Des Weiteren wird ein numerischer Algorithmus zur Berechnung der Kernschätzer angegeben. Die Simulationsstudie der gewichteten Kernschätzer anhand von Regressionsdaten und Zeitreihendaten sowie die praktische Beurteilung erfolgen in Kapitel 4 und 5. Reale Zeitreihendaten bilden danach im sechsten Kapitel die Grundlage für die praktische Betrachtung der neuen Schätzer. Im letzten Kapitel folgt dann ein Resümee und ein kleiner Ausblick auf die gewichteten Kernschätzer für allgemeinere Modelle.
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
Using covering problems (CoP) combined with binary search is a well-known and successful solution approach for solving continuous center problems. In this thesis, we show that this is also true for center hub location problems in networks. We introduce and compare various formulations for hub covering problems (HCoP) and analyse the feasibility polyhedron of the most promising one. Computational results using benchmark instances are presented. These results show that the new solution approach performs better in most examples.
This diploma thesis examines logistic problems occurring in a container terminal. The thesis focuses on the scheduling of cranes handling containers in a port. Two problems are discussed in detail: the yard crane scheduling of rubber-tired gantry cranes (RMGC) which move freely among the container blocks, and the scheduling of rail-mounted gantry cranes (RMGC) which can only move within a yard zone. The problems are formulated as integer programs. For each of the two problems discussed, two models are presented: In one model, the crane tasks are interpreted as jobs with release times and processing times while in the other model, it is assumed that the tasks can be modeled as generic workload measured in crane minutes. It is shown that the problems are NP-hard in the strong sense. Heuristic solution procedures are developed and evaluated by numerical results. Further ideas which could lead to other solution procedures are presented and some interesting special cases are discussed.
Aggregation of Large-Scale Network Flow Problems with Application to Evacuation Planning at SAP
(2005)
Our initial situation is as follows: The blueprint of the ground floor of SAP’s main building the EVZ is given and the open question on how mathematic can support the evacuation’s planning process ? To model evacuation processes in advance as well as for existing buildings two models can be considered: macro- and microscopic models. Microscopic models emphasize the individual movement of evacuees. These models consider individual parameters such as walking speed, reaction time or physical abilities as well as the interaction of evacuees during the evacuation process. Because of the fact that the microscopic model requires lots of data, simulations are taken for implementation. Most of the current approaches concerning simulation are based on cellular automats. In contrast to microscopic models, macroscopic models do not consider individual parameters such as the physical abilities of the evacuees. This means that the evacuees are treated as a homogenous group for which only common characteristics are considered; an average human being is assumed. We do not have that much data as in the case of the microscopic models. Therefore, the macroscopic models are mainly based on optimization approaches. In most cases, a building or any other evacuation object is represented through a static network. A time horizon T is added, in order to be able to describe the evolution of the evacuation process over time. Connecting these two components we finally get a dynamic network. Based on this network, dynamic network flow problems are formulated, which can map evacuation processes. We focused on the macroscopic model in our thesis. Our main focus concerning the transfer from the real world problem (e.g. supporting the evacuation planning) will be the modeling of the blueprint as a dynamic network. After modeling the blueprint as a dynamic network, it will be no problem to give a formulation of a dynamic network flow problem, the so-called evacuation problem, which seeks for an optimal evacuation time. However, we have to solve a static large-scale network flow problem to derive a solution for this formulation. In order to reduce the network size, we will examine the possibility of applying aggregation to the evacuation problem. Aggregation (lat. aggregare = piling, affiliate; lat. aggregatio = accumulation, union; the act of gathering something together) was basically used to reduce the size of general large-scale linear or integer programs. The results gained for the general problem definitions were then applied to the transportation problem and the minimum cost network flow problem. We review this theory in detail and look on how results derived there can be used for the evacuation problem, too.
* naive examples which show drawbacks of discrete wavelet transform and windowed Fourier transform; * adaptive partition (with a 'best basis' approach) of speech-like signals by means of local trigonometric bases with orthonormal windows. * extraction of formant-like features from the cosine transform; * further proceedingings for classification of vowels or voiced speech are suggested at the end.
In this thesis we present the implementation of libraries center.lib and perron.lib for the non-commutative extension Plural of the Computer Algebra System Singular. The library center.lib was designed for the computation of elements of the centralizer of a set of elements and the center of a non-commutative polynomial algebra. It also provides solutions to related problems. The library perron.lib contains a procedure for the computation of relations between a set of pairwise commuting polynomials. The thesis comprises the theory behind the libraries, aspects of the implementation and some applications of the developed algorithms. Moreover, we provide extensive benchmarks for the computation of elements of the center. Some of our examples were never computed before.