Kaiserslautern - Fachbereich Mathematik
Refine
Year of publication
Document Type
- Preprint (54)
- Article (19)
- Doctoral Thesis (14)
- Lecture (14)
- Report (12)
- Diploma Thesis (6)
- Part of a Book (4)
- Study Thesis (2)
- Course Material (1)
- Master's Thesis (1)
Language
- German (127) (remove)
Keywords
- Mathematische Modellierung (17)
- MINT (16)
- Schule (16)
- Modellierung (5)
- Modellierungswoche (5)
- Lineare Algebra (3)
- Mathematikunterricht (3)
- Simulation (3)
- praxisorientiert (3)
- Geodäsie (2)
- Logik (2)
- Mehrskalenanalyse (2)
- dynamische Systeme (2)
- Analysis (1)
- Arbitrage (1)
- Arduino (1)
- Bayesrisiko (1)
- Bondindizes (1)
- CDO (1)
- CHAMP-Mission (1)
- Charakter <Gruppentheorie> (1)
- Debt Management (1)
- Derivat <Wertpapier> (1)
- Didaktik (1)
- Differenzenverfahren (1)
- Diffusionsprozess (1)
- Diskrete Mathematik (1)
- Dynamische Systeme (1)
- Dynasys (1)
- Elektronik (1)
- Elementare Zahlentheorie (1)
- Endliche Geometrie (1)
- Endliche Lie-Gruppe (1)
- Erwarteter Nutzen (1)
- Erwartungswert-Varianz-Ansatz (1)
- Evakuierung (1)
- Fatigue (1)
- Feynman path integrals (1)
- Finanzzeitreihe (1)
- Forward-Backward Stochastic Differential Equation (1)
- Galerkin Approximation (1)
- Geothermal Flow (1)
- Geothermischer Fluss (1)
- Gewichtung (1)
- Graphentheorie (1)
- Gravitation (1)
- Gravitationsfeld (1)
- Gravitationsmodell (1)
- Gruppentheorie (1)
- Gröbner-Basis (1)
- Gröbner-basis (1)
- Hamilton-Jacobi-Differentialgleichung (1)
- Heston-Modell (1)
- Integral (1)
- Integration (1)
- Interdisziplinärer Projektunterricht (1)
- Internationale Diversifikation (1)
- Inverses Problem (1)
- Ito (1)
- Kalkül (1)
- Kalkül des natürlichen Schließens (1)
- Kernschätzer (1)
- Kiyoshi (1)
- Kristallmathematik (1)
- Lagrange (1)
- Lebesque-Integral (1)
- Lehrkräfte (1)
- Lehrmittel (1)
- Lineare Optimierung (1)
- Lucena (1)
- Markov-Prozess (1)
- Math-Talent-School (1)
- McKay-Conjecture (1)
- McKay-Vermutung (1)
- Modellbildung (1)
- Monte-Carlo-Simulation (1)
- Mosaike (1)
- Motion Capturing (1)
- Multiskalenapproximation (1)
- Neumann Wavelets (1)
- Neumann wavelets (1)
- Nichtparametrische Regression (1)
- Numerische Mathematik (1)
- Optimale Portfolios (1)
- Optionspreistheorie (1)
- Ovoid (1)
- Parkette (1)
- Partielle Differentialgleichung (1)
- Pfadintegral (1)
- Portfolio Selection (1)
- Portfoliomanagement (1)
- Projektarbeit (1)
- Projektunterricht (1)
- Punktmengen (1)
- Quadratischer Raum (1)
- Raspberry Pi (1)
- Regularisierung (1)
- Relaxation (1)
- Reliability (1)
- Riemannsche Summen (1)
- Semi-Markov-Kette (1)
- Simplex (1)
- Sprung-Diffusions-Prozesse (1)
- Standortplanung (1)
- Stochastische Differentialgleichung (1)
- Stochastische Zinsen (1)
- Stochastische dynamische Optimierung (1)
- Stokes Wavelets (1)
- Stokes wavelets (1)
- Stücklisten (1)
- Success Run (1)
- Synthesizer (1)
- TDTSP (1)
- TSP (1)
- Tabellenkalkulation (1)
- Tableau-Kalkül (1)
- Theorie schwacher Lösungen (1)
- Tiefengeothermie (1)
- Titration (1)
- Transaktionskosten (1)
- Trennverfahren (1)
- Treppenfunktionen (1)
- Verschlüsselung (1)
- Vigenere (1)
- Volatilität (1)
- Volatilitätsarbitrage (1)
- Vorwärts-Rückwärts-Stochastische-Differentialgleichung (1)
- Wavelet (1)
- Wavelets (1)
- Weak Solution Theory (1)
- White Noise Analysis (1)
- Wirkungsnetz (1)
- Zeitreihen (1)
- Zellulärer Automat (1)
- Zerlegungen (1)
- Zopfgruppe (1)
- abgeleitete Kategorie (1)
- aleph (1)
- derived category (1)
- diskrete Systeme (1)
- estimate (1)
- estimator (1)
- finite difference schemes (1)
- formale Logik (1)
- grenzwert (1)
- homological algebra (1)
- kardinalzahl (1)
- kombinatorische Optimierung (1)
- limes (1)
- markov model (1)
- mathematische Modellierung (1)
- mean-variance approach (1)
- mehrwertig (1)
- multiscale approximation (1)
- nichtparametrisch (1)
- non-parametric regression (1)
- nonparametric (1)
- partial differential equation (1)
- simulierte Finanzzeitreihe (1)
- spectral sequences (1)
- stochastic arbitrage (1)
- stochastische Arbitrage (1)
- technische Analyse (1)
- time series (1)
- unbeschränktes Potential (1)
- unbounded potential (1)
- unendlich (1)
- volatility arbitrage (1)
Faculty / Organisational entity
In der Arbeit sollen ausgewählte technische Indikatoren und deren Handelsstrategien hinsichtlich ihres Verhaltens bzw. ihrer Profitabilität in verschiedenen Marktphasen untersucht werden. Um das Argument, dass die Indikatoren selbst erfüllend sind, zu entkräften, werden Finanzzeitreihen simuliert und die Indikatoren auf diese angewendet und ausgewertet. Zu diesem Zweck wird zu gegebenen echten Kursdaten ein finanzzeitreihenanalytisches Modell angepasst. Dieses wird zur Simulation von Finanzzeitreihen und damit zur Auswertung der Indikatoren verwendet werden. Durch geeignete Auswahlverfahren sollen verschiedene Handelsstrategien zu Strategien kombiniert werden, um ein besseres Ertrag/Risikoverhältnis zu erreichen als dies bei einzelnen Strategien der Fall wäre.
Die Theorie der mehrdimensionalen Systeme ist ein relativ junges Forschungsgebiet innerhalb der Systemtheorie, erste Arbeiten stammen aus den 70er Jahren. Hauptmotiv für das Studium multidimensionaler Systeme war die Notwendigkeit einer Erweiterung der Theorie der digitalen Filter, die in der klassischen, eindimensionalen Signalverarbeitung (zeitabhängige Signale) Anwendung finden, auf den Bereich der Bildverarbeitung, also auf zweidimensionale Signale.; Die Vorlesung beschäftigt sich daher in ihrem ersten Teil mit skalaren zweidimensionalen Systemen und beschränkt sich im wesentlichen auf den linearen Fall. Untersucht werden zweidimensionale Filter, ihre wichtigsten Eigenschaften, Kausalität und Stabilität, sowie ihre Zustandsraum- realisierungen, etwa die Modelle von Roesser und Fornasini-Marchesini. Parallelen und Unterschiede zur eindimensionalen Systemtheorie werden betont.; Im zweiten Teil der Vorlesung werden allgemeine höherdimensionale und multivariable Systeme behandelt. Für diese Systeme erweist sich der von Jan Willems begründete Zugang zur Systemtheorie, der sogenannte behavioral approach, als zweckmäßig. Grundlegende Ideen dieses Ansatzes sowie eine der wichtigsten Methoden zum Rechnen mit Polynomen in mehreren Variablen, die Theorie der Gröbnerbasen, werden vorgestellt.
We study the efficient computation of Nash and strong equilibria in weighted bottleneck games. In such a game different players interact on a set of resources in the way that every player chooses a subset of the resources as her strategy. The cost of a single resource depends on the total weight of players choosing it and the personal cost every player tries to minimize is the cost of the most expensive resource in her strategy, the bottleneck value. To derive efficient algorithms for finding Nash equilibria in these games, we generalize a tranformation of a bottleneck game into a special congestion game introduced by Caragiannis et al. [1]. While investigating the transformation we introduce so-called lexicographic games, in which the aim of a player is not only to minimize her bottleneck value but to lexicographically minimize the ordered vector of costs of all resources in her strategy. For the special case of network bottleneck games, i.e., the set of resources are the edges of a graph and the strategies are paths, we analyse different Greedy type methods and their limitations for extension-parallel and series-parallel graphs.
Bekanntlich gibt es keinen befriedigenden unendlich dimensionalen Ersatz für das Lebesgue-Mass. Andererseits lassen sich viele Techniken klassischer Analysis auch auf unendlich dimensionale Situationen übertragen. Eine Möglichkeit hierzu gibt die Theorie differenzierbarer Masse. Man definiert Richtungsableitungen für Masse ähnlich wie für Funktionen. Eines der zentralen Beispiele ist das Wiener-Mass. Stochastische Integration bezüglich der Brownschen Bewegung, insbesondere das Skorokhod-Integral ergeben sich in natürlicher Weise durch diesen Ansatz und auch die Grundideen des MalliavinKalküls lassen sich in diesem Rahmen einfach erläutern. Die Vorträge geben die meisten Beweise.
Analysis II
(2000)
Diese Diplomarbeit gibt eine kurze Einführung in das Gebiet der Diffusionsprozesse (beschrieben als Lösungen stochastischer Differentialgleichungen) und der großen Abweichungen. Mit Methoden aus dem Gebiet der großen Abweichungen wird dann das asymptotische Verhalten des Bayesrisikos für die unterscheidung zweier Diffusionsprozesse untersucht.
Die vorliegende Dissertation besteht aus zwei Hauptteilen: Neue Ergebnisse aus der Gaußchen Analysis und ihre Anwendung auf die Theorie der Pfadintegrale. Das zentrale Resultat des ersten Teils ist die Charakterisierung aller regulären Distributionen die man mit Donsker's Delta multiplizieren kann. Dabei wird eine explizite Formel für solche Produkte, die sogenannte Wick-Formel, angegeben. Im Anwendungsteil dieser Arbeit wird zunächst eine komplex skalierte Feynman-Kac-Formel und ihre zugehörigen Kerne mit Hilfe dieser Wick-Formel gezeigt. Desweiteren werden Feynman Integranden für neue Klassen von Potentialen als White Noise Distributionen konstruiert.
Das sind die Texte der Vorlesungen, die ich im Dezember 1988 - März 1989 an der Universität Kaiserslautern hielt. Die Sektionen 1-4 enthalten Materialien, die in Russisch im Buch [33] und in früheren Arbeiten [27,28] [30-33] publiziert sind.
Sektion 5 enthält neue Ergebnisse, die wir während meines Aufenthaltes in Kaiserslautern in Zusammenarbeit mit Herrn Robert Plato
(TU Berlin) ausarbeiteten (siehe [21,22]). Sektion 6 ist eine Erweiterung der Arbeit [31].
Caloric Restriction (CR) is the only intervention proven to retard aging and extend maximum lifespan in mammalians. A possible mechanism for the beneficial effects of CR is that the mild metabolic stress associated with CR induces cells to express stress proteins that increase their resistance to disease processes. In this article we therefore model the retardation of aging by dietary restriction within a mathematical framework. The resulting model comprises food intake, stress proteins, body growth and survival. We successfully applied our model to growth and survival data of mice exposed to different food levels.
Diese Arbeit beschäftigt sich mit dem Algorithmus von Kalman zur Schätzung von gegenwärtigen und zukünftigen Zuständen in zeitdiskreten dynamischen Systemen. In der Literatur ist dieser Algorithmus allgemein als Kalman-Filter bekannt. Im Vordergrund der Betrachtungen stehen dabei die Schätzfehler des Kalman-Filters, insbesondere für den Fall, daß das benutzte Modell nicht mit dem realen System übereinstimmt. Es wird der Frage nachgegangen, welche Einflüsse die Modellfehler auf die Schätzfehler des Kalman-Filters haben. Dies ist ein wichtiger Gesichtspunkt, den man bei der Anwendung des Kalman-Filters beachten sollte, da man i.a. nicht davon ausgehen kann, daß Modell und reales System übereinstimmen.; Um diese Fragestellung stärker zu motivieren, werden im nächsten Abschnitt ein paar allgemeine Überlegungen zur Modellbildung angestellt. Danach werden einige Modelle zur Behandlung von Zeitreihen angesprochen. Zur Hinführung auf den Kalman-Filter wird dann in Kapital 2 das Problem des Schätzens etwas allgemeiner behandelt. In Kapitel 3 erfolgt dann eine Herleitung des Kalman-Filters und die Untersuchung der Fehlerprozesse für den Fall, daß Modell und reales System übereinstimmen. Da für die zeitliche Entwicklung der Fehlerprozesse die Stabilität des Kalman-Filters von Bedeutung ist, wird auch diese besprochen. In Kapitel 4 werden schließlich die Fehlerprozesse für den Fall behandelt, daß Modell und reales System nicht übereinstimmen.
Die vorliegende Arbeit beschäftigt sich mit der numerischen Behandlung Differential-Algebraischer Gleichungen (DAE" s). DAE" s treten beispielsweise bei der Modellierung der Dynamik mechanischer System, der Schaltkreissimulation sowie der chemischen Reaktionskinetik auf. Es werden Rosenbrock-Wanner ähnliche Verfahren zu deren Lösung hergeleitet und an technischen Modellen (Fahrzeugachse und Verstärker) getestet.
Identifikation von Amplituden und Phasensprüngen im Intensitätsverlauf eines Nd-Yag Festkörperlasers
(1987)
Die Arbeit beschäftigt sich mit den Charakteren des Normalisators und des Zentralisators eines Sylowtorus. Dabei wird jede Gruppe G vom Lie-Typ als Fixpunktgruppe einer einfach-zusammenhängenden einfachen Gruppe unter einer Frobeniusabbildung aufgefaßt. Für jeden Sylowtorus S der algebraischen Gruppe wird gezeigt, dass die irreduziblen Charaktere des Zentralisators von S in G sich auf ihre Trägheitsgruppe im Normalisator von S fortsetzen. Diese Fragestellung entsteht aus dem Studium der Höhe 0 Charaktere bei endlichen reduktiven Gruppen vom Lie-Typ im Zusammenhang mit der McKay-Vermutung. Neuere Resultate von Isaacs, Malle und Navarro führen diese Vermutung auf eine Eigenschaft von einfachen Gruppen zurück, die sie dann für eine Primzahl gut nennen. Bei Gruppen vom Lie-Typ zeigt das obige Resultat zusammen mit einer aktuellen Arbeit von Malle einige dabei wichtige und notwendige Eigenschaften. Anhand der Steinberg-Präsentation werden vor allem bei den klassischen Gruppen genauere Aussagen über die Struktur des Zentralisators und des Normalisators eines Sylowtorus bewiesen. Wichtig dabei ist die von Tits eingeführte erweiterte Weylgruppe, die starke Verbindungen zu Zopfgruppen besitzt. Das Resultat wird in zahlreichen Einzelfallbetrachtungen gezeigt, bei denen in dieser Arbeit bewiesene Vererbungsregeln von Fortsetzbarkeitseigenschaften benutzt werden.
Diskrete Mathematik
(2005)
Vorlesung Logik
(2000)
Im Projekt MAFoaM - Modular Algorithms for closed Foam Mechanics - des
Fraunhofer ITWM in Zusammenarbeit mit dem Fraunhofer IMWS wurde eine Methode zur Analyse und Simulation geschlossenzelliger PMI-Hartschäume entwickelt. Die Zellstruktur der Hartschäume wurde auf Basis von CT-Aufnahmen modelliert, um ihr Verformungs- und Versagensverhalten zu simulieren, d.h. wie sich die Schäume unter Belastungen bis hin zum totalen Defekt verhalten.
In der Diplomarbeit wird die
bildanalytische Zellrekonstruktion für PMI-Hartschäume automatisiert. Die Zellrekonstruktion dient der Bestimmung von Mikrostrukturgrößen,
also geometrischer Eigenschaften der Schaumzellen, wie z.B.
Mittelwert und Varianz des Zellvolumens oder der Zelloberfläche.
Spektralsequenzen
(1999)
Bei einem von VDO entwickelten Navigationsgerät stehen unterschiedliche Verfahren zur Durchführung der Navigation zur Verfügung. Das Problem besteht darin, daß die von dem jeweiligen Verfahren erzielten Navigationsendpunkte von dem gewünschten Ziel mehr oder weniger stark abweichen. Diese Abweichungen hängen nicht nur von Anfangs- und Endpunkt der Testfahrt und vom Navigationsverfahren ab, sondern ändern sich auch bei der Wiederholung solcher Testfahrten. Ordnet man nun jedem Navigationsverfahren einen Parameter (vektor) zu und bezeichnet man die Menge aller betrachteten Parameter (werte) mit M (M kann zunächst endlich oder unendlich sein), so besteht das Ziel darin, den Parameter p*EM aufzufinden, für den das zugehörige Verfahren im Mittel am besten abschneidet. Hierzu ist es notwendig, zunächst ein Gütekriterium festzulegen.
Dieser Beitrag beschreibt eine Lernumgebung für Schülerinnen und Schüler der Unter- und Mittelstufe mit einem Schwerpunkt im Fach Mathematik. Das Thema dieser Lernumgebung ist die Simulation von Entfluchtungsprozessen im Rahmen von Gebäudeevakuierungen. Dabei wird das Konzept eines zellulären Automaten vermittelt, ohne dabei Programmierkenntnisse vorauszusetzen oder anzuwenden. Anhand dieses speziellen Simulationswerkzeugs des zellulären Automaten werden Eigenschaften, Kenngrößen sowie Vor- und Nachteile von Simulationen im Allgemeinen thematisiert. Dazu gehören unter anderem die experimentelle Datengewinnung, die Festlegung von Modellparametern, die Diskretisierung des zeitlichen und räumlichen Betrachtungshorizonts sowie die zwangsläufig auftretenden (Diskretisierungs-)Fehler, die algorithmischen Abläufe einer Simulation in Form elementarer Handlungsanweisungen, die Speicherung und Visualisierung von Daten aus einer Simulation sowie die Interpretation und kritische Diskussion von Simulationsergebnissen. Die vorgestellte Lernumgebung ermöglicht etliche Variationen zu weiteren Aspekten des Themas „Evakuierungssimulation“ und bietet dadurch auch vielfältige Differenzierungsmöglichkeiten.
Der vorliegende Artikel befasst sich mit der Realisierung eines einfachen Motion Capturing Verfahrens in MATLAB als Vorschlag für eine Umsetzung in der Schule. Die zugrunde liegende Mathematik kann ab der Mittelstufe leicht vermittelt werden. Je nach technischer Ausstattung können mit einfachen Mitteln farbige Marker in Videos oder Webcam-Streams verfolgt werden. Notwendige Konzepte und Algorithmen werden im Artikel beleuchtet.
Seinen Versuch, den Begriff der negativen Größen in die Weltweisheit einzuführen beginnt der neununddreißigjährige Immanuel Kant mit einer grundsätzlichen Erörterung über einen etwaigen Gebrauch, den man in der Weltweisheit von der Mathematik ma-chen kann. Dabei stellt er die These auf, daß Mathematik grundsätzlich nur auf zweierlei Art in die Philosophie eingreifen könne. Eine erste Möglichkeit sieht Kant in der Nachahmung mathematischer Methoden bei der Darstellung von Philosophie, die andere Möglichkeit besteht für ihn in der konkreten Anwendung mathematischer Theorien in der Naturlehre. Die zuerst genannte Möglichkeit beurteilt Kant ausgesprochen negativ; seine Kritik an dem von Comenius zunächst ganz allgemein formulierten und dann von Christian Wolff insbesondere für die Philosophie favorisierten Programm einer Präsentation der Philosophie nach mathematischem Vorbild einer Darstellung more geometrico demonstrata ist hinlänglich bekannt. Die Verwendung von Mathematik in der Naturlehre sieht Kant zwar durchaus positiv; in den Metaphysischen Anfangsgründen der Naturwissenschaft wird er gut zwei Jahrzehnte später sogar jene berühmte Behauptung hinzufügen, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist. Dennoch weist Kant mit aller Deutlichkeit auf die engen Grenzen des Wirkungsbereichs solcher Anwendungen von Mathematik hin, denn seiner Meinung nach würden aber auch nur die zur Naturlehre gehörigen Einsichten von derartigem mathematischem Zugriff profitieren.
In einem Beitrag zu Platons Philosophie des Abstiegs schreibt C.F. v. Weizsäcker, er sei "überzeugt, daß die griechische Philosophie, dieses in allen Weltkulturen einzigartige Kunstwerk, ohne das mathematische Paradigma undenkbar gewesen wäre" . Und in seiner berühmten Kant-Vorlesung im WS 1935/36 erklärte M. Heidegger, es sei "kein Zufall, daß die Kritik der reinen Vernunft... ständig von einer Besinnung auf das Wesen des Mathematischen und der Mathematik begleitet sei" . Was hier über Platon und Kant gesagt wird, trifft auf fast alle abendländischen Philosophen von Rang zu: Explizit oder implizit spielt die Mathematik eine entscheidende Rolle für die neue philosophische Konzeption. Welche Gründe sind es, die der Mathematik einen so hohen Stellenwert im Denken der maßgebenden Philosophen sichern? Mit welchen Intentionen und Zielvorstellungen montieren Philosophen seit Platon bis Heidegger, seit Aristoteles bis Bloch immer wieder Aussagen über Mathematik in ihre Philosophie? Weshalb war in den vergangenen zweieinhalb Jahrtausenden keine andere Wissenschaft für die Philosophie so >>frag-würdig<< wie die Mathematik? Die Philosophie hat - dies ist offensichtlich - den Dialog mit der Mathematik immer wieder gesucht. Und wie steht es um das Interesse der Mathematik an einem Dialog mit der Philosophie? In einem äußerst gehaltvollen und auch heute noch sehr lesenswerten Aufsatz Mathematik und Antike stellt der Mathematiker O. Toeplitz 1925 die Frage, "ob einmal im Dasein der Mathematik die Philosophie bestimmend in sie eingegriffen hat, ihre eigentliche definitive Gestalt gebildet hat" ? Eine derartige Initiative aus der Mathematik heraus zum Dialog mit der Philosophie ist kein Einzelfall. Cantor, Hilbert, Weyl, Gödel und Robinson - um nur einige Repräsentanten der neueren Mathematik in Erinnerung zu rufen - haben sich immer wieder um Kontakte mit der Philosophie bemüht.
Jede Wissenschaft entfaltet sich in einem Spannungsverhältnis zu ihren Nachbardisziplinen. In diesem Beitrag wird insbesondere das Disziplinenpaar Mathematik-Philosophie in den Blick genommen. Dies geschieht entlang der Leitfrage, ob und gegebenenfalls wie Philosophie auf die Entwicklung und Ausformung der Mathematik Einfluß genommen hat. Dazu wird nach philosophischen Spuren in der Mathematik gefragt, wobei jene historischen Konstellationen bevorzugt betrachtet werden, die eine grundlegende Änderung im Mathematikverständnis erbracht haben. Deshalb gilt das Hauptinteresse dieser Untersuchung dem Verhältnis von Philosophie und Mathematik in der klassischen Antike, bei Kant und in der Gegenwart.
Berechnung und Optimierung des Energiegewinnes bei Anlagen zur Lufterwärmung mittels Erdkanal
(1986)
Hallen wie Turnhallen oder Fabrikationshallen werden häufig mit Warmluft beheizt. Dazu steht ein Heizkessel mit Heißwasser bereit, das über einen Wärmetauscher (WT1) Luft erwärmt. Diese Warmluft wird über ein Gebläse in die Halle eingebracht. An anderer Stelle der Halle wird die Luft, die sich abgekühlt hat, wieder angesaugt. Diese wird im Wärmetauscher wieder auf Solltemperatur erwärmt und erneut eingeblasen. Aus hygienischen Gründen muß allerdings ein Teil der angesaugten Umluft ins Freie fortgeführt werden und stattdessen frische Außenluft zugeführt werden. Dies geschieht in einer Mischkammer. Diese Außenluft hat während der Heizperiode eine recht niedrige Temperatur, so daß ein beachtlicher Anteil der Heizenergie für ihre Erwärmung aufgebracht werden muß. Um Energie zu sparen, wird die Außenluft über einen Wärmetauscher WT2 durch die Fortluft vorgewärmt. Eine weitere Einsparung wäre möglich, wenn es gelänge, diese Außenluft auf irgendeine natürliche Art und Weise zusätzlich vorzuerwärmen.
Das Designproblem eines Kanals mit parallel eingeblasener Luft war der Ausgangspunkt für diese Untersuchung. Um ein Gefühl für das Verhalten von Strömungen in einem Kanal gemäß Abb. 1 zu bekommen, sollte von uns ein Verfahren entwickelt werden, welches für folgende Geometrie die relevanten strömungsdynamischen Daten liefert.; Durch die Schlitzdüsen wird Luft mit hoher Geschwindigkeit eingeblasen. Für die sich dann einstellende quasistationäre Strömung im Kanal K soll die Entwicklung der Geschwindigkeitsprofile in Abhängigkeit vom Abstand zum Schlitz berechnet und die strömungsdynamischen Größen abgeleitet werden. Von besonderem Interesse sind hier der Druckverlauf, der Impulsverlust und die Wandschubspannung sowie die sich daraus ergebende mittlere Ansauggeschwindigkeit. Dabei sollen Geometrie, Einblasgeschwindigkeit sowie die Wandrauhigkeit variabel gehalten werden. Auf Grund von Experimenten erwartet man qualitativ etwa folgende Profile: Abb. 2
Nähen als dynamisches System
(1989)
Das Nähen und die Nähmaschine sind seit über hundert Jahren nahezu unverändert geblieben. Die Nähgeschwindigkeiten wurden gesteigert, der Nähvorgang automatisiert, aber das Prinzip ist gleichgeblieben.; Das entscheidende Problem beim Nähen ist die Erzeugung eines gut sitzenden Knotens. Um diesen Knoten zu bilden, wird der Oberfaden vom Greifer erfaßt und um den Unterfaden herumgeführt. Die Fadenführung mit beweglichen und festen Umlenkungen muß jetzt dafür sorgen, daß immer genügend Faden vorhanden ist, daß der Faden im Moment der Knotenbildung fest angezogen wird, aber muß verhindern, daß der Faden reißt.
Das zinsoptimierte Schuldenmanagement hat zum Ziel, eine möglichst effiziente Abwägung zwischen den erwarteten Finanzierungskosten einerseits und den Risiken für den Staatshaushalt andererseits zu finden. Um sich diesem Spannungsfeld zu nähern, schlagen wir erstmals die Brücke zwischen den Problemstellungen des Schuldenmanagements und den Methoden der zeitkontinuierlichen, dynamischen Portfoliooptimierung.
Das Schlüsselelement ist dabei eine neue Metrik zur Messung der Finanzierungskosten, die Perpetualkosten. Diese spiegeln die durchschnittlichen zukünftigen Finanzierungskosten wider und beinhalten sowohl die bereits bekannten Zinszahlungen als auch die noch unbekannten Kosten für notwendige Anschlussfinanzierungen. Daher repräsentiert die Volatilität der Perpetualkosten auch das Risiko einer bestimmten Strategie; je langfristiger eine Finanzierung ist, desto kleiner ist die Schwankungsbreite der Perpetualkosten.
Die Perpetualkosten ergeben sich als Produkt aus dem Barwert eines Schuldenportfolios und aus der vom Portfolio unabhängigen Perpetualrate. Für die Modellierung des Barwertes greifen wir auf das aus der dynamischen Portfoliooptimierung bekannte Konzept eines selbstfinanzierenden Bondportfolios zurück, das hier auf einem mehrdimensionalen affin-linearen Zinsmodell basiert. Das Wachstum des Schuldenportfolios wird dabei durch die Einbeziehung des Primärüberschusses des Staates gebremst bzw. verhindert, indem wir diesen als externen Zufluss in das selbstfinanzierende Modell aufnehmen.
Wegen der Vielfältigkeit möglicher Finanzierungsinstrumente wählen wir nicht deren Wertanteile als Kontrollvariable, sondern kontrollieren die Sensitivitäten des Portfolios gegenüber verschiedenen Zinsbewegungen. Aus optimalen Sensitivitäten können in einem nachgelagerten Schritt dann optimale Wertanteile für verschiedenste Finanzierungsinstrumente abgeleitet werden. Beispielhaft demonstrieren wir dies mittels Rolling-Horizon-Bonds unterschiedlicher Laufzeit.
Schließlich lösen wir zwei Optimierungsprobleme mit Methoden der stochastischen Kontrolltheorie. Dabei wird stets der erwartete Nutzen der Perpetualkosten maximiert. Die Nutzenfunktionen sind jeweils an das Schuldenmanagement angepasst und zeichnen sich insbesondere dadurch aus, dass höhere Kosten mit einem niedrigeren Nutzen einhergehen. Im ersten Problem betrachten wir eine Potenznutzenfunktion mit konstanter relativer Risikoaversion, im zweiten wählen wir eine Nutzenfunktion, welche die Einhaltung einer vorgegebenen Schulden- bzw. Kostenobergrenze garantiert.
Gegenstand dieser Arbeit ist die Entwicklung eines Wärmetransportmodells für tiefe geothermische (hydrothermale) Reservoire. Existenz- und Eindeutigkeitsaussagen bezüglich einer schwachen Lösung des vorgestellten Modells werden getätigt. Weiterhin wird ein Verfahren zur Approximation dieser Lösung basierend auf einem linearen Galerkin-Schema dargelegt, wobei sowohl die Konvergenz nachgewiesen als auch eine Konvergenzrate erarbeitet werden.
Die vorliegende Arbeit wurde angeregt durch die in A.N. Borodin(2000) [Version of the Feynman-Kac Formula. Journal of Mathematical Sciences, 99(2):1044-1052, 2000] und in B. Simon(2000) [A Feynman-Kac Formula for Unbounded Semigroups. Canadian Math. Soc. Conf. Proc., 28:317-321, 2000] dargestellten Feynman-Kac-Formeln. Sie beschäftigt sich mit dem Problem, den Geltungsbereich der Feynman-Kac-Formel im Hinblick auf die Bedingungen der Potentiale und der Anfangsbedingung der zugehörigen partiellen Differentialgleichung zu erweitern. Es ist bekannt, dass die Feynman-Kac-Formel für beschränkte Potentiale gilt. Ausserdem gilt sie auch für Anfangsbedingungen, die im Raum \(C_{0}(\mathbb{R}^{n})\) oder im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegen. Die Darstellung der Feynman-Kac-Formel für die Anfangsbedingung, die im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegt, liefert die Lösung der partiellen Differentialgleichung. Wir können sie auch als stark stetige Halbgruppe auf dem Raum \(C_{0}(\mathbb{R}^{n})\) auffassen. Diese zwei verschiedenen Darstellungen sind äquivalent. In dieser Arbeit zeigen wir zunächst, dass die Feynman-Kac-Formel auch für unbeschränkte Potentiale \(V\) gilt, wobei \(|V(x)| \leq \varepsilon ||x||^{2} + C_{\varepsilon} \) für alle \(\varepsilon > 0; C_{\varepsilon} > 0\) und \(x \in \mathbb{R}^{n}\) ist. Ausserdem zeigen wir, dass sie für alle Anfangsbedingungen \(f\) gilt mit \(x \mapsto e^{-\varepsilon |x|^{2}} f(x) \in H^{2,2}(\mathbb{R}^{n})\). Der Beweis ist wahrscheinlichkeitstheoretisch und benutzt keine Spektraltheorie. Der spektraltheoretische Zugang, in dem eine Darstellung des Operators \(e^{-tH}\), wobei \(H = -\frac{1}{2} \Delta + V\) gegeben wird, wurde von B. Simon(2000) auch auf die obige Klasse von Potentialen ausgeweitet. Wir lassen zusätzlich auch Potentiale der Form \(V = V_{1} + V_{2}\) zu, wobei \(V_{1} \in L^{2}(\mathbb{R}^{3})\) ist und für alle \(\varepsilon > 0\) gibt es \(C_{\varepsilon} > 0\), so dass \(|V_{2}(x)| \leq\varepsilon ||x||^{2} + C_{\varepsilon}\) für alle \(x \in \mathbb{R}^{3}\) ist. Im Gegensatz zur klassischen Situation ist \(e^{-tH}\) jetzt ein unbeschränkter Operator. Schließlich wird in dieser Arbeit auch der Zusammenhang zwischen der Feynman-Kac-It\(\hat{o}\)-Formel, der Feynman-Kac-Formel und der Kolmogorov-Rückwärtsgleichung untersucht.
Mathematische Weiterbildung
(1984)
Ziel des Modellversuchs war es, zu untersuchen, welche Ergebnisse der mathematischen Forschung an Universitäten für den Praktiker besser zugänglich gemacht werden sollten und wie dies geschehen kann. Als Zielgruppen einer solchen Bildungsaufgabe waren insbesondere Ingenieure in den Forschungs- und Entwicklungsabteilungen der Industrie und Studenten der Mathematik und Technik (im Sinne einer mehr praxisbezogenen Ausbildung) vorgesehen; in organisatorischer Hinsicht war an ein Fernstudium gedacht.
Das TSP wird auf zeitabhängige Kosten und Wegelängen verallgemeinert, der Komplexitätstatus untersucht, verschiedene Formulierungen verglichen, Spezialfälle untersucht und ein auf Lagrange-Relaxation und Branch&Bound beruhendes exaktes Lösungsverfahren von Lucena erweitert, implementiert und getestet. Für das TDTSP wird die Dimension des ganzzahligen Polyeders bestimmt.
Diese Arbeit beschäftigt sich mit Methoden zur Klassifikation von Ovoiden in quadratischen Räumen. Die Anwendung der dazu entwickelten Algorithmen erfolgt hauptsächlich in achtdimensionalen Räumen speziell über den Körpern GF(7), GF(8) und GF(9). Zu verschiedenen, zumeist kleinen, zyklischen Gruppen werden hier die unter diesen Gruppen invarianten Ovoide bestimmt. Die bei dieser Suche auftretenden Ovoide sind alle bereits bekannt. Es ergeben sich jedoch Restriktionen an die Stabilisatoren gegebenenfalls existierender, unbekannter Ovoide.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da komplizierte zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind. Die numerischen Berechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da kompliziertere zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind, besonders, wenn, wie an der Universität Kaiserslautern, nur eine relativ langsame Anlage (Siemens 7551/7561) zur Verfügung steht. Die numerischen Rechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
Aus der Körpertheorie ist der Satz von der Normalbasis bekannt , der besagt, dass es zu jeder endlichen Galoiserweiterung L/K ein Element in L gibt, dessen Konjugierte unter der Galoisgruppe von L/K eine K-Basis von L bilden. Ein solches Element wird als regulär in L/K bezeichnet, die zugehörige K-Basis von L heisst Normalbasis. Für einen Zwischenkörper M einer Galoiserweiterung L/K ist nach dem Hauptsatz der Galoistheorie auch L/M galoissch und besitzt infolgedessen eine Normalbasis. Ist ein reguläres Element von L/K auch regulär in L/M für alle Zwischenkörper M von L/K, so wird es vollständig regulär in L/K genannt. Dies wirft die Frage auf, ob es in jeder Galoiserweiterung ein vollständig reguläres Element gibt. Wie sich zeigt, kann diese Frage für alle endlichen Galoiserweiterungen bejaht werden. Ein reguläres Element x einer Galoiserweiterung L/K ist durch zwei Eigenschaften gekennzeichnet: zum einen wird L von x über K erzeugt und zum anderen sind die Konjugierten von x unter der Galoisgruppe von L/K linear unabh"angig über K. Letzteres besagt gerade, dass die Nullstellen des Minimalpolynoms von x über K linear unabhängig über K sind. Hat x diese zweite Eigenschaft, so heisst x frei über K. Ist x ein Element aus einer algebraische Hülle A von K, so wird x vollst"andig frei über K genannt, wenn für jeden Zwischenkörper M von A/K die Nullstellen des Minimalpolynoms von x über M linear unabhängig über M sind. Es lässt sich zeigen, dass ein x aus A genau dann vollständig frei über K ist, wenn x frei über allen Zwischenkörpern M von N/K ist, wobei N den Zerfällungskörper des Minimalpolynoms von x über K bezeichnet. Dass es in jeder endlichen Galoiserweiterung L/K ein vollständig reguläres Element gibt, ist daher ein Spezialfall der Aussage, dass es in jeder endlichen, separablen Körpererweiterung L/K ein über K vollständig freies Element gibt, welches L erzeugt. Das erste Ziel dieser Arbeit ist deshalb der Beweis, dass jede endliche, separable Körpererweiterung L/K von einem über K vollständig freien Element erzeugt wird. Ist K ein Körper mit unendlich vielen Elementen, so ist der Beweis eine Verallgemeinerung des Beweises von E. Artin zur Existenz von Normalbasen in Galoiserweiterungen. Weitaus schwieriger ist der Fall, wenn K ein endlicher Körper ist. Dann ist L/K stets eine Galoiserweiterung und die über K vollständig freien Elemente, die L über K erzeugen, sind genau diejenigen, die in L/K vollständig regulär sind. Ist G die Galoisgruppe von L/K, so lässt sich L zu einem KG-Modul machen, der als solcher wegen des Satzes von der Normalbasis sogar isomorph zu KG ist. Ein Element aus L ist genau dann regulär in L/K, wenn es in keinem echten KG-Teilmodul von L liegt. Entsprechendes gilt natürlich auch für alle Zwischenkörper M von L/K. Das heisst, ein Element aus L ist genau dann vollständig regulär in L/K, falls es für keinen Zwischenkörper M von L/K in einem echten M U -Teilmodul von L liegt; hierbei bezeichnet U die Galoisgruppe von L/M . In Abschnitt 2 wird gezeigt, dass der Beweis auf den Fall, dass G eine zyklische Gruppe von Primzahlpotenzordnung ist, reduziert werden kann. Durch nähere Betrachtung der M U -Teilmoduln von L für diese Situation, wobei bereits allgemeiner K und L nicht als endlich vorausgesetzt werden, lässt sich dann zeigen, dass es stets ein Element in L gibt, das vollständig regulär in L/K ist. Die Tatsache, dass es in jeder Galoiserweiterung L/K ein vollständig reguläres Element gibt, lässt natürlich nicht darauf schliessen, dass jedes reguläre Element in L/K auch schon vollst"andig regulär in L/K ist. Dies leitet über zu der von C. C. Faith gestellten Frage, wann in einer endlichen, abelschen Galoiserweiterung jedes reguläre Element schon vollständig regulär ist; eine solche Galoiserweiterung heisst dann vollst"andig regulär. Im letzten Abschnitt wird diese Frage für Galoiserweiterungen L/K mit zyklischer Galoisgruppe G von Primzahlpotenzordnung beantwortet. Ist G = qn mit einer Primzahl q, so gibt es zwei Möglichkeiten: entweder q ist gleich oder q ist ungleich der Charakteristik von K. Im ersten Fall lässt sich relativ einfach zeigen, dass L/K stets vollständig regulär ist, selbst wenn G nur als abelsche q-Gruppe vorausgesetzt wird. Ist hingegen q ungleich der Charakteristik von K, so ist weit mehr Aufwand erforderlich. Die Untersuchung der Strukturen von L als M U -Modul für die verschiedenen Zwischenkörper M von L/K, - hierbei ist U wieder die Galoisgruppe von L/M -, die schon beim Existenzbeweis von vollständig regulären Elementen durchgeführt wird, ist dabei das entscheidende Hilfsmittel. Unter den gemachten Voraussetzungen ergibt sich dann folgende Charakterisierung einer vollständig regulären Erweiterung: L/K ist genau dann vollständig regulär, wenn L / K[iq] = K gilt, wobei i eine primitive qnte Einheitswurzel ist. Wird K zusätzlich als endlich angenommen, so l"asst sich dieses notwendige und hinreichende Kriterium sogar recht einfach überprüfen.
Zwei zentrale Probleme der modernen Finanzmathematik sind die Portfolio-Optimierung und die Optionsbewertung. Während es bei der Portfolio-Optimierung darum geht, das Vermögen optimal auf verschiedene Anlagemöglichkeiten zu verteilen, versucht die Optionsbewertung faire Preise von derivativen Finanzinstrumenten zu bestimmen. In dieser Arbeit werden Fragestellungen aus beiden dieser Themenbereiche bearbeitet. Die Arbeit beginnt mit einem Kapitel über Grundlagen, in dem zum Beispiel das Portfolio-Problem von Merton dargestellt und die Black/Scholes-Formel zur Optionsbewertung hergeleitet wird. In Kapitel 2 wird das Portfolio-Problem von Morton und Pliska betrachtet, die in das Merton-Modell fixe Transaktionskosten eingeführt haben. Dabei muß der Investor bei jeder Transaktion einen fixen Anteil vom derzeitigen Vermögen als Kosten abführen. Es wird die asymptotische Approximation dieses Modells von Atkinson und Wilmott vorgestellt und die optimale Portfoliostrategie aus den Marktparametern hergeleitet. Danach werden die tatsächlichen Transaktionskosten abgeschätzt und ein User Guide zur praktischen Anwendung dieses Transaktionskostenmodells angegeben. Zum Schluß wird das Modell numerisch analysiert, indem unter anderem die erwartete Handelszeit und die Güte der Abschätzung der tatsächlichen Transaktionskosten berechnet werden. Ein Portfolio-Problem mit internationalen Märkten wird in Kapitel 3 vorgestellt. Dem Investor steht zusätzlich zu seinem Heimatland noch ein weiteres Land für seine Vermögensanlagen zur Verfügung. Dabei werden die Preisprozesse für die ausländischen Wertpapiere mit einem stochastischen Wechselkurs in die Heimatwährung umgerechnet. In einer statischen Analyse wird unter anderem berechnet, wieviel weniger Vermögen der Investor benötigt, um das gleiche erwartete Endvermögen zu erhalten wie in dem Fall, wenn ihm keine Auslandsanlagen zur Verfügung stehen. Kapitel 4 behandelt drei verschiedene Portfolio-Probleme mit Sprung-Diffusions-Prozessen. Nach der Herleitung eines Verifikationssatzes wird das Problem bei Anlagemöglichkeit in eine Aktie und in ein Geldmarktkonto jeweils für eine konstante und eine stochastische Zinsrate untersucht. Im ersten Fall wird eine implizite Darstellung für den optimalen Portfolioprozeß und eine Bedingung angegeben, unter der diese Darstellung eindeutig lösbar ist. Außerdem wird der optimale Portfolioprozeß für verschiedene Verteilungen für die Sprunghöhe untersucht. Im Falle einer stochastischen Zinsrate kann nur ein Kandidat für den optimalen Lösungsprozeß angeben werden. Dieser hat wieder eine implizite Darstellung. Das letzte Portfolio-Problem ist eine Abwandlung des Modells aus Kapitel 3. Wird dort der Wechselkurs durch eine geometrisch Brownsche Bewegung modelliert, ist er hier ein reiner Sprungprozeß. Es wird wieder der optimale Portfolioprozeß hergeleitet, wobei ein Anteil davon unter Umständen nur numerisch lösbar ist. Eine hinreichende Bedingung für die Lösbarkeit wird angegeben. In Kapitel 5 werden verschiedene Bewertungsansätze für Optionen auf Bondindizes präsentiert. Es wird eine Methode vorgestellt, mit der die Optionen anhand von Marktpreisen bewertet werden können. Für den Fall, daß es nicht genug Marktpreise gibt, wird ein Verfahren angegeben, um den Bondindex realitätsnah zu simulieren und künstliche Marktpreise zu erzeugen. Diese Preise können dann für eine Kalibrierung verwendet werden.
Das zentrale Thema dieser Arbeit sind vollständig gekoppelte reflektierte Vorwärts-Rückwärts-Stochastische-Differentialgleichungen (FBSDE). Zunächst wird ein Spezialfall, die teilweise gekoppelten FBSDE, betrachtet und deren Verbindung zur Bewertung Amerikanischer Optionen aufgezeigt. Für die Lösung dieser Gleichung wird Monte-Carlo-Simulation benötigt, daher werden verschiedene Varianzreduktionsmaßnahmen erarbeitet und miteinander verglichen. Im Folgenden wird der allgemeinere Fall der vollständig gekoppelten reflektierten FBSDE behandelt. Es wird gezeigt, wie das Problem der Lösung dieser Gleichungen in ein Optimierungsproblem übertragen werden kann und infolgedessen mit numerischen Methoden aus diesem Bereich der Mathematik bearbeitet werden kann. Abschließend folgen Vergleiche der verschiedenen numerischen Ansätze mit bereits existierenden Verfahren.
Diese Dissertation besteht aus zwei aktuellen Themen im Bereich Finanzmathematik, die voneinander unabhängig sind.
Beim ersten Thema, "Flexible Algorithmen zur Bewertung komplexer Optionen mit mehreren Eigenschaften mittels der funktionalen Programmiersprache Haskell", handelt es sich um ein interdisziplinäres Projekt, in dem eine wissenschaftliche Brücke zwischen der Optionsbewertung und der funktionalen Programmierung geschlagen wurde.
Im diesem Projekt wurde eine funktionale Bibliothek zur Konstruktion von Optionen
entworfen, in dem es eine Reihe von grundlegenden Konstruktoren gibt, mit denen
man verschiedene Optionen kombinieren kann. Im Rahmen der funktionalen Bibliothek
wurde ein allgemeiner Algorithmus entwickelt, durch den die aus den Konstruktoren
kombinierten Optionen bewertet werden können.
Der mathematische Aspekt des Projekts besteht in der Entwicklung eines neuen Konzeptes zur Bewertung der Optionen. Dieses Konzept basiert auf dem Binomialmodell, welches in den letzten Jahren eine weite Verbreitung im Forschungsgebiet der Optionsbewertung fand. Der kerne Algorithmus des Konzeptes ist eine Kombination von mehreren
sorgfältig ausgewählten numerischen Methoden in Bezug auf den Binomialbaum. Diese
Kombination ist nicht trivial, sondern entwikelt sich nach bestimmten Regeln und ist eng mit den grundlegenden Konstruktoren verknüpft.
Ein wichtiger Charakterzug des Projekts ist die funktionale Denkweise. D. h. der Algorithmus ließ sich mithilfe einer funktionalen Programmiersprache formulieren. In unserem Projekt wurde Haskell verwendet.
Das zweite Thema, Monte-Carlo-Simulation des Deltas und (Cross-)Gammas von
Bermuda-Swaptions im LIBOR-Marktmodell, bezieht sich auf ein zentrales Problem der
Finanzmathematik, nämlich die Bestimmung der Risikoparameter komplexer Zinsderivate.
In dieser Arbeit wurde die numerische Berechnung des Delta-Vektors einer Bermuda-
Swaption ausführlich untersucht und die neue Herausforderung, die Gamma-Matrix einer Bermuda-Swaption exakt simulieren, erfolgreich gemeistert. Die beiden Risikoparameter spielen bei Handelsstrategien in Form des Delta-Hedgings und Gamma-Hedgings eine entscheidende Rolle. Das zugrunde liegende Zinsstrukturmodell ist das LIBORMarktmodell, welches in den letzten Jahren eine auffällige Entwicklung in der Finanzmathematik gemacht hat. Bei der Simulation und Anwendung des LIBOR-Marktmodells fällt die Monte-Carlo-Simulation ins Gewicht.
Für die Berechung des Delta-Vektors einer Bermuda-Swaption wurden drei klassische und drei von uns entwickelte numerische Methoden vorgestellt und gegenübergestellt, welche fast alle vorhandenen Arten der Monte-Carlo-Simulation zur Berechnung des Delta-Vektors einer Bermuda-Swaption enthalten.
Darüber hinaus gibt es in der Arbeit noch zwei neu entwickelte Methoden, um die Gamma-Matrix einer Bermuda-Swaption exakt zu berechnen, was völlig neu im Forschungsgebiet der Computational-Finance ist. Eine ist die modifizierte Finite-Differenzen-Methode. Die andere ist die reine Pathwise-Methode, die auf pfadweiser Differentialrechnung basiert und einem robusten und erwartungstreuen Simulationsverfahren entspricht.
Die MINT-EC-Girls-Camp: Math-Talent-School ist eine vom Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) initiierte Veranstaltung, die regelmäßig als Kooperation zwischen dem Felix-Klein-Zentrum für Mathematik und dem Verein mathematisch-naturwissenschaftlicher Excellence-Center an Schulen e.V. (Verein MINT-EC) durchgeführt wird. Die methodisch-didaktische Konzeption der Math-Talent-Schools erfolgt durch das Kompetenzzentrum für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS), einer wissenschaftlichen Einrichtung des Fachbereichs Mathematik der Technischen Universität Kaiserslautern. Die inhaltlich-organisatorische Ausführung übernimmt das Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in enger Abstimmung und Kooperation von Wissenschaftlern der Technischen Universität und des Fraunhofer ITWM. Die MINT-EC-Girls-Camp: Math-Talent-School hat zum Ziel, Mathematik-interessierten Schülerinnen einen Einblick in die Arbeitswelt von Mathematikerinnen und Mathematikern zu geben. In diesem Artikel stellen wir die Math-Talent-School vor. Hierfür werden die fachlichen und fachdidaktischen Hintergründe der Projekte beleuchtet, der Ablauf der Veranstaltung erläutert und ein Fazit gezogen.
Elementare Zahlentheorie
(2020)
Einführung in die Algebra
(2020)
Das Ziel dieser Arbeit besteht darin, aufzuzeigen, wie eine mathematische Modellierung, verbunden mit Simulations- und Ansteuerungsaspekten eines Segways im Mathematikunterricht der gymnasialen Oberstufe als interdisziplinäres Projekt umgesetzt werden kann. Dabei werden sowohl Chancen, im Sinne von erreichbaren mathematischen Kompetenzen, als auch Schwierigkeiten eines solchen Projektes mit einer interdisziplinären Umsetzung geschildert.
Zur Datenreduktion gemessener stochastischer Beanspruchungszeitfunktionen werden Zählverfahren eingesetzt. Mit den dabei entstehenden Beanspruchungskollektiven werden rechnerische Lebensdauerabschätzungen gemacht. Da diese mit großen Unsicherheiten behaftet sind, besteht der Wunsch, aus den Beanspruchungskollektiven on-line stochastische Beanspruchungszeitfunktionen zu rekonstruieren, damit ein experimenteller Lebensdauernachweis im Labor mit servohydraulischen Zylindern durchgeführt werden kann. In bezug auf die Lebensdauer der Bauteile unter stochastischer Beanspruchung wird heute dem zweiparametrigen Rainflow-Zählverfahren die größte Bedeutung beigemessen. Es werden ein gegenüber /1/ verbessertes Markov-Inversionsverfahren und ein Rekonstruktionsverfahren aus der symmetrischen und der unsymmetrischen Rainflow-Matrix vorgestellt. Anhand von Beispielen werden diese Inversionsverfahren, die jeweils unter allen Zeitfunktionen, die zu der betreffenden Matrix führen, mit gleicher Wahrscheinlichkeit eine auswählen, verglichen. Es zeigt sich dabei, daß im Hinblick auf die Lebensdauer von Bauteilen unter stochastischer Beanspruchung die Rainflow-Inversionen zu wesentlich besseren Ergebnissen führt als die Markov-Inversionen.
Die Dissertation "Portfoliooptimierung im Binomialmodell" befasst sich mit der Frage, inwieweit
das Problem der optimalen Portfolioauswahl im Binomialmodell lösbar ist bzw. inwieweit
die Ergebnisse auf das stetige Modell übertragbar sind. Dabei werden neben dem
klassischen Modell ohne Kosten und ohne Veränderung der Marktsituation auch Modellerweiterungen
untersucht.
Die Planung von Bushaltestellen in Innenstädten ist ein authentisches Thema, welches sich für den Einsatz in einem realitätsbezogenen Unterricht in unterschiedlichen Klassenstufen eignet. Verschiedene Interessen und Gegebenheiten müssen in einem Modell und in einer Lösungsstrategie vereint werden. Durch eine sehr offen gewählte Fragestellung sind verschiedene Ansätze und Modelle möglich. Somit wird mathematisches Modellieren trainiert und das Durchlaufen eines Modellierungsprozesses in einem interessanten Projekt ermöglicht. Die mathematischen Hintergründe sowie das vielseitige Lösungsspektrum von Schülerinnen und Schülern unterschiedlicher Jahrgangsstufen zu derselben Fragestellung werden im Folgenden vorgestellt.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
Zuerst einmal werden die Grundlagen der nichtparametrischen Regression sowie die der Kleinste-Quadrate-Schätzer behandelt und unser verwendetes Modell hergeleitet. Kapitel 3 führt dann in die Theorie der gewichteten Kernschätzer ein, wobei auch das asymptotische Verhalten genauer untersucht wird. Des Weiteren wird ein numerischer Algorithmus zur Berechnung der Kernschätzer angegeben. Die Simulationsstudie der gewichteten Kernschätzer anhand von Regressionsdaten und Zeitreihendaten sowie die praktische Beurteilung erfolgen in Kapitel 4 und 5. Reale Zeitreihendaten bilden danach im sechsten Kapitel die Grundlage für die praktische Betrachtung der neuen Schätzer. Im letzten Kapitel folgt dann ein Resümee und ein kleiner Ausblick auf die gewichteten Kernschätzer für allgemeinere Modelle.
Diese Doktorarbeit befasst sich mit Volatilitätsarbitrage bei europäischen Kaufoptionen und mit der Modellierung von Collateralized Debt Obligations (CDOs). Zuerst wird anhand einer Idee von Carr gezeigt, dass es stochastische Arbitrage in einem Black-Scholes-ähnlichen Modell geben kann. Danach optimieren wir den Arbitrage- Gewinn mithilfe des Erwartungswert-Varianz-Ansatzes von Markowitz und der Martingaltheorie. Stochastische Arbitrage im stochastischen Volatilitätsmodell von Heston wird auch untersucht. Ferner stellen wir ein Markoff-Modell für CDOs vor. Wir zeigen dann, dass man relativ schnell an die Grenzen dieses Modells stößt: Nach dem Ausfall einer Firma steigen die Ausfallintensitäten der überlebenden Firmen an, und kehren nie wieder zu ihrem Ausgangsniveau zurück. Dieses Verhalten stimmt aber nicht mit Beobachtungen am Markt überein: Nach Turbulenzen auf dem Markt stabilisiert sich der Markt wieder und daher würde man erwarten, dass die Ausfallintensitäten der überlebenden Firmen ebenfalls wieder abflachen. Wir ersetzen daher das Markoff-Modell durch ein Semi-Markoff-Modell, das den Markt viel besser nachbildet.
Diese Arbeit entstand aus der Zusammenarbeit der Arbeitsgruppe Technomathematik der Universität Kaiserslautern mit der Firma AUDI AG in Ingolstadt. Die Hauptaufgabe bestand in der Modell-Entwicklung für das Zeitverhalten von Beanspruchungszeitfunktionen (BAZF). Daher werden auch die ursprünglichen Modellansätze, die sich aufgrund von Beobachtungen realer BAZFen als Irrwege herausstellten, und die Stufen der Anpassung an die Realität hier dargestellt. Die Überprüfung der Modelle habe ich vier Wochen lang vor Ort durchgeführt und anschließend die endgültigen entwickelt. Die bei AUDI erstellten Plots werden zur Rechtfertigung der Modelle beitragen. Das Ziel der Modell-Entwicklung war immer die praktische Anwendung, weshalb auch dieser Gesichtspunkt oft hereinspielt, besonders wenn es um die Realisierung auf dem Rechner geht. Über die Implementierung und die praktischen Ergebnisse wird in einer späteren Arbeit berichtet werden.
Endliche Gruppen
(2001)
Eine Einführung mit dem Ziel der Klassifikation von Gruppen kleiner Ordnung. Skript zum Proseminar im WS 2000/01. Inhalt: Satz von Lagrange, Normalteiler, Homomorphismen, symmetrische Gruppe, alternierende Gruppe, Operieren, Konjugieren, (semi-)direkte Produkte, Erzeuger und Relationen, zyklische Gruppen, abelsche Gruppen, Sylowsätze, Automorphismengruppen, Klassifikation, auflösbare Gruppen.
Zerlegungen und Parkettierungen der Ebene spielen in vielen wissenschaftlichen, praktischen und künstlerischen Bereichen eine wichtige Rolle. In dieser Abhandlung werden solche diskrete Systeme von Punktmengen betrachtet. Zunächst werden Packungen einfacher Figuren durch Polyominos, diskrete Zerlegungen der Ebene sowie Zerlegungen von Polygonen in Polygone behandelt. Weiterführend werden sowohl Mosaike, als auch Parkette und deren Anwendungsbeispiele vorgestellt.
Da die zweiwertige Aussagenlogik nicht nur innerhalb der Logik insgesamt, sondern auch schon in der Aussagenlogik einen vergleichbaren Platz wie die euklidische Planimetrie im Rahmen der gesamten modernen Geometrie einnimmt, soll hier eine Einführung in eine vom tertium non datur unabhängige mehrwertige Logik gegeben werden. Neben Definition und Beispielen mehrwertiger Logiken soll auch auf die Möglichkeit der Axiomatisierung sowie auf Fragen des Entscheidungsproblems in solchen Logiken eingegangen werden.
Lineare Optimierung ist ein wichtiges Aufgabengebiet der angewandten Mathematik, da sich viele praktische Probleme mittels dieser Technik modellieren und lösen lassen. Diese Veröffentlichung soll helfen, Schüler an diese Thematik heranzuführen. Dabei soll der Vorgang des Modellierens, also die Reduktion des Problems auf die wesentlichen Merkmale, vermittelt werden. Anschließend an den Modellierungsprozeß können durch Einsatz der Simplex-Methode die linearen Optimierungsprobleme gelöst werden. Verschiedene praktische Beispiele dienen der Veranschaulichung des Vorgehens.
We consider the problem of finding efficient locations of surveillance cameras, where we distinguish
between two different problems. In the first, the whole area must be monitored and the number of cameras
should be as small as possible. In the second, the goal is to maximize the monitored area for a fixed number of
cameras. In both of these problems, restrictions on the ability of the cameras, like limited depth of view or range
of vision are taken into account. We present solution approaches for these problems and report on results of
their implementations applied to an authentic problem. We also consider a bicriteria problem with two objectives:
maximizing the monitored area and minimizing the number of cameras, and solve it for our study case.
Es wird anhand von Beispielen, an denen der Autor in der Vergangenheit gearbeitet hat, gezeigt, wie man Modelle der exakten Naturwissenschaften auf wirtschaftliche Probleme
anwenden kann. Insbesondere wird diskutiert, wo Grenzen dieser Übertragbarkeit liegen. Die Arbeit ist eine Zusammenfassung eines Vortrags, der im SS 1992 im Rahmen des Studium Generale an der Universität Kaiserslautern gehalten wurde.
Vigenere-Verschlüsselung
(1999)
An analogue of the classical Riemann-Siegel integral formula for Dirichlet series associated to cusp forms is developed. As an application of the formula, we give a comparatively simple proof of the approximate functional equation for this type of Dirichlet series.
A Remark on Primes of the Form \(2^{3n}a + 2^{2n}b+2^nc+1\). Necessary and sufficient conditions for the numbers in the title to be prime are given. The tests are well suited for practical purposes.
Topologie II
(1995)
Lineare Algebra I & II
(2000)
Inhalte der Grundvorlesungen Lineare Algebra I und II im Winter- und Sommersemester 1999/2000: Gruppen, Ringe, Körper, Vektorräume, lineare Abbildungen, Determinanten, lineare Gleichungssysteme, Polynomring, Eigenwerte, Jordansche Normalform, endlich-dimensionale Hilberträume, Hauptachsentransformation, multilineare Algebra, Dualraum, Tensorprodukt, äußeres Produkt, Einführung in Singular.
Gegenstand dieser Arbeit ist die kanonische Verbindung klassischer globaler Schwerefeldmodellierung in der Konzeption von Stokes (1849) und Neumann (1887) und moderner lokaler Multiskalenberechnung mittels lokalkompakter adaptiver Wavelets. Besonderes Anliegen ist die "Zoom-in"-Ermittlung von Geoidhöhen aus lokal gegebenen Schwereanomalien bzw. Schwerestörungen.
Die Bestimmung des Erdgravitationspotentials aus den Meßdaten des Forschungssatelliten CHAMP lässt sich als Operatorgleichung formulieren (SST-Problem). Dieser Ansatz geht davon aus, dass ein geometrischer Orbit des Satelliten CHAMP vorliegt. Mittels numerischer Differentiation unter Einsatz eines geeigneten Denoising Verfahrens kann dann aus dem geometrischen Orbit der Gradient des Potentials längs der Bahn bestimmt werden. Damit sind insbesondere die Radialableitung (und der Flächengradient) auf einem Punktgitter auf der Bahn bekannt. In einem erdfesten System stellt sich dies als eine nahezu vollständige Überdeckung der Erde (bis auf Polar Gaps) mit einem ziemlich dichten Datengitter auf Flughöhe des Satelliten dar. Die Lösung der SST-Operatorgleichung (Bestimmung des Potentials auf der Erdoberfläche aus Kenntnis der Radialableitung auf einem Datengitter auf Flughöhe) ist ein schlecht gestelltes inverses Problem, das mit einer geeigneten Regularisierungstechnik gelöst werden muß. Im vorliegenden Fall wurde eine solche Regularisierung mit Hilfe von nicht-bandlimitierten Regularisierungsskalierungsfunktionen und Regularisierungswavelets umgesetzt. Diese sind stark ortslokalisierend und führen daher auf ein Potentialmodell, welches eine Linearkombination stark ortslokalisierender Funktionen ist. Ein solches Modell kann als Lokalmodell auch aus nur lokalen Daten berechnet werden und bietet daher gegenüber Kugelfunktionsmodellen wie EGM96 erhebliche Vorteile für die moderne Geopotentialbestimmung. Die Diskretisierung und numerische Umsetzung der Berechnung eines solchen Modells erfolgt mit Splines, die hier ebenfalls Linearkombinationen stark ortslokalisierender Funktionen sind. Die großen linearen Gleichungssysteme, die zur Berechnung der glättenden oder interpolierenden Splines gelöst werden müssen, können auf schnelle und effiziente Weise mit dem Schwarzschen alternierenden Algorithmus in Verbindung mit schnellen Summationsverfahren (Fast Multipole Methods) gelöst werden. Eine Kombination des Schwarzschen alternierenden Algorithmus mit solchen schnellen Summationsverfahren ermöglicht eine weitere erhebliche Beschleunigung beim Lösen dieser Gleichungssysteme. Zur Bestimmung von Glättungsparametern (Spline-Smoothing) und Regularisierungsparametern kann die L-Curve Method zum Einsatz kommen.
In der Automobilindustrie muss der Nachweis von Bauteilzuverlässigkeiten auf statistischen Verfahren basieren, da die Bauteilfestigkeit und Kundenbeanspruchung streuen. Die bisherigen Vorgehensweisen der Tests führen häufig Fehlentscheidungen bzgl. der Freigabe, was unnötige Design-Änderungen und somit hohe Kosten bedeuten kann. In vorliegender Arbeit wird der Ansatz der partiellen Durchläuferzählung entwickelt, welche die statische Güte der bisherigen Testverfahren (Success Runs) erhöht.
Die Grundgleichungen der Physikalischen Geodäsie (in der klassischen Formulierung) werden einer Multiskalenformulierung mittels (sphärisch harmonischer) Wavelets unterzogen. Die Energieverteilung des Störpotentials wird in Auflösung nach Skala und Ort durch Verwendung von Waveletvarianzen beschrieben. Schließlich werden zur Modellierung der zeitlichen Variationen des Schwerefeldes zeit- und ortsgebundene Energiespektren zur Detektion lokaler sowie periodischer/saisonaler Strukturen eingeführt.
Das Programmsystem PROMO wird in der Industrie zur Berechnung von instationären Gasströmungen in Mehrzylinder-Verbrennungsmotoren eingesetzt. PROMO wurde in den Jahren von 1970 bis 1977 an der Ruhr-Universität Bochum entwickelt. Nach den ersten Erfahrungen von Anwendern wurde das Programmsystem 1979/80 überarbeitet, und es entstand die neue Version PROMO 2.; Instationäre, kompressible und eindimensionale Rohrströmungen können berechnet werden. Außerdem sind die verschiedensten Rand- und Übergangsbedingungen zwischen den einzelnen Rohrstücken realisiert.; Einerseits hat sich PROMO in der Praxis bewährt, andererseits wurden auch deutliche Abweichungen der Rechenergebnisse von Messungen beobachtet. Aus dem Anwenderbereich hat die Firma Gillet (Hersteller von Auspuffanlagen) folgende Fragen aufgeworfen: Wie muß die Orts- bzw. Zeitschrittweite gewählt werden, um eine bestimmte Genauigkeit der numerischen Lösung zu sichern? Wie können die erzielten Ergebnisse theoretisch beurteilt werden (Fehlerschätzung)?; Deshalb erscheint eine Betrachtung des Programmsystems aus mathematischer Sicht sinnvoll.
Aufgrund der vernetzten Strukturen und Wirkungszusammenhänge dynamischer Systeme werden die zugrundeliegenden mathematischen Modelle meist sehr komplex und erfordern ein hohes mathematisches Verständnis und Geschick. Bei Verwendung von spezieller Software können jedoch auch ohne tiefgehende mathematische oder informatorische Fachkenntnisse komplexe Wirkungsnetze dynamischer Systeme interaktiv erstellt werden. Als Beispiel wollen wir schrittweise das Modell einer Miniwelt entwerfen und Aussagen bezüglich ihrer Bevölkerungsentwicklung treffen.
Ein Teilaspekt der formalen Logik besteht in der Untersuchung wie die logischen Konsequenzen (insbesondere die Tautologien) einer vorgegebenen Formelmenge unter Verwendung gewisser Reglements schrittweise hergeleitet werden können. Hierbei ist die Logik bestimmt durch eine konsequente Trennung von Syntax und Semantik. Diese Abhandlung stellt exemplarisch das Tableau-Kalkül und das Kalkül des natürlichen Schließens vor.
Fragestellungen der Standortplanung sollen den Mathematikunterricht der Schule bereichern, dort behandelt und gelöst werden. In dieser Arbeit werden planare Standortprobleme vorgestellt, die im Mathematikunterricht behandelt werden können. Die Probleme Produktion von Halbleiterplatinen, Planung eines Feuerwehrhauses und das Zentrallagerproblem, die ausnahmlos real und nicht konstruiert sind, werden ausführlich durchgearbeitet, so dass es schnell möglich ist, daraus Unterrichtseinheiten zu entwickeln.
Zusammenfassung. In dieser Arbeit werden Probleme der numerischen Lösung finiter Differenzenverfahren partieller Differentialgleichungen in einem algebraischen Ansatz behandelt. Es werden sowohl theoretische Ergebnisse präsentiert als auch die praktische Implementierung mithilfe der Systeme SINGULAR und QEPCAD vorgeführt. Dabei beziehen sich die algebraischen Methoden auf zwei unterschiedliche Aspekte bei finiten Differenzenverfahren: die Erzeugung von Schemata mithilfe von Gröbnerbasen und die darauf folgende Stabilitätsanalyse mittels Quantorenelimination durch algebraische zylindrische Dekomposition. Beim Aufbau der Arbeit werden in den ersten drei Kapiteln in einer Rückschau die nötigen Begriffe aus der Computeralgebra gelegt, die Grundzüge der numerischen Konvergenztheorie finiter Differenzenschemata erklärt sowie die Anwendung des CAD-Algorithmus zur Quantorenelimierung skizziert. Das Kapitel 4 entwickelt ausgehend vom zugrunde liegenden Kontext die Formulierung und die dafür nötigen Bedingungen an Differenzenschemata, die algebraisch nach Definition ein Ideal in einem Polynomring darstellen. Neben der praktischen Handhabbarkeit der Objekte liegt die Betonung auf größtmöglicher Allgemeinheit in den Definitionen der Begriffe. Es werden äquivalente Wege der Erzeugung sowie Eigenschaften der Eindeutigkeit unter sehr speziellen Bedingungen an die verwendeten Approximationen gezeigt. Die Anwendung des CAD-Algorithmus auf die Abschätzung des Symbols eines Schemas wird erläutert. Das fünfte Kapitel beschreibt die SINGULAR-Bibliothek findiff.lib, welche das Zusammenspiel von SINGULAR und QEPCAD garantiert und eine vollständige Automatisierung der Erzeugung und Stabilitätsanalyse eines finiten Differenzenverfahrens ermöglicht.