Kaiserslautern - Fachbereich Mathematik
Refine
Year of publication
Document Type
- Preprint (54)
- Article (19)
- Doctoral Thesis (14)
- Lecture (14)
- Report (12)
- Diploma Thesis (6)
- Part of a Book (4)
- Study Thesis (2)
- Course Material (1)
- Master's Thesis (1)
Language
- German (127) (remove)
Keywords
- Mathematische Modellierung (17)
- MINT (16)
- Schule (16)
- Modellierung (5)
- Modellierungswoche (5)
- Lineare Algebra (3)
- Mathematikunterricht (3)
- Simulation (3)
- praxisorientiert (3)
- Geodäsie (2)
- Logik (2)
- Mehrskalenanalyse (2)
- dynamische Systeme (2)
- Analysis (1)
- Arbitrage (1)
- Arduino (1)
- Bayesrisiko (1)
- Bondindizes (1)
- CDO (1)
- CHAMP-Mission (1)
- Charakter <Gruppentheorie> (1)
- Debt Management (1)
- Derivat <Wertpapier> (1)
- Didaktik (1)
- Differenzenverfahren (1)
- Diffusionsprozess (1)
- Diskrete Mathematik (1)
- Dynamische Systeme (1)
- Dynasys (1)
- Elektronik (1)
- Elementare Zahlentheorie (1)
- Endliche Geometrie (1)
- Endliche Lie-Gruppe (1)
- Erwarteter Nutzen (1)
- Erwartungswert-Varianz-Ansatz (1)
- Evakuierung (1)
- Fatigue (1)
- Feynman path integrals (1)
- Finanzzeitreihe (1)
- Forward-Backward Stochastic Differential Equation (1)
- Galerkin Approximation (1)
- Geothermal Flow (1)
- Geothermischer Fluss (1)
- Gewichtung (1)
- Graphentheorie (1)
- Gravitation (1)
- Gravitationsfeld (1)
- Gravitationsmodell (1)
- Gruppentheorie (1)
- Gröbner-Basis (1)
- Gröbner-basis (1)
- Hamilton-Jacobi-Differentialgleichung (1)
- Heston-Modell (1)
- Integral (1)
- Integration (1)
- Interdisziplinärer Projektunterricht (1)
- Internationale Diversifikation (1)
- Inverses Problem (1)
- Ito (1)
- Kalkül (1)
- Kalkül des natürlichen Schließens (1)
- Kernschätzer (1)
- Kiyoshi (1)
- Kristallmathematik (1)
- Lagrange (1)
- Lebesque-Integral (1)
- Lehrkräfte (1)
- Lehrmittel (1)
- Lineare Optimierung (1)
- Lucena (1)
- Markov-Prozess (1)
- Math-Talent-School (1)
- McKay-Conjecture (1)
- McKay-Vermutung (1)
- Modellbildung (1)
- Monte-Carlo-Simulation (1)
- Mosaike (1)
- Motion Capturing (1)
- Multiskalenapproximation (1)
- Neumann Wavelets (1)
- Neumann wavelets (1)
- Nichtparametrische Regression (1)
- Numerische Mathematik (1)
- Optimale Portfolios (1)
- Optionspreistheorie (1)
- Ovoid (1)
- Parkette (1)
- Partielle Differentialgleichung (1)
- Pfadintegral (1)
- Portfolio Selection (1)
- Portfoliomanagement (1)
- Projektarbeit (1)
- Projektunterricht (1)
- Punktmengen (1)
- Quadratischer Raum (1)
- Raspberry Pi (1)
- Regularisierung (1)
- Relaxation (1)
- Reliability (1)
- Riemannsche Summen (1)
- Semi-Markov-Kette (1)
- Simplex (1)
- Sprung-Diffusions-Prozesse (1)
- Standortplanung (1)
- Stochastische Differentialgleichung (1)
- Stochastische Zinsen (1)
- Stochastische dynamische Optimierung (1)
- Stokes Wavelets (1)
- Stokes wavelets (1)
- Stücklisten (1)
- Success Run (1)
- Synthesizer (1)
- TDTSP (1)
- TSP (1)
- Tabellenkalkulation (1)
- Tableau-Kalkül (1)
- Theorie schwacher Lösungen (1)
- Tiefengeothermie (1)
- Titration (1)
- Transaktionskosten (1)
- Trennverfahren (1)
- Treppenfunktionen (1)
- Verschlüsselung (1)
- Vigenere (1)
- Volatilität (1)
- Volatilitätsarbitrage (1)
- Vorwärts-Rückwärts-Stochastische-Differentialgleichung (1)
- Wavelet (1)
- Wavelets (1)
- Weak Solution Theory (1)
- White Noise Analysis (1)
- Wirkungsnetz (1)
- Zeitreihen (1)
- Zellulärer Automat (1)
- Zerlegungen (1)
- Zopfgruppe (1)
- abgeleitete Kategorie (1)
- aleph (1)
- derived category (1)
- diskrete Systeme (1)
- estimate (1)
- estimator (1)
- finite difference schemes (1)
- formale Logik (1)
- grenzwert (1)
- homological algebra (1)
- kardinalzahl (1)
- kombinatorische Optimierung (1)
- limes (1)
- markov model (1)
- mathematische Modellierung (1)
- mean-variance approach (1)
- mehrwertig (1)
- multiscale approximation (1)
- nichtparametrisch (1)
- non-parametric regression (1)
- nonparametric (1)
- partial differential equation (1)
- simulierte Finanzzeitreihe (1)
- spectral sequences (1)
- stochastic arbitrage (1)
- stochastische Arbitrage (1)
- technische Analyse (1)
- time series (1)
- unbeschränktes Potential (1)
- unbounded potential (1)
- unendlich (1)
- volatility arbitrage (1)
Faculty / Organisational entity
Insbesondere bei der industriellen Nutzung tiefer geothermischer Systeme gibt es Risiken, die im Hinblick auf eine zukunftsträchtige Rolle der Ressource "Geothermie" innerhalb der Energiebranche eingeschätzt und minimiert werden müssen. Zur Förderung und Unterstützung dieses Prozesses kann die Mathematik einen entscheidenden Beitrag leisten. Um dies voranzutreiben haben wir zur Charakterisierung tiefer geothermischer Systeme ein Säulenmodell entwickelt, das die Bereiche Exploration, Bau und Produktion näher beleuchtet. Im Speziellen beinhalten die Säulen: Seismische Erkundung, Gravimetrie/Geomagnetik, Transportprozesse, Spannungsfeld.
Die Möglichkeit einer Prämienanpassung in der deutschen PKV ist vom Wert des sogenannten auslösenden Faktors abhängig, der mittels einer linearen Extrapolation der Schadenquotienten der vergangenen drei Jahre berechnet wird. Seine frühzeitige, verlässliche Vorhersage ist aus Sicht des Risikomanagements von großer Bedeutung. Wir untersuchen deshalb vielfältige Vorhersageansätze, die von klassischen Zeitreihenansätzen und Regression über neuronale Netze bis hin zu hybriden Modellen reichen. Während bei den klassischen Methoden Regression mit ARIMA-Fehlern am besten abschneidet, zeigt ein neuronales Netz, das mit Zeitreihenvorhersage kombiniert oder auf desaisonalisierten und trendbereinigten Daten trainiert wurde, das insgesamt beste Verhalten.
Die Aufgabe dieses Projektes ist die Untersuchung des Schallfeldes, das sich in einem geschlossenen Quader bei Erregung durch eine punktförmige Schallquelle einstellt. Eine zentrale Rolle spielt hierbei die Wechselwirkung zwischen dem Schallfeld und den Quaderplatten, die zu Schwingungen angeregt werden und so dem Schallfeld Energie entziehen. Der Zweck dieser Untersuchung ist, Erkenntnisse für die Berechnung des Innendrucks zu Fahrzeugkarosserien zu gewinnen. Dies muß bei der Dimensionierung des Quaders und bei der Wahl des Plattenmaterials berücksichtigt werden. Numerische Berechnungen des Schalldrucks in einem Quader wurden beispielsweise in [1] durchgeführt. Das Ergebnis zeigt, daß zwei Arten von Resonanzen auftreten: Zum einen Strukturresonanzen, die durch Eigenschwingungen der Wände hervorgerufen werden und die von den Wandabmessungen und dem Plattenmaterial abhängen, zum anderen Hohlraumresonanzen, die auftreten, wenn die Luftwellenlänge in einem geeigneten Verhältnis zu den Abmessungen des Hohlraums steht. Es ist sehr zweifelhaft, welche Rückschlüsse gezogen werden können von den numerischen Resultaten in [1] auf kompliziertere Geometrien, wie sie bei Fahrzeugkarosserien vorliegen. Eine tiefere Einsicht in die Kopplung zwischen Schallfeld und Plattenschwingungen vor allem in den Resonanzbereichen ist nur zu erwarten, wenn die Berechnung dieser Wechselwirkung weitgehend analytisch durchgeführt wird. Eine solche analytische Berechnung ist das Ziel dieses Projektes.
Wir beschreiben eine Methode zur Approximation von Spannungsgradienten aus diskreten Spannungsdaten. Eine herkömmliche Diskretisierung der Ableitungen aus Funktionswerten führt zu Stabilitätsproblemen, weswegen eine Möglichkeit zur Kontrolle der Ableitungen notwendig ist (Regularisierung). Wir bestimmen zunächst das Funktional der potentiellen Energie und führen zusätzlich ein Fehlerfunktional ein, das die Anpassung an die vorgegebenen diskreten Werte ermöglicht. Durch Gewichtung der beiden Funktionale und Minimierung des Gesamtfunktionals erhält man den gewünschten Ausgleich zwischen der Fehlerkontrolle beim Ableiten einerseits und Kontrolle der Fehler bei den Randwerten andererseits.
Der unmögliche Freistoß
(2016)
Die Autoren befassen sich mit der Ableitung und Bearbeitung eines Modellierungsprojektes aus der populären Sportart Fußball: Ein Freistoß wird unter Beachtung der gegebenen physikalischen Effekte mathematisch modelliert und simuliert. Der Fokus liegt auf der möglichen Durchführung dieses Modellierungsprojekts mit Schülerinnen und Schülern der Sekundarstufe II.
Das MINT-EC-Girls-Camp: Math-Talent-School richtet sich an mathematikbegeisterte Schülerinnen von MINT-EC-Schulen, die Einblicke in die Berufswelt von Mathematikerinnen und Mathematikern bekommen möchten. Die Veranstaltung veranschaulicht den Schülerinnen die steigende Relevanz angewandter mathematischer Forschungsgebiete, wie der Techno- und der Wirtschaftsmathematik. Sie soll dazu dienen, Schüler:innen die Bedeutung mathematischer Arbeitsweisen in der heutigen Berufswelt, insbesondere in Industrie und Wirtschaft, begreifbar zu machen. Die Talent-School wird organisiert von MINT-EC und dem Felix-Klein-Zentrum für Mathematik. Die fachwissenschaftliche Betreuung der Schülerinnen während dieser Talent-School wurde durch Mitarbeitende des Kompetenzzentrums für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS) der TU Kaiserslautern und des Fraunhofer ITWM umgesetzt. In diesem Report beschreiben wir die Projekte, die während der Talent-School im Oktober 2022 durchgeführt wurden.
Der Beitrag beschäftigt sich mit der Frage, ob Schildkröten alleine anhand der Musterung bzw. Struktur ihres Bauch- Rückenpanzers eindeutig identifiziert werden können. Dabei sollen sinnvolle Identifizierungsmerkmale entwickelt werden, die auf der Basis von Fotos ausgewertet werden. Das Besondere an diesem Problem ist, dass es mit Lernenden ganz unterschiedlicher Altersstufen bearbeitet werden kann und dass es eine unheimliche Vielfalt an mathematischen Methoden gibt, die auf dem Weg zu einer Lösung hilfreich sind: Dies reicht von einfachen geometrischen Überlegungen über Analysis (Integration, Kurvendiskussion) bis hin zu mathematischer Bildverarbeitung und Fragen der Robustheit. Genauso breit wie das Spektrum der einsetzbaren mathematischen Werkzeuge ist die Altergruppe, mit der ein derartiges Projekt durchführbar ist: Vom Grundschulalter bis hin zur Masterarbeit ist eine Bearbeitung möglich, und die benötigte Zeitspanne reicht von wenigen Stunden bis hin zu mehreren Monaten. Im Beitrag wird die angesprochene Vielfalt exemplarisch gezeigt, so dass die Leser im Idealfall das Projekt genau an die Bedürfnisse ihrer Lerngruppe anpassen können.
Seit 1993 veranstaltet der Fachbereich Mathematik der TU Kaiserslautern jährlich die mathematischen Modellierungswochen. Die Veranstaltung erwuchs parallel zu der steigenden Relevanz angewandter mathematischer Forschungsgebiete, wie der Technomathematik und der Wirtschaftsmathematik. Sie soll dazu dienen, Schülerinnen und Schülern die Bedeutung mathematischer Arbeitsweisen in der heutigen Berufswelt, insbesondere in Industrie und Wirtschaft, begreifbar zu machen. Darüber hinaus bietet die Modellierungswoche den teilnehmenden Lehrkräften einen Einblick in die Projektarbeit mit offenen Fragestellungen im Rahmen der mathematischen Modellierung. In diesem Report beschreiben wir die Projekte, die während der Modellierungswoche im Dezember 2021 durchgeführt wurden. Der Themenschwerpunkt der Veranstaltung lautete "Wetter und Katastrophenschutz".
Seit 1993 veranstaltet der Fachbereich Mathematik der TU Kaiserslautern jährlich die mathematischen Modellierungswochen. Die Veranstaltung erwuchs parallel zu der steigenden Relevanz angewandter mathematischer Forschungsgebiete, wie der Techno- und der Wirtschaftsmathematik. Sie soll dazu dienen, Schülerinnen und Schülern die Bedeutung mathematischer Arbeitsweisen in der heutigen Berufswelt, insbesondere in Industrie und Wirtschaft, begreifbar zu machen. Darüber hinaus bietet die Modellierungswoche den teilnehmenden Lehrkräften einen Einblick in die Projektarbeit mit offenen Fragestellungen im Rahmen der mathematischen Modellierung. In diesem Report beschreiben wir die Projekte, die während der Modellierungswoche im Dezember 2022 durchgeführt wurden.
Liegruppen
(1997)
Mit der vorliegenden Veröffentlichung soll der Versuch unternommen werden, mathematischen Schulstoff aus konkreten Problemen herzuentwickeln. Im Mittelpunkt der vorliegenden Arbeit stehen betriebswirtschaftliche Planungs- und Entscheidungsprobleme, wie sie von fast allen Wirtschaftsunternehmen zu lösen sind. Dabei wird im besonderen auf folgende Optimierungsprobleme eingegangen: Berechnung des Rohstoffbedarfs bei gegebenen Bestellungen, Aufarbeitung von vorhandenen Lagerbeständen und das Stücklistenproblem.
Im Sommersemester 2008 führte die AG Optimierung, FB Mathematik zusammen mit dem FB Chemie und dem FB Pädagogik ein interdisziplinäres Seminar zur „Fachdidaktik Chemie und Mathematik“ durch. Durch dieses integrative Lehrveranstaltungskonzept sollte die Nachhaltigkeit der Ausbildung gestärkt und die Verknüpfung von Allgemeiner Didaktik mit der Fachdidaktik sowie zwischen verschiedenen Fachbereichen gefördert werden. In dieser speziellen Veranstaltung erarbeiteten sich die Teilnehmer Inhalte in der Schnittmenge von Chemie und Mathematik, nämlich Kristallgeometrie, Analysis und Titration sowie Graphentheorie und Trennverfahren. Ihre Erkenntnisse wurden im Rahmen von Seminarvorträgen präsentiert und ausgearbeitet. Im folgenden Report befinden sich die Ausarbeitungen, welche Lernziele und Kompetenzen, Sach-, Methodische und Didaktische Analysen sowie Unterrichtsentwürfe umfassen.
Diese Arbeit gehört in die algebraische Geometrie und die Darstellungstheorie und stellt eine Beziehung zwischen beiden Gebieten dar. Man beschäftigt sich mit den abgeleiteten Kategorien auf flachen Entartungen projektiver Geraden und elliptischer Kurven. Als Mittel benutzt man die Technik der Matrixprobleme. Das Hauptergebnis dieser Dissertation ist der folgende Satz: SATZ. Sei X ein Zykel projektiver Geraden. Dann gibt es drei Typen unzerlegbarer Objekte in D^-(Coh_X): - Shifts von Wolkenkratzergarben in einem regulären Punkt; - Bänder B(w,m,lambda), - Saiten S(w). Ganz analog beweist man die Zahmheit der abgeleiteten Kategorien vieler assoziativer Algebren.
Die Akustik liefert einen interessanten Hintergrund, interdisziplinären und fächerverbindenen Unterricht zwischen Mathematik, Physik und Musik durchzuführen. SchülerInnen können hierbei beispielsweise experimentell tätig sein, indem sie Audioaufnahmen selbst erzeugen und sich mit Computersoftware Frequenzspektren erzeugen lassen. Genauso können die Schüler auch Frequenzspektren vorgeben und daraus Klänge erzeugen. Dies kann beispielsweise dazu dienen, den Begriff der Obertöne im Musikunterricht physikalisch oder mathematisch greifbar zu machen oder in der Harmonielehre Frequenzverhältnisse von Intervallen und Dreiklängen näher zu untersuchen.
Der Computer ist hier ein sehr nützliches Hilfsmittel, da der mathematische Hintergrund dieser Aufgabe -- das Wechseln zwischen Audioaufnahme und ihrem Frequenzbild -- sich in der Fourier-Analysis findet, die für SchülerInnen äußerst anspruchsvoll ist. Indem man jedoch die Fouriertransformation als numerisches Hilfsmittel einführt, das nicht im Detail verstanden werden muss, lässt sich an anderer Stelle interessante Mathematik betreiben und die Zusammenhänge zwischen Akustik und Musik können spielerisch erfahren werden.
Im folgenden Beitrag wird eine Herangehensweise geschildert, wie wir sie bereits bei der Felix-Klein-Modellierungswoche umgesetzt haben: Die SchülerInnen haben den Auftrag erhalten, einen Synthesizer zu entwickeln, mit dem verschiedene Musikinstrumente nachgeahmt werden können. Als Hilfsmittel haben sie eine kurze Einführung in die Eigenschaften der Fouriertransformation erhalten, sowie Audioaufnahmen verschiedener Instrumente.
Wir zeigen an einigen Beispielen, wie man numerische Simulationen in Tabellenkalkulationsprogrammen (hier speziell in Excel) erzeugen kann. Diese können beispielsweise im Kontext von mathematischer Modellierung verwendet werden.
Die Beispiele umfassen ein Modell zur Ausbreitung von Krankheiten, die Flugkurve eines Fußballs unter Berücksichtigung von Luftreibung, eine Monte-Carlo-Simulation zur experimentellen Bestimmung von pi, eine Monte-Carlo-Simulation eines gemischten Kartenstapels und die Modellierung von Benzinpreisen mit einem Preistrend und Rauschen
Um Spielkarten zu mischen gibt es unterschiedliche Techniken, die sich sowohl in ihrem Zeitaufwand, als auch in der Güte der Durchmischung unterscheiden. Der folgende Artikel vermittelt, wie man die Frage nach einer besonders guten Mischtechnik nutzen kann, um mathematische Modellierung anhand einer alltagsnahen Fragestellung in den Unterricht einzubinden. Dabei können verschiedene Aspekte der Stochastik angesprochen werden, und es bietet sich ein breites Potential, auf unterschiedlichen Niveaus Computer zum Generieren von Zufallsexperimenten zu verwenden.
In diesem Text werden einige wichtige Grundlagen zusammengefasst, mit denen ein schneller Einstieg in das Arbeiten mit Arduino und Raspberry Pi möglich ist. Wir diskutieren nicht die Grundfunktionen der Geräte, weil es dafür zahlreiche Hilfestellungen im Internet gibt. Stattdessen konzentrieren wir uns vor allem auf die Steuerung von Sensoren und Aktoren und diskutieren einige Projektideen, die den MINT-interdisziplinären Projektunterricht bereichern können.
Die Konstruktion eines Schrittzählers mit einem Arduino-Mikrocontroller und einem Bewegungssensor ist ein spannendes Technikprojekt. Wir erläutern den Grundgedanken hinter der produktorientierten Modellierung und die vielfältigen Möglichkeiten, die Fragestellung zu bearbeiten. Darüberhinaus werden die technischen Details der verwendeten Hardware diskutiert, um einen schnellen Einstieg ins Thema zu ermöglichen.
Zeitreihen und Modalanalyse
(1987)
Die Arbeit ist zu verstehen als ein Teil im großen Projekt der Universität Kaiserslautern, das sich unter dem Namen Technomathematik um die dringend erforderliche Verständigung zwischen Technik und Mathematik bemüht.; Der große Leitfaden war das Buch von Natke: Einführung in Theorie und Praxis der Zeitreihen- und Modalanalyse, Schilderung der wesentlichen dort verwendeten Ideen der indirekten Systemidentifikation sowie des wahrscheinlichkeitstheoretischen und physikalisch-technischen Hintergrundes.
Bei den bisherigen Untersuchungen auf dem Gebiet der passiven Solarnutzung mit speicherfähigen gemauerten Ziegelwänden stellte sich heraus, daß direkt im Strahlengang der Sonnenstrahlung liegende Wandbauteile keine ausreichende Speicherwirkung haben. Ausreichend heißt: Schnelle Wärmeabführung in eine Wärmesenke, ausreichende Speicherkapazität als Tagesspeicher. Abhilfe schaffen hier Latentspeicher oder großvolumige Wasserspeicher. In unserem konkreten Fall stand ein Texxor-Latentspeicher mit 2 l Inhalt und 100 Wh Kapazität bei 27oC in einem Poroton-Formstein zur Verfügung.
Zusammenfassung. In dieser Arbeit werden Probleme der numerischen Lösung finiter Differenzenverfahren partieller Differentialgleichungen in einem algebraischen Ansatz behandelt. Es werden sowohl theoretische Ergebnisse präsentiert als auch die praktische Implementierung mithilfe der Systeme SINGULAR und QEPCAD vorgeführt. Dabei beziehen sich die algebraischen Methoden auf zwei unterschiedliche Aspekte bei finiten Differenzenverfahren: die Erzeugung von Schemata mithilfe von Gröbnerbasen und die darauf folgende Stabilitätsanalyse mittels Quantorenelimination durch algebraische zylindrische Dekomposition. Beim Aufbau der Arbeit werden in den ersten drei Kapiteln in einer Rückschau die nötigen Begriffe aus der Computeralgebra gelegt, die Grundzüge der numerischen Konvergenztheorie finiter Differenzenschemata erklärt sowie die Anwendung des CAD-Algorithmus zur Quantorenelimierung skizziert. Das Kapitel 4 entwickelt ausgehend vom zugrunde liegenden Kontext die Formulierung und die dafür nötigen Bedingungen an Differenzenschemata, die algebraisch nach Definition ein Ideal in einem Polynomring darstellen. Neben der praktischen Handhabbarkeit der Objekte liegt die Betonung auf größtmöglicher Allgemeinheit in den Definitionen der Begriffe. Es werden äquivalente Wege der Erzeugung sowie Eigenschaften der Eindeutigkeit unter sehr speziellen Bedingungen an die verwendeten Approximationen gezeigt. Die Anwendung des CAD-Algorithmus auf die Abschätzung des Symbols eines Schemas wird erläutert. Das fünfte Kapitel beschreibt die SINGULAR-Bibliothek findiff.lib, welche das Zusammenspiel von SINGULAR und QEPCAD garantiert und eine vollständige Automatisierung der Erzeugung und Stabilitätsanalyse eines finiten Differenzenverfahrens ermöglicht.
Fragestellungen der Standortplanung sollen den Mathematikunterricht der Schule bereichern, dort behandelt und gelöst werden. In dieser Arbeit werden planare Standortprobleme vorgestellt, die im Mathematikunterricht behandelt werden können. Die Probleme Produktion von Halbleiterplatinen, Planung eines Feuerwehrhauses und das Zentrallagerproblem, die ausnahmlos real und nicht konstruiert sind, werden ausführlich durchgearbeitet, so dass es schnell möglich ist, daraus Unterrichtseinheiten zu entwickeln.
Ein Teilaspekt der formalen Logik besteht in der Untersuchung wie die logischen Konsequenzen (insbesondere die Tautologien) einer vorgegebenen Formelmenge unter Verwendung gewisser Reglements schrittweise hergeleitet werden können. Hierbei ist die Logik bestimmt durch eine konsequente Trennung von Syntax und Semantik. Diese Abhandlung stellt exemplarisch das Tableau-Kalkül und das Kalkül des natürlichen Schließens vor.
Aufgrund der vernetzten Strukturen und Wirkungszusammenhänge dynamischer Systeme werden die zugrundeliegenden mathematischen Modelle meist sehr komplex und erfordern ein hohes mathematisches Verständnis und Geschick. Bei Verwendung von spezieller Software können jedoch auch ohne tiefgehende mathematische oder informatorische Fachkenntnisse komplexe Wirkungsnetze dynamischer Systeme interaktiv erstellt werden. Als Beispiel wollen wir schrittweise das Modell einer Miniwelt entwerfen und Aussagen bezüglich ihrer Bevölkerungsentwicklung treffen.
Das Programmsystem PROMO wird in der Industrie zur Berechnung von instationären Gasströmungen in Mehrzylinder-Verbrennungsmotoren eingesetzt. PROMO wurde in den Jahren von 1970 bis 1977 an der Ruhr-Universität Bochum entwickelt. Nach den ersten Erfahrungen von Anwendern wurde das Programmsystem 1979/80 überarbeitet, und es entstand die neue Version PROMO 2.; Instationäre, kompressible und eindimensionale Rohrströmungen können berechnet werden. Außerdem sind die verschiedensten Rand- und Übergangsbedingungen zwischen den einzelnen Rohrstücken realisiert.; Einerseits hat sich PROMO in der Praxis bewährt, andererseits wurden auch deutliche Abweichungen der Rechenergebnisse von Messungen beobachtet. Aus dem Anwenderbereich hat die Firma Gillet (Hersteller von Auspuffanlagen) folgende Fragen aufgeworfen: Wie muß die Orts- bzw. Zeitschrittweite gewählt werden, um eine bestimmte Genauigkeit der numerischen Lösung zu sichern? Wie können die erzielten Ergebnisse theoretisch beurteilt werden (Fehlerschätzung)?; Deshalb erscheint eine Betrachtung des Programmsystems aus mathematischer Sicht sinnvoll.
Die Grundgleichungen der Physikalischen Geodäsie (in der klassischen Formulierung) werden einer Multiskalenformulierung mittels (sphärisch harmonischer) Wavelets unterzogen. Die Energieverteilung des Störpotentials wird in Auflösung nach Skala und Ort durch Verwendung von Waveletvarianzen beschrieben. Schließlich werden zur Modellierung der zeitlichen Variationen des Schwerefeldes zeit- und ortsgebundene Energiespektren zur Detektion lokaler sowie periodischer/saisonaler Strukturen eingeführt.
In der Automobilindustrie muss der Nachweis von Bauteilzuverlässigkeiten auf statistischen Verfahren basieren, da die Bauteilfestigkeit und Kundenbeanspruchung streuen. Die bisherigen Vorgehensweisen der Tests führen häufig Fehlentscheidungen bzgl. der Freigabe, was unnötige Design-Änderungen und somit hohe Kosten bedeuten kann. In vorliegender Arbeit wird der Ansatz der partiellen Durchläuferzählung entwickelt, welche die statische Güte der bisherigen Testverfahren (Success Runs) erhöht.
Die Bestimmung des Erdgravitationspotentials aus den Meßdaten des Forschungssatelliten CHAMP lässt sich als Operatorgleichung formulieren (SST-Problem). Dieser Ansatz geht davon aus, dass ein geometrischer Orbit des Satelliten CHAMP vorliegt. Mittels numerischer Differentiation unter Einsatz eines geeigneten Denoising Verfahrens kann dann aus dem geometrischen Orbit der Gradient des Potentials längs der Bahn bestimmt werden. Damit sind insbesondere die Radialableitung (und der Flächengradient) auf einem Punktgitter auf der Bahn bekannt. In einem erdfesten System stellt sich dies als eine nahezu vollständige Überdeckung der Erde (bis auf Polar Gaps) mit einem ziemlich dichten Datengitter auf Flughöhe des Satelliten dar. Die Lösung der SST-Operatorgleichung (Bestimmung des Potentials auf der Erdoberfläche aus Kenntnis der Radialableitung auf einem Datengitter auf Flughöhe) ist ein schlecht gestelltes inverses Problem, das mit einer geeigneten Regularisierungstechnik gelöst werden muß. Im vorliegenden Fall wurde eine solche Regularisierung mit Hilfe von nicht-bandlimitierten Regularisierungsskalierungsfunktionen und Regularisierungswavelets umgesetzt. Diese sind stark ortslokalisierend und führen daher auf ein Potentialmodell, welches eine Linearkombination stark ortslokalisierender Funktionen ist. Ein solches Modell kann als Lokalmodell auch aus nur lokalen Daten berechnet werden und bietet daher gegenüber Kugelfunktionsmodellen wie EGM96 erhebliche Vorteile für die moderne Geopotentialbestimmung. Die Diskretisierung und numerische Umsetzung der Berechnung eines solchen Modells erfolgt mit Splines, die hier ebenfalls Linearkombinationen stark ortslokalisierender Funktionen sind. Die großen linearen Gleichungssysteme, die zur Berechnung der glättenden oder interpolierenden Splines gelöst werden müssen, können auf schnelle und effiziente Weise mit dem Schwarzschen alternierenden Algorithmus in Verbindung mit schnellen Summationsverfahren (Fast Multipole Methods) gelöst werden. Eine Kombination des Schwarzschen alternierenden Algorithmus mit solchen schnellen Summationsverfahren ermöglicht eine weitere erhebliche Beschleunigung beim Lösen dieser Gleichungssysteme. Zur Bestimmung von Glättungsparametern (Spline-Smoothing) und Regularisierungsparametern kann die L-Curve Method zum Einsatz kommen.
Gegenstand dieser Arbeit ist die kanonische Verbindung klassischer globaler Schwerefeldmodellierung in der Konzeption von Stokes (1849) und Neumann (1887) und moderner lokaler Multiskalenberechnung mittels lokalkompakter adaptiver Wavelets. Besonderes Anliegen ist die "Zoom-in"-Ermittlung von Geoidhöhen aus lokal gegebenen Schwereanomalien bzw. Schwerestörungen.
Topologie II
(1995)
Lineare Algebra I & II
(2000)
Inhalte der Grundvorlesungen Lineare Algebra I und II im Winter- und Sommersemester 1999/2000: Gruppen, Ringe, Körper, Vektorräume, lineare Abbildungen, Determinanten, lineare Gleichungssysteme, Polynomring, Eigenwerte, Jordansche Normalform, endlich-dimensionale Hilberträume, Hauptachsentransformation, multilineare Algebra, Dualraum, Tensorprodukt, äußeres Produkt, Einführung in Singular.
Vigenere-Verschlüsselung
(1999)
An analogue of the classical Riemann-Siegel integral formula for Dirichlet series associated to cusp forms is developed. As an application of the formula, we give a comparatively simple proof of the approximate functional equation for this type of Dirichlet series.
A Remark on Primes of the Form \(2^{3n}a + 2^{2n}b+2^nc+1\). Necessary and sufficient conditions for the numbers in the title to be prime are given. The tests are well suited for practical purposes.
Es wird anhand von Beispielen, an denen der Autor in der Vergangenheit gearbeitet hat, gezeigt, wie man Modelle der exakten Naturwissenschaften auf wirtschaftliche Probleme
anwenden kann. Insbesondere wird diskutiert, wo Grenzen dieser Übertragbarkeit liegen. Die Arbeit ist eine Zusammenfassung eines Vortrags, der im SS 1992 im Rahmen des Studium Generale an der Universität Kaiserslautern gehalten wurde.
We consider the problem of finding efficient locations of surveillance cameras, where we distinguish
between two different problems. In the first, the whole area must be monitored and the number of cameras
should be as small as possible. In the second, the goal is to maximize the monitored area for a fixed number of
cameras. In both of these problems, restrictions on the ability of the cameras, like limited depth of view or range
of vision are taken into account. We present solution approaches for these problems and report on results of
their implementations applied to an authentic problem. We also consider a bicriteria problem with two objectives:
maximizing the monitored area and minimizing the number of cameras, and solve it for our study case.
Lineare Optimierung ist ein wichtiges Aufgabengebiet der angewandten Mathematik, da sich viele praktische Probleme mittels dieser Technik modellieren und lösen lassen. Diese Veröffentlichung soll helfen, Schüler an diese Thematik heranzuführen. Dabei soll der Vorgang des Modellierens, also die Reduktion des Problems auf die wesentlichen Merkmale, vermittelt werden. Anschließend an den Modellierungsprozeß können durch Einsatz der Simplex-Methode die linearen Optimierungsprobleme gelöst werden. Verschiedene praktische Beispiele dienen der Veranschaulichung des Vorgehens.
Da die zweiwertige Aussagenlogik nicht nur innerhalb der Logik insgesamt, sondern auch schon in der Aussagenlogik einen vergleichbaren Platz wie die euklidische Planimetrie im Rahmen der gesamten modernen Geometrie einnimmt, soll hier eine Einführung in eine vom tertium non datur unabhängige mehrwertige Logik gegeben werden. Neben Definition und Beispielen mehrwertiger Logiken soll auch auf die Möglichkeit der Axiomatisierung sowie auf Fragen des Entscheidungsproblems in solchen Logiken eingegangen werden.
Zerlegungen und Parkettierungen der Ebene spielen in vielen wissenschaftlichen, praktischen und künstlerischen Bereichen eine wichtige Rolle. In dieser Abhandlung werden solche diskrete Systeme von Punktmengen betrachtet. Zunächst werden Packungen einfacher Figuren durch Polyominos, diskrete Zerlegungen der Ebene sowie Zerlegungen von Polygonen in Polygone behandelt. Weiterführend werden sowohl Mosaike, als auch Parkette und deren Anwendungsbeispiele vorgestellt.
Endliche Gruppen
(2001)
Eine Einführung mit dem Ziel der Klassifikation von Gruppen kleiner Ordnung. Skript zum Proseminar im WS 2000/01. Inhalt: Satz von Lagrange, Normalteiler, Homomorphismen, symmetrische Gruppe, alternierende Gruppe, Operieren, Konjugieren, (semi-)direkte Produkte, Erzeuger und Relationen, zyklische Gruppen, abelsche Gruppen, Sylowsätze, Automorphismengruppen, Klassifikation, auflösbare Gruppen.
Diese Arbeit entstand aus der Zusammenarbeit der Arbeitsgruppe Technomathematik der Universität Kaiserslautern mit der Firma AUDI AG in Ingolstadt. Die Hauptaufgabe bestand in der Modell-Entwicklung für das Zeitverhalten von Beanspruchungszeitfunktionen (BAZF). Daher werden auch die ursprünglichen Modellansätze, die sich aufgrund von Beobachtungen realer BAZFen als Irrwege herausstellten, und die Stufen der Anpassung an die Realität hier dargestellt. Die Überprüfung der Modelle habe ich vier Wochen lang vor Ort durchgeführt und anschließend die endgültigen entwickelt. Die bei AUDI erstellten Plots werden zur Rechtfertigung der Modelle beitragen. Das Ziel der Modell-Entwicklung war immer die praktische Anwendung, weshalb auch dieser Gesichtspunkt oft hereinspielt, besonders wenn es um die Realisierung auf dem Rechner geht. Über die Implementierung und die praktischen Ergebnisse wird in einer späteren Arbeit berichtet werden.
Diese Doktorarbeit befasst sich mit Volatilitätsarbitrage bei europäischen Kaufoptionen und mit der Modellierung von Collateralized Debt Obligations (CDOs). Zuerst wird anhand einer Idee von Carr gezeigt, dass es stochastische Arbitrage in einem Black-Scholes-ähnlichen Modell geben kann. Danach optimieren wir den Arbitrage- Gewinn mithilfe des Erwartungswert-Varianz-Ansatzes von Markowitz und der Martingaltheorie. Stochastische Arbitrage im stochastischen Volatilitätsmodell von Heston wird auch untersucht. Ferner stellen wir ein Markoff-Modell für CDOs vor. Wir zeigen dann, dass man relativ schnell an die Grenzen dieses Modells stößt: Nach dem Ausfall einer Firma steigen die Ausfallintensitäten der überlebenden Firmen an, und kehren nie wieder zu ihrem Ausgangsniveau zurück. Dieses Verhalten stimmt aber nicht mit Beobachtungen am Markt überein: Nach Turbulenzen auf dem Markt stabilisiert sich der Markt wieder und daher würde man erwarten, dass die Ausfallintensitäten der überlebenden Firmen ebenfalls wieder abflachen. Wir ersetzen daher das Markoff-Modell durch ein Semi-Markoff-Modell, das den Markt viel besser nachbildet.
Zuerst einmal werden die Grundlagen der nichtparametrischen Regression sowie die der Kleinste-Quadrate-Schätzer behandelt und unser verwendetes Modell hergeleitet. Kapitel 3 führt dann in die Theorie der gewichteten Kernschätzer ein, wobei auch das asymptotische Verhalten genauer untersucht wird. Des Weiteren wird ein numerischer Algorithmus zur Berechnung der Kernschätzer angegeben. Die Simulationsstudie der gewichteten Kernschätzer anhand von Regressionsdaten und Zeitreihendaten sowie die praktische Beurteilung erfolgen in Kapitel 4 und 5. Reale Zeitreihendaten bilden danach im sechsten Kapitel die Grundlage für die praktische Betrachtung der neuen Schätzer. Im letzten Kapitel folgt dann ein Resümee und ein kleiner Ausblick auf die gewichteten Kernschätzer für allgemeinere Modelle.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
Die Planung von Bushaltestellen in Innenstädten ist ein authentisches Thema, welches sich für den Einsatz in einem realitätsbezogenen Unterricht in unterschiedlichen Klassenstufen eignet. Verschiedene Interessen und Gegebenheiten müssen in einem Modell und in einer Lösungsstrategie vereint werden. Durch eine sehr offen gewählte Fragestellung sind verschiedene Ansätze und Modelle möglich. Somit wird mathematisches Modellieren trainiert und das Durchlaufen eines Modellierungsprozesses in einem interessanten Projekt ermöglicht. Die mathematischen Hintergründe sowie das vielseitige Lösungsspektrum von Schülerinnen und Schülern unterschiedlicher Jahrgangsstufen zu derselben Fragestellung werden im Folgenden vorgestellt.
Die Dissertation "Portfoliooptimierung im Binomialmodell" befasst sich mit der Frage, inwieweit
das Problem der optimalen Portfolioauswahl im Binomialmodell lösbar ist bzw. inwieweit
die Ergebnisse auf das stetige Modell übertragbar sind. Dabei werden neben dem
klassischen Modell ohne Kosten und ohne Veränderung der Marktsituation auch Modellerweiterungen
untersucht.
Zur Datenreduktion gemessener stochastischer Beanspruchungszeitfunktionen werden Zählverfahren eingesetzt. Mit den dabei entstehenden Beanspruchungskollektiven werden rechnerische Lebensdauerabschätzungen gemacht. Da diese mit großen Unsicherheiten behaftet sind, besteht der Wunsch, aus den Beanspruchungskollektiven on-line stochastische Beanspruchungszeitfunktionen zu rekonstruieren, damit ein experimenteller Lebensdauernachweis im Labor mit servohydraulischen Zylindern durchgeführt werden kann. In bezug auf die Lebensdauer der Bauteile unter stochastischer Beanspruchung wird heute dem zweiparametrigen Rainflow-Zählverfahren die größte Bedeutung beigemessen. Es werden ein gegenüber /1/ verbessertes Markov-Inversionsverfahren und ein Rekonstruktionsverfahren aus der symmetrischen und der unsymmetrischen Rainflow-Matrix vorgestellt. Anhand von Beispielen werden diese Inversionsverfahren, die jeweils unter allen Zeitfunktionen, die zu der betreffenden Matrix führen, mit gleicher Wahrscheinlichkeit eine auswählen, verglichen. Es zeigt sich dabei, daß im Hinblick auf die Lebensdauer von Bauteilen unter stochastischer Beanspruchung die Rainflow-Inversionen zu wesentlich besseren Ergebnissen führt als die Markov-Inversionen.
Das Ziel dieser Arbeit besteht darin, aufzuzeigen, wie eine mathematische Modellierung, verbunden mit Simulations- und Ansteuerungsaspekten eines Segways im Mathematikunterricht der gymnasialen Oberstufe als interdisziplinäres Projekt umgesetzt werden kann. Dabei werden sowohl Chancen, im Sinne von erreichbaren mathematischen Kompetenzen, als auch Schwierigkeiten eines solchen Projektes mit einer interdisziplinären Umsetzung geschildert.
Elementare Zahlentheorie
(2020)
Einführung in die Algebra
(2020)
Die MINT-EC-Girls-Camp: Math-Talent-School ist eine vom Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) initiierte Veranstaltung, die regelmäßig als Kooperation zwischen dem Felix-Klein-Zentrum für Mathematik und dem Verein mathematisch-naturwissenschaftlicher Excellence-Center an Schulen e.V. (Verein MINT-EC) durchgeführt wird. Die methodisch-didaktische Konzeption der Math-Talent-Schools erfolgt durch das Kompetenzzentrum für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS), einer wissenschaftlichen Einrichtung des Fachbereichs Mathematik der Technischen Universität Kaiserslautern. Die inhaltlich-organisatorische Ausführung übernimmt das Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in enger Abstimmung und Kooperation von Wissenschaftlern der Technischen Universität und des Fraunhofer ITWM. Die MINT-EC-Girls-Camp: Math-Talent-School hat zum Ziel, Mathematik-interessierten Schülerinnen einen Einblick in die Arbeitswelt von Mathematikerinnen und Mathematikern zu geben. In diesem Artikel stellen wir die Math-Talent-School vor. Hierfür werden die fachlichen und fachdidaktischen Hintergründe der Projekte beleuchtet, der Ablauf der Veranstaltung erläutert und ein Fazit gezogen.
Diese Dissertation besteht aus zwei aktuellen Themen im Bereich Finanzmathematik, die voneinander unabhängig sind.
Beim ersten Thema, "Flexible Algorithmen zur Bewertung komplexer Optionen mit mehreren Eigenschaften mittels der funktionalen Programmiersprache Haskell", handelt es sich um ein interdisziplinäres Projekt, in dem eine wissenschaftliche Brücke zwischen der Optionsbewertung und der funktionalen Programmierung geschlagen wurde.
Im diesem Projekt wurde eine funktionale Bibliothek zur Konstruktion von Optionen
entworfen, in dem es eine Reihe von grundlegenden Konstruktoren gibt, mit denen
man verschiedene Optionen kombinieren kann. Im Rahmen der funktionalen Bibliothek
wurde ein allgemeiner Algorithmus entwickelt, durch den die aus den Konstruktoren
kombinierten Optionen bewertet werden können.
Der mathematische Aspekt des Projekts besteht in der Entwicklung eines neuen Konzeptes zur Bewertung der Optionen. Dieses Konzept basiert auf dem Binomialmodell, welches in den letzten Jahren eine weite Verbreitung im Forschungsgebiet der Optionsbewertung fand. Der kerne Algorithmus des Konzeptes ist eine Kombination von mehreren
sorgfältig ausgewählten numerischen Methoden in Bezug auf den Binomialbaum. Diese
Kombination ist nicht trivial, sondern entwikelt sich nach bestimmten Regeln und ist eng mit den grundlegenden Konstruktoren verknüpft.
Ein wichtiger Charakterzug des Projekts ist die funktionale Denkweise. D. h. der Algorithmus ließ sich mithilfe einer funktionalen Programmiersprache formulieren. In unserem Projekt wurde Haskell verwendet.
Das zweite Thema, Monte-Carlo-Simulation des Deltas und (Cross-)Gammas von
Bermuda-Swaptions im LIBOR-Marktmodell, bezieht sich auf ein zentrales Problem der
Finanzmathematik, nämlich die Bestimmung der Risikoparameter komplexer Zinsderivate.
In dieser Arbeit wurde die numerische Berechnung des Delta-Vektors einer Bermuda-
Swaption ausführlich untersucht und die neue Herausforderung, die Gamma-Matrix einer Bermuda-Swaption exakt simulieren, erfolgreich gemeistert. Die beiden Risikoparameter spielen bei Handelsstrategien in Form des Delta-Hedgings und Gamma-Hedgings eine entscheidende Rolle. Das zugrunde liegende Zinsstrukturmodell ist das LIBORMarktmodell, welches in den letzten Jahren eine auffällige Entwicklung in der Finanzmathematik gemacht hat. Bei der Simulation und Anwendung des LIBOR-Marktmodells fällt die Monte-Carlo-Simulation ins Gewicht.
Für die Berechung des Delta-Vektors einer Bermuda-Swaption wurden drei klassische und drei von uns entwickelte numerische Methoden vorgestellt und gegenübergestellt, welche fast alle vorhandenen Arten der Monte-Carlo-Simulation zur Berechnung des Delta-Vektors einer Bermuda-Swaption enthalten.
Darüber hinaus gibt es in der Arbeit noch zwei neu entwickelte Methoden, um die Gamma-Matrix einer Bermuda-Swaption exakt zu berechnen, was völlig neu im Forschungsgebiet der Computational-Finance ist. Eine ist die modifizierte Finite-Differenzen-Methode. Die andere ist die reine Pathwise-Methode, die auf pfadweiser Differentialrechnung basiert und einem robusten und erwartungstreuen Simulationsverfahren entspricht.
Das zentrale Thema dieser Arbeit sind vollständig gekoppelte reflektierte Vorwärts-Rückwärts-Stochastische-Differentialgleichungen (FBSDE). Zunächst wird ein Spezialfall, die teilweise gekoppelten FBSDE, betrachtet und deren Verbindung zur Bewertung Amerikanischer Optionen aufgezeigt. Für die Lösung dieser Gleichung wird Monte-Carlo-Simulation benötigt, daher werden verschiedene Varianzreduktionsmaßnahmen erarbeitet und miteinander verglichen. Im Folgenden wird der allgemeinere Fall der vollständig gekoppelten reflektierten FBSDE behandelt. Es wird gezeigt, wie das Problem der Lösung dieser Gleichungen in ein Optimierungsproblem übertragen werden kann und infolgedessen mit numerischen Methoden aus diesem Bereich der Mathematik bearbeitet werden kann. Abschließend folgen Vergleiche der verschiedenen numerischen Ansätze mit bereits existierenden Verfahren.
Zwei zentrale Probleme der modernen Finanzmathematik sind die Portfolio-Optimierung und die Optionsbewertung. Während es bei der Portfolio-Optimierung darum geht, das Vermögen optimal auf verschiedene Anlagemöglichkeiten zu verteilen, versucht die Optionsbewertung faire Preise von derivativen Finanzinstrumenten zu bestimmen. In dieser Arbeit werden Fragestellungen aus beiden dieser Themenbereiche bearbeitet. Die Arbeit beginnt mit einem Kapitel über Grundlagen, in dem zum Beispiel das Portfolio-Problem von Merton dargestellt und die Black/Scholes-Formel zur Optionsbewertung hergeleitet wird. In Kapitel 2 wird das Portfolio-Problem von Morton und Pliska betrachtet, die in das Merton-Modell fixe Transaktionskosten eingeführt haben. Dabei muß der Investor bei jeder Transaktion einen fixen Anteil vom derzeitigen Vermögen als Kosten abführen. Es wird die asymptotische Approximation dieses Modells von Atkinson und Wilmott vorgestellt und die optimale Portfoliostrategie aus den Marktparametern hergeleitet. Danach werden die tatsächlichen Transaktionskosten abgeschätzt und ein User Guide zur praktischen Anwendung dieses Transaktionskostenmodells angegeben. Zum Schluß wird das Modell numerisch analysiert, indem unter anderem die erwartete Handelszeit und die Güte der Abschätzung der tatsächlichen Transaktionskosten berechnet werden. Ein Portfolio-Problem mit internationalen Märkten wird in Kapitel 3 vorgestellt. Dem Investor steht zusätzlich zu seinem Heimatland noch ein weiteres Land für seine Vermögensanlagen zur Verfügung. Dabei werden die Preisprozesse für die ausländischen Wertpapiere mit einem stochastischen Wechselkurs in die Heimatwährung umgerechnet. In einer statischen Analyse wird unter anderem berechnet, wieviel weniger Vermögen der Investor benötigt, um das gleiche erwartete Endvermögen zu erhalten wie in dem Fall, wenn ihm keine Auslandsanlagen zur Verfügung stehen. Kapitel 4 behandelt drei verschiedene Portfolio-Probleme mit Sprung-Diffusions-Prozessen. Nach der Herleitung eines Verifikationssatzes wird das Problem bei Anlagemöglichkeit in eine Aktie und in ein Geldmarktkonto jeweils für eine konstante und eine stochastische Zinsrate untersucht. Im ersten Fall wird eine implizite Darstellung für den optimalen Portfolioprozeß und eine Bedingung angegeben, unter der diese Darstellung eindeutig lösbar ist. Außerdem wird der optimale Portfolioprozeß für verschiedene Verteilungen für die Sprunghöhe untersucht. Im Falle einer stochastischen Zinsrate kann nur ein Kandidat für den optimalen Lösungsprozeß angeben werden. Dieser hat wieder eine implizite Darstellung. Das letzte Portfolio-Problem ist eine Abwandlung des Modells aus Kapitel 3. Wird dort der Wechselkurs durch eine geometrisch Brownsche Bewegung modelliert, ist er hier ein reiner Sprungprozeß. Es wird wieder der optimale Portfolioprozeß hergeleitet, wobei ein Anteil davon unter Umständen nur numerisch lösbar ist. Eine hinreichende Bedingung für die Lösbarkeit wird angegeben. In Kapitel 5 werden verschiedene Bewertungsansätze für Optionen auf Bondindizes präsentiert. Es wird eine Methode vorgestellt, mit der die Optionen anhand von Marktpreisen bewertet werden können. Für den Fall, daß es nicht genug Marktpreise gibt, wird ein Verfahren angegeben, um den Bondindex realitätsnah zu simulieren und künstliche Marktpreise zu erzeugen. Diese Preise können dann für eine Kalibrierung verwendet werden.
Aus der Körpertheorie ist der Satz von der Normalbasis bekannt , der besagt, dass es zu jeder endlichen Galoiserweiterung L/K ein Element in L gibt, dessen Konjugierte unter der Galoisgruppe von L/K eine K-Basis von L bilden. Ein solches Element wird als regulär in L/K bezeichnet, die zugehörige K-Basis von L heisst Normalbasis. Für einen Zwischenkörper M einer Galoiserweiterung L/K ist nach dem Hauptsatz der Galoistheorie auch L/M galoissch und besitzt infolgedessen eine Normalbasis. Ist ein reguläres Element von L/K auch regulär in L/M für alle Zwischenkörper M von L/K, so wird es vollständig regulär in L/K genannt. Dies wirft die Frage auf, ob es in jeder Galoiserweiterung ein vollständig reguläres Element gibt. Wie sich zeigt, kann diese Frage für alle endlichen Galoiserweiterungen bejaht werden. Ein reguläres Element x einer Galoiserweiterung L/K ist durch zwei Eigenschaften gekennzeichnet: zum einen wird L von x über K erzeugt und zum anderen sind die Konjugierten von x unter der Galoisgruppe von L/K linear unabh"angig über K. Letzteres besagt gerade, dass die Nullstellen des Minimalpolynoms von x über K linear unabhängig über K sind. Hat x diese zweite Eigenschaft, so heisst x frei über K. Ist x ein Element aus einer algebraische Hülle A von K, so wird x vollst"andig frei über K genannt, wenn für jeden Zwischenkörper M von A/K die Nullstellen des Minimalpolynoms von x über M linear unabhängig über M sind. Es lässt sich zeigen, dass ein x aus A genau dann vollständig frei über K ist, wenn x frei über allen Zwischenkörpern M von N/K ist, wobei N den Zerfällungskörper des Minimalpolynoms von x über K bezeichnet. Dass es in jeder endlichen Galoiserweiterung L/K ein vollständig reguläres Element gibt, ist daher ein Spezialfall der Aussage, dass es in jeder endlichen, separablen Körpererweiterung L/K ein über K vollständig freies Element gibt, welches L erzeugt. Das erste Ziel dieser Arbeit ist deshalb der Beweis, dass jede endliche, separable Körpererweiterung L/K von einem über K vollständig freien Element erzeugt wird. Ist K ein Körper mit unendlich vielen Elementen, so ist der Beweis eine Verallgemeinerung des Beweises von E. Artin zur Existenz von Normalbasen in Galoiserweiterungen. Weitaus schwieriger ist der Fall, wenn K ein endlicher Körper ist. Dann ist L/K stets eine Galoiserweiterung und die über K vollständig freien Elemente, die L über K erzeugen, sind genau diejenigen, die in L/K vollständig regulär sind. Ist G die Galoisgruppe von L/K, so lässt sich L zu einem KG-Modul machen, der als solcher wegen des Satzes von der Normalbasis sogar isomorph zu KG ist. Ein Element aus L ist genau dann regulär in L/K, wenn es in keinem echten KG-Teilmodul von L liegt. Entsprechendes gilt natürlich auch für alle Zwischenkörper M von L/K. Das heisst, ein Element aus L ist genau dann vollständig regulär in L/K, falls es für keinen Zwischenkörper M von L/K in einem echten M U -Teilmodul von L liegt; hierbei bezeichnet U die Galoisgruppe von L/M . In Abschnitt 2 wird gezeigt, dass der Beweis auf den Fall, dass G eine zyklische Gruppe von Primzahlpotenzordnung ist, reduziert werden kann. Durch nähere Betrachtung der M U -Teilmoduln von L für diese Situation, wobei bereits allgemeiner K und L nicht als endlich vorausgesetzt werden, lässt sich dann zeigen, dass es stets ein Element in L gibt, das vollständig regulär in L/K ist. Die Tatsache, dass es in jeder Galoiserweiterung L/K ein vollständig reguläres Element gibt, lässt natürlich nicht darauf schliessen, dass jedes reguläre Element in L/K auch schon vollst"andig regulär in L/K ist. Dies leitet über zu der von C. C. Faith gestellten Frage, wann in einer endlichen, abelschen Galoiserweiterung jedes reguläre Element schon vollständig regulär ist; eine solche Galoiserweiterung heisst dann vollst"andig regulär. Im letzten Abschnitt wird diese Frage für Galoiserweiterungen L/K mit zyklischer Galoisgruppe G von Primzahlpotenzordnung beantwortet. Ist G = qn mit einer Primzahl q, so gibt es zwei Möglichkeiten: entweder q ist gleich oder q ist ungleich der Charakteristik von K. Im ersten Fall lässt sich relativ einfach zeigen, dass L/K stets vollständig regulär ist, selbst wenn G nur als abelsche q-Gruppe vorausgesetzt wird. Ist hingegen q ungleich der Charakteristik von K, so ist weit mehr Aufwand erforderlich. Die Untersuchung der Strukturen von L als M U -Modul für die verschiedenen Zwischenkörper M von L/K, - hierbei ist U wieder die Galoisgruppe von L/M -, die schon beim Existenzbeweis von vollständig regulären Elementen durchgeführt wird, ist dabei das entscheidende Hilfsmittel. Unter den gemachten Voraussetzungen ergibt sich dann folgende Charakterisierung einer vollständig regulären Erweiterung: L/K ist genau dann vollständig regulär, wenn L / K[iq] = K gilt, wobei i eine primitive qnte Einheitswurzel ist. Wird K zusätzlich als endlich angenommen, so l"asst sich dieses notwendige und hinreichende Kriterium sogar recht einfach überprüfen.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da komplizierte zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind. Die numerischen Berechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
In diesem Projekt soll die Bildung von Wirbeln bei der Strömung eines Gases um eine Ecke numerisch untersucht werden. Dabei sollen verschiedene numerische Verfahren getestet und die Ergebnisse mit Versuchsdaten verglichen werden. Ferner soll untersucht werden, wie gut sich diese Verfahren vektorisieren lassen, da kompliziertere zweidimensionale und selbst einfache dreidimensionale Probleme der Strömungsdynamik auf den heute üblichen Universalrechnern nicht mit vertretbarem Zeitaufwand zu lösen sind, besonders, wenn, wie an der Universität Kaiserslautern, nur eine relativ langsame Anlage (Siemens 7551/7561) zur Verfügung steht. Die numerischen Rechnungen werden auf der CYBER 205 in Karlsruhe durchgeführt.
Diese Arbeit beschäftigt sich mit Methoden zur Klassifikation von Ovoiden in quadratischen Räumen. Die Anwendung der dazu entwickelten Algorithmen erfolgt hauptsächlich in achtdimensionalen Räumen speziell über den Körpern GF(7), GF(8) und GF(9). Zu verschiedenen, zumeist kleinen, zyklischen Gruppen werden hier die unter diesen Gruppen invarianten Ovoide bestimmt. Die bei dieser Suche auftretenden Ovoide sind alle bereits bekannt. Es ergeben sich jedoch Restriktionen an die Stabilisatoren gegebenenfalls existierender, unbekannter Ovoide.
Das TSP wird auf zeitabhängige Kosten und Wegelängen verallgemeinert, der Komplexitätstatus untersucht, verschiedene Formulierungen verglichen, Spezialfälle untersucht und ein auf Lagrange-Relaxation und Branch&Bound beruhendes exaktes Lösungsverfahren von Lucena erweitert, implementiert und getestet. Für das TDTSP wird die Dimension des ganzzahligen Polyeders bestimmt.
Mathematische Weiterbildung
(1984)
Ziel des Modellversuchs war es, zu untersuchen, welche Ergebnisse der mathematischen Forschung an Universitäten für den Praktiker besser zugänglich gemacht werden sollten und wie dies geschehen kann. Als Zielgruppen einer solchen Bildungsaufgabe waren insbesondere Ingenieure in den Forschungs- und Entwicklungsabteilungen der Industrie und Studenten der Mathematik und Technik (im Sinne einer mehr praxisbezogenen Ausbildung) vorgesehen; in organisatorischer Hinsicht war an ein Fernstudium gedacht.
Die vorliegende Arbeit wurde angeregt durch die in A.N. Borodin(2000) [Version of the Feynman-Kac Formula. Journal of Mathematical Sciences, 99(2):1044-1052, 2000] und in B. Simon(2000) [A Feynman-Kac Formula for Unbounded Semigroups. Canadian Math. Soc. Conf. Proc., 28:317-321, 2000] dargestellten Feynman-Kac-Formeln. Sie beschäftigt sich mit dem Problem, den Geltungsbereich der Feynman-Kac-Formel im Hinblick auf die Bedingungen der Potentiale und der Anfangsbedingung der zugehörigen partiellen Differentialgleichung zu erweitern. Es ist bekannt, dass die Feynman-Kac-Formel für beschränkte Potentiale gilt. Ausserdem gilt sie auch für Anfangsbedingungen, die im Raum \(C_{0}(\mathbb{R}^{n})\) oder im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegen. Die Darstellung der Feynman-Kac-Formel für die Anfangsbedingung, die im Raum \(C_{c}^{2}(\mathbb{R}^{n})\) liegt, liefert die Lösung der partiellen Differentialgleichung. Wir können sie auch als stark stetige Halbgruppe auf dem Raum \(C_{0}(\mathbb{R}^{n})\) auffassen. Diese zwei verschiedenen Darstellungen sind äquivalent. In dieser Arbeit zeigen wir zunächst, dass die Feynman-Kac-Formel auch für unbeschränkte Potentiale \(V\) gilt, wobei \(|V(x)| \leq \varepsilon ||x||^{2} + C_{\varepsilon} \) für alle \(\varepsilon > 0; C_{\varepsilon} > 0\) und \(x \in \mathbb{R}^{n}\) ist. Ausserdem zeigen wir, dass sie für alle Anfangsbedingungen \(f\) gilt mit \(x \mapsto e^{-\varepsilon |x|^{2}} f(x) \in H^{2,2}(\mathbb{R}^{n})\). Der Beweis ist wahrscheinlichkeitstheoretisch und benutzt keine Spektraltheorie. Der spektraltheoretische Zugang, in dem eine Darstellung des Operators \(e^{-tH}\), wobei \(H = -\frac{1}{2} \Delta + V\) gegeben wird, wurde von B. Simon(2000) auch auf die obige Klasse von Potentialen ausgeweitet. Wir lassen zusätzlich auch Potentiale der Form \(V = V_{1} + V_{2}\) zu, wobei \(V_{1} \in L^{2}(\mathbb{R}^{3})\) ist und für alle \(\varepsilon > 0\) gibt es \(C_{\varepsilon} > 0\), so dass \(|V_{2}(x)| \leq\varepsilon ||x||^{2} + C_{\varepsilon}\) für alle \(x \in \mathbb{R}^{3}\) ist. Im Gegensatz zur klassischen Situation ist \(e^{-tH}\) jetzt ein unbeschränkter Operator. Schließlich wird in dieser Arbeit auch der Zusammenhang zwischen der Feynman-Kac-It\(\hat{o}\)-Formel, der Feynman-Kac-Formel und der Kolmogorov-Rückwärtsgleichung untersucht.
Gegenstand dieser Arbeit ist die Entwicklung eines Wärmetransportmodells für tiefe geothermische (hydrothermale) Reservoire. Existenz- und Eindeutigkeitsaussagen bezüglich einer schwachen Lösung des vorgestellten Modells werden getätigt. Weiterhin wird ein Verfahren zur Approximation dieser Lösung basierend auf einem linearen Galerkin-Schema dargelegt, wobei sowohl die Konvergenz nachgewiesen als auch eine Konvergenzrate erarbeitet werden.
Das zinsoptimierte Schuldenmanagement hat zum Ziel, eine möglichst effiziente Abwägung zwischen den erwarteten Finanzierungskosten einerseits und den Risiken für den Staatshaushalt andererseits zu finden. Um sich diesem Spannungsfeld zu nähern, schlagen wir erstmals die Brücke zwischen den Problemstellungen des Schuldenmanagements und den Methoden der zeitkontinuierlichen, dynamischen Portfoliooptimierung.
Das Schlüsselelement ist dabei eine neue Metrik zur Messung der Finanzierungskosten, die Perpetualkosten. Diese spiegeln die durchschnittlichen zukünftigen Finanzierungskosten wider und beinhalten sowohl die bereits bekannten Zinszahlungen als auch die noch unbekannten Kosten für notwendige Anschlussfinanzierungen. Daher repräsentiert die Volatilität der Perpetualkosten auch das Risiko einer bestimmten Strategie; je langfristiger eine Finanzierung ist, desto kleiner ist die Schwankungsbreite der Perpetualkosten.
Die Perpetualkosten ergeben sich als Produkt aus dem Barwert eines Schuldenportfolios und aus der vom Portfolio unabhängigen Perpetualrate. Für die Modellierung des Barwertes greifen wir auf das aus der dynamischen Portfoliooptimierung bekannte Konzept eines selbstfinanzierenden Bondportfolios zurück, das hier auf einem mehrdimensionalen affin-linearen Zinsmodell basiert. Das Wachstum des Schuldenportfolios wird dabei durch die Einbeziehung des Primärüberschusses des Staates gebremst bzw. verhindert, indem wir diesen als externen Zufluss in das selbstfinanzierende Modell aufnehmen.
Wegen der Vielfältigkeit möglicher Finanzierungsinstrumente wählen wir nicht deren Wertanteile als Kontrollvariable, sondern kontrollieren die Sensitivitäten des Portfolios gegenüber verschiedenen Zinsbewegungen. Aus optimalen Sensitivitäten können in einem nachgelagerten Schritt dann optimale Wertanteile für verschiedenste Finanzierungsinstrumente abgeleitet werden. Beispielhaft demonstrieren wir dies mittels Rolling-Horizon-Bonds unterschiedlicher Laufzeit.
Schließlich lösen wir zwei Optimierungsprobleme mit Methoden der stochastischen Kontrolltheorie. Dabei wird stets der erwartete Nutzen der Perpetualkosten maximiert. Die Nutzenfunktionen sind jeweils an das Schuldenmanagement angepasst und zeichnen sich insbesondere dadurch aus, dass höhere Kosten mit einem niedrigeren Nutzen einhergehen. Im ersten Problem betrachten wir eine Potenznutzenfunktion mit konstanter relativer Risikoaversion, im zweiten wählen wir eine Nutzenfunktion, welche die Einhaltung einer vorgegebenen Schulden- bzw. Kostenobergrenze garantiert.
Berechnung und Optimierung des Energiegewinnes bei Anlagen zur Lufterwärmung mittels Erdkanal
(1986)
Hallen wie Turnhallen oder Fabrikationshallen werden häufig mit Warmluft beheizt. Dazu steht ein Heizkessel mit Heißwasser bereit, das über einen Wärmetauscher (WT1) Luft erwärmt. Diese Warmluft wird über ein Gebläse in die Halle eingebracht. An anderer Stelle der Halle wird die Luft, die sich abgekühlt hat, wieder angesaugt. Diese wird im Wärmetauscher wieder auf Solltemperatur erwärmt und erneut eingeblasen. Aus hygienischen Gründen muß allerdings ein Teil der angesaugten Umluft ins Freie fortgeführt werden und stattdessen frische Außenluft zugeführt werden. Dies geschieht in einer Mischkammer. Diese Außenluft hat während der Heizperiode eine recht niedrige Temperatur, so daß ein beachtlicher Anteil der Heizenergie für ihre Erwärmung aufgebracht werden muß. Um Energie zu sparen, wird die Außenluft über einen Wärmetauscher WT2 durch die Fortluft vorgewärmt. Eine weitere Einsparung wäre möglich, wenn es gelänge, diese Außenluft auf irgendeine natürliche Art und Weise zusätzlich vorzuerwärmen.
Das Designproblem eines Kanals mit parallel eingeblasener Luft war der Ausgangspunkt für diese Untersuchung. Um ein Gefühl für das Verhalten von Strömungen in einem Kanal gemäß Abb. 1 zu bekommen, sollte von uns ein Verfahren entwickelt werden, welches für folgende Geometrie die relevanten strömungsdynamischen Daten liefert.; Durch die Schlitzdüsen wird Luft mit hoher Geschwindigkeit eingeblasen. Für die sich dann einstellende quasistationäre Strömung im Kanal K soll die Entwicklung der Geschwindigkeitsprofile in Abhängigkeit vom Abstand zum Schlitz berechnet und die strömungsdynamischen Größen abgeleitet werden. Von besonderem Interesse sind hier der Druckverlauf, der Impulsverlust und die Wandschubspannung sowie die sich daraus ergebende mittlere Ansauggeschwindigkeit. Dabei sollen Geometrie, Einblasgeschwindigkeit sowie die Wandrauhigkeit variabel gehalten werden. Auf Grund von Experimenten erwartet man qualitativ etwa folgende Profile: Abb. 2
Nähen als dynamisches System
(1989)
Das Nähen und die Nähmaschine sind seit über hundert Jahren nahezu unverändert geblieben. Die Nähgeschwindigkeiten wurden gesteigert, der Nähvorgang automatisiert, aber das Prinzip ist gleichgeblieben.; Das entscheidende Problem beim Nähen ist die Erzeugung eines gut sitzenden Knotens. Um diesen Knoten zu bilden, wird der Oberfaden vom Greifer erfaßt und um den Unterfaden herumgeführt. Die Fadenführung mit beweglichen und festen Umlenkungen muß jetzt dafür sorgen, daß immer genügend Faden vorhanden ist, daß der Faden im Moment der Knotenbildung fest angezogen wird, aber muß verhindern, daß der Faden reißt.
Seinen Versuch, den Begriff der negativen Größen in die Weltweisheit einzuführen beginnt der neununddreißigjährige Immanuel Kant mit einer grundsätzlichen Erörterung über einen etwaigen Gebrauch, den man in der Weltweisheit von der Mathematik ma-chen kann. Dabei stellt er die These auf, daß Mathematik grundsätzlich nur auf zweierlei Art in die Philosophie eingreifen könne. Eine erste Möglichkeit sieht Kant in der Nachahmung mathematischer Methoden bei der Darstellung von Philosophie, die andere Möglichkeit besteht für ihn in der konkreten Anwendung mathematischer Theorien in der Naturlehre. Die zuerst genannte Möglichkeit beurteilt Kant ausgesprochen negativ; seine Kritik an dem von Comenius zunächst ganz allgemein formulierten und dann von Christian Wolff insbesondere für die Philosophie favorisierten Programm einer Präsentation der Philosophie nach mathematischem Vorbild einer Darstellung more geometrico demonstrata ist hinlänglich bekannt. Die Verwendung von Mathematik in der Naturlehre sieht Kant zwar durchaus positiv; in den Metaphysischen Anfangsgründen der Naturwissenschaft wird er gut zwei Jahrzehnte später sogar jene berühmte Behauptung hinzufügen, daß in jeder besonderen Naturlehre nur so viel eigentliche Wissenschaft angetroffen werden könne, als darin Mathematik anzutreffen ist. Dennoch weist Kant mit aller Deutlichkeit auf die engen Grenzen des Wirkungsbereichs solcher Anwendungen von Mathematik hin, denn seiner Meinung nach würden aber auch nur die zur Naturlehre gehörigen Einsichten von derartigem mathematischem Zugriff profitieren.
In einem Beitrag zu Platons Philosophie des Abstiegs schreibt C.F. v. Weizsäcker, er sei "überzeugt, daß die griechische Philosophie, dieses in allen Weltkulturen einzigartige Kunstwerk, ohne das mathematische Paradigma undenkbar gewesen wäre" . Und in seiner berühmten Kant-Vorlesung im WS 1935/36 erklärte M. Heidegger, es sei "kein Zufall, daß die Kritik der reinen Vernunft... ständig von einer Besinnung auf das Wesen des Mathematischen und der Mathematik begleitet sei" . Was hier über Platon und Kant gesagt wird, trifft auf fast alle abendländischen Philosophen von Rang zu: Explizit oder implizit spielt die Mathematik eine entscheidende Rolle für die neue philosophische Konzeption. Welche Gründe sind es, die der Mathematik einen so hohen Stellenwert im Denken der maßgebenden Philosophen sichern? Mit welchen Intentionen und Zielvorstellungen montieren Philosophen seit Platon bis Heidegger, seit Aristoteles bis Bloch immer wieder Aussagen über Mathematik in ihre Philosophie? Weshalb war in den vergangenen zweieinhalb Jahrtausenden keine andere Wissenschaft für die Philosophie so >>frag-würdig<< wie die Mathematik? Die Philosophie hat - dies ist offensichtlich - den Dialog mit der Mathematik immer wieder gesucht. Und wie steht es um das Interesse der Mathematik an einem Dialog mit der Philosophie? In einem äußerst gehaltvollen und auch heute noch sehr lesenswerten Aufsatz Mathematik und Antike stellt der Mathematiker O. Toeplitz 1925 die Frage, "ob einmal im Dasein der Mathematik die Philosophie bestimmend in sie eingegriffen hat, ihre eigentliche definitive Gestalt gebildet hat" ? Eine derartige Initiative aus der Mathematik heraus zum Dialog mit der Philosophie ist kein Einzelfall. Cantor, Hilbert, Weyl, Gödel und Robinson - um nur einige Repräsentanten der neueren Mathematik in Erinnerung zu rufen - haben sich immer wieder um Kontakte mit der Philosophie bemüht.
Jede Wissenschaft entfaltet sich in einem Spannungsverhältnis zu ihren Nachbardisziplinen. In diesem Beitrag wird insbesondere das Disziplinenpaar Mathematik-Philosophie in den Blick genommen. Dies geschieht entlang der Leitfrage, ob und gegebenenfalls wie Philosophie auf die Entwicklung und Ausformung der Mathematik Einfluß genommen hat. Dazu wird nach philosophischen Spuren in der Mathematik gefragt, wobei jene historischen Konstellationen bevorzugt betrachtet werden, die eine grundlegende Änderung im Mathematikverständnis erbracht haben. Deshalb gilt das Hauptinteresse dieser Untersuchung dem Verhältnis von Philosophie und Mathematik in der klassischen Antike, bei Kant und in der Gegenwart.
Der vorliegende Artikel befasst sich mit der Realisierung eines einfachen Motion Capturing Verfahrens in MATLAB als Vorschlag für eine Umsetzung in der Schule. Die zugrunde liegende Mathematik kann ab der Mittelstufe leicht vermittelt werden. Je nach technischer Ausstattung können mit einfachen Mitteln farbige Marker in Videos oder Webcam-Streams verfolgt werden. Notwendige Konzepte und Algorithmen werden im Artikel beleuchtet.
Dieser Beitrag beschreibt eine Lernumgebung für Schülerinnen und Schüler der Unter- und Mittelstufe mit einem Schwerpunkt im Fach Mathematik. Das Thema dieser Lernumgebung ist die Simulation von Entfluchtungsprozessen im Rahmen von Gebäudeevakuierungen. Dabei wird das Konzept eines zellulären Automaten vermittelt, ohne dabei Programmierkenntnisse vorauszusetzen oder anzuwenden. Anhand dieses speziellen Simulationswerkzeugs des zellulären Automaten werden Eigenschaften, Kenngrößen sowie Vor- und Nachteile von Simulationen im Allgemeinen thematisiert. Dazu gehören unter anderem die experimentelle Datengewinnung, die Festlegung von Modellparametern, die Diskretisierung des zeitlichen und räumlichen Betrachtungshorizonts sowie die zwangsläufig auftretenden (Diskretisierungs-)Fehler, die algorithmischen Abläufe einer Simulation in Form elementarer Handlungsanweisungen, die Speicherung und Visualisierung von Daten aus einer Simulation sowie die Interpretation und kritische Diskussion von Simulationsergebnissen. Die vorgestellte Lernumgebung ermöglicht etliche Variationen zu weiteren Aspekten des Themas „Evakuierungssimulation“ und bietet dadurch auch vielfältige Differenzierungsmöglichkeiten.
Bei einem von VDO entwickelten Navigationsgerät stehen unterschiedliche Verfahren zur Durchführung der Navigation zur Verfügung. Das Problem besteht darin, daß die von dem jeweiligen Verfahren erzielten Navigationsendpunkte von dem gewünschten Ziel mehr oder weniger stark abweichen. Diese Abweichungen hängen nicht nur von Anfangs- und Endpunkt der Testfahrt und vom Navigationsverfahren ab, sondern ändern sich auch bei der Wiederholung solcher Testfahrten. Ordnet man nun jedem Navigationsverfahren einen Parameter (vektor) zu und bezeichnet man die Menge aller betrachteten Parameter (werte) mit M (M kann zunächst endlich oder unendlich sein), so besteht das Ziel darin, den Parameter p*EM aufzufinden, für den das zugehörige Verfahren im Mittel am besten abschneidet. Hierzu ist es notwendig, zunächst ein Gütekriterium festzulegen.
Spektralsequenzen
(1999)
Im Projekt MAFoaM - Modular Algorithms for closed Foam Mechanics - des
Fraunhofer ITWM in Zusammenarbeit mit dem Fraunhofer IMWS wurde eine Methode zur Analyse und Simulation geschlossenzelliger PMI-Hartschäume entwickelt. Die Zellstruktur der Hartschäume wurde auf Basis von CT-Aufnahmen modelliert, um ihr Verformungs- und Versagensverhalten zu simulieren, d.h. wie sich die Schäume unter Belastungen bis hin zum totalen Defekt verhalten.
In der Diplomarbeit wird die
bildanalytische Zellrekonstruktion für PMI-Hartschäume automatisiert. Die Zellrekonstruktion dient der Bestimmung von Mikrostrukturgrößen,
also geometrischer Eigenschaften der Schaumzellen, wie z.B.
Mittelwert und Varianz des Zellvolumens oder der Zelloberfläche.