Refine
Year of publication
- 2001 (121) (remove)
Document Type
- Preprint (37)
- Doctoral Thesis (35)
- Report (21)
- Periodical Part (13)
- Article (4)
- Diploma Thesis (3)
- Lecture (2)
- Master's Thesis (2)
- Working Paper (2)
- Course Material (1)
- Periodical (1)
Keywords
- AG-RESY (9)
- RODEO (7)
- Mathematikunterricht (3)
- Modellierung (3)
- Phosphaalkin (3)
- praxisorientiert (3)
- vibration (3)
- Eisen (2)
- Lineare Algebra (2)
- Mobilfunk (2)
Faculty / Organisational entity
- Fachbereich Mathematik (30)
- Fachbereich Informatik (21)
- Fachbereich Chemie (15)
- Fachbereich Physik (12)
- Fachbereich Sozialwissenschaften (12)
- Fraunhofer (ITWM) (9)
- Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Fachbereich Elektrotechnik und Informationstechnik (6)
- Fachbereich Wirtschaftswissenschaften (4)
- Fachbereich ARUBI (2)
Congress Report
(2001)
Congress Report 2001.01
(2001)
Congress Report 2001.02
(2001)
Congress Report 2001.03
(2001)
Congress Report 2001.04
(2001)
Congress Report 2001.05
(2001)
Congress Report 2001.06-07
(2001)
Congress Report 2001.08
(2001)
Congress Report 2001.09
(2001)
Congress Report 2001.10
(2001)
Congress Report 2001.11
(2001)
Congress Report 2001.12
(2001)
Das Idealbild der europäischen Stadt mit ihrer dicht gewachsenen Baustruktur und ihren öffentlichen Räumen steht als Synonym für 'Urbanität' und beeinflußt bis zum heutigen Tag das planerische Denken und Handeln. Eng verbunden damit tauchen immer wieder Assoziationen zu Agora und Forum auf, die als Archetypen des 'Öffentlichen' schlechthin, den Mythos einer sich dort artikulierenden und konstituierenden, idealen und demokratischen Stadtgesellschaft transportieren. Zu Beginn des 21. Jahrhunderts stellt sich jedoch die Frage, ob sich die tradierten und erprobten Denkmodelle und Bilder des öffentlichen Raumes aufgrund der rasanten gesellschaftlichen und informationstechnologischen Veränderungen, überlebt haben. Haben die typischen Ideen von Stadt, die auf dem öffentlichen Raum beruhen nur noch rein symbolische Bedeutung? Verlagern sie sich mehr und mehr in den virtuellen Raum? 'Die Stadt der kurzen Wege' mit ihrer räumlichen Mischung ist als 'Marktplatz' für den Austausch von Informationen und Waren nicht mehr in der bekannten Weise relevant und gesellschaftlich bestimmend. Die Stadt als einheitliches und homogenes Gebilde existiert nicht mehr. Stattdessen ist sie durch Fragmentierung und Zersplitterung gekennzeichnet, wie u.a. die Diagnosen von Touraine ['Die Stadt - ein überholter Entwurf', 1996], Koolhaas ['Generic City', 1997], Sieverts ['Die Zwischenstadt', 1999] und Augé ['Orte und Nicht-Orte', 1998] zeigen. Synchron dazu entstehen mit dem Cyberspace oder 'Virtual Cities' [Rötzer, 1997] neue Formen von öffentlichem Raum und Öffentlichkeit - Parallelräume zur realen Welt. Welche Auswirkungen diese neuen Räume auf das Leben der Menschen und die Stadt haben werden, kann noch nicht abgesehen werden. In der realen Welt werden die Planungsspielräume der Kommunen immer kleiner; die Wechselwirkungen, die u.a. durch Globalisierung, Privatisierung und Deregulierung öffentlicher Aufgaben ausgelöst werden, immer komplexer. Neben den international zu beobachtenden Entwicklungen [Shopping-Mall, New Urbanism, Gated Community], die sich länderübergreifend in leicht abgewandelten Varianten durchzusetzen scheinen, üben auch soziokulturelle Gesellschaftstrends großen Einfluß auf den öffentlichen Raum aus. Der öffentliche Raum als Bindeglied zwischen dem 'Öffentlichen' und dem 'Privaten' ist zunehmend dem Druck der 'Erlebnis- und Konsumgesellschaft' ausgesetzt und kann deshalb seine gesamtgesellschaftliche Funktion für die Stadt nur noch eingeschränkt wahrnehmen. Die individualisierte und mobile Gesellschaft mit ihren gewandelten und diversifizierten Lebensentwürfen und Wertvorstellungen stellt das tradierte Verständnis des öffentlichen Raums zusätzlich in Frage. Das Bild des öffentlichen Raumes als ein Bereich der Gesellschaft des 21. Jahrhunderts kann nicht mehr mit einem mythisierenden Agora-Begriff begegnet werden. Neue Wege und eine Überprüfung der aktuellen Entwicklungen sind dafür unerlässlich. Gleichzeitig müssen jedoch auch die geschichtlichen Gegebenheiten berücksichtigt werden, um aus ihnen zu lernen.
Abstract
The main theme of this thesis is about Graph Coloring Applications and Defining Sets in Graph Theory.
As in the case of block designs, finding defining sets seems to be difficult problem, and there is not a general conclusion. Hence we confine us here to some special types of graphs like bipartite graphs, complete graphs, etc.
In this work, four new concepts of defining sets are introduced:
• Defining sets for perfect (maximum) matchings
• Defining sets for independent sets
• Defining sets for edge colorings
• Defining set for maximal (maximum) clique
Furthermore, some algorithms to find and construct the defining sets are introduced. A review on some known kinds of defining sets in graph theory is also incorporated, in chapter 2 the basic definitions and some relevant notations used in this work are introduced.
chapter 3 discusses the maximum and perfect matchings and a new concept for a defining set for perfect matching.
Different kinds of graph colorings and their applications are the subject of chapter 4.
Chapter 5 deals with defining sets in graph coloring. New results are discussed along with already existing research results, an algorithm is introduced, which enables to determine a defining set of a graph coloring.
In chapter 6, cliques are discussed. An algorithm for the determination of cliques using their defining sets. Several examples are included.
We present a complete derivation of the semiclassical limit of the coherent state propagator in one dimension, starting from path integrals in phase space. We show that the arbitrariness in the path integral representation, which follows from the overcompleteness of the coherent states, results in many different semiclassical limits. We explicitly derive two possible semiclassical formulae for the propagator, we suggest a third one, and we discuss their relationships. We also derive an initial value representation for the semiclassical propagator, based on an initial gaussian wavepacket. It turns out to be related to, but different from, Heller's thawed gaussian approximation. It is very different from the Herman - Kluk formula, which is not a correct semiclassical limit. We point out errors in two derivations of the latter. Finally we show how the semiclassical coherent state propagators lead to WKB-type quantization rules and to approximations for the Husimi distributions of stationary states.
Satellite-to-satellite tracking (SST) and satellite gravity gradiometry (SGG), respectively, are two measurement principles in modern satellite geodesy which yield knowledge of the first and second order radial derivative of the earth's gravitational potential at satellite altitude, respectively. A numerical method to compute the gravitational potential on the earth's surface from those observations should be capable of processing huge amounts of observational data. Moreover, it should yield a reconstruction of the gravitational potential at different levels of detail, and it should be possible to reconstruct the gravitational potential from only locally given data. SST and SGG are modeled as ill-posed linear pseudodifferential operator equations with an injective but non-surjective compact operator, which operates between Sobolev spaces of harmonic functions and such ones consisting of their first and second order radial derivatives, respectively. An immediate discretization of the operator equation is obtained by replacing the signal on its right-hand-side either by an interpolating or a smoothing spline which approximates the observational data. Here the noise level and the spatial distribution of the data determine whether spline-interpolation or spline-smoothing is appropriate. The large full linear equation system with positive definite matrix which occurs in the spline-interplation and spline-smoothing problem, respectively, is efficiently solved with the help of the Schwarz alternating algorithm, a domain decomposition method which allows it to split the large linear equation system into several smaller ones which are then solved alernatingly in an iterative procedure. Strongly space-localizing regularization scaling functions and wavelets are used to obtain a multiscale reconstruction of the gravitational potential on the earth's surface. In a numerical experiment the advocated method is successfully applied to reconstruct the earth's gravitational potential from simulated 'exact' and 'error-affected' SGG data on a spherical orbit, using Tikhonov regularization. The applicability of the numerical method is, however, not restricted to data given on a closed orbit but it can also cope with realistic satellite data.
The objective of this paper is to bridge the gap between location theory and practice. To meet this objective focus is given to the development of software capable of addressing the different needs of a wide group of users. There is a very active community on location theory encompassing many research fields such as operations research, computer science, mathematics, engineering, geography, economics and marketing. As a result, people working on facility location problems have a very diverse background and also different needs regarding the software to solve these problems. For those interested in non-commercial applications (e. g. students and researchers), the library of location algorithms (LoLA can be of considerable assistance. LoLA contains a collection of efficient algorithms for solving planar, network and discrete facility location problems. In this paper, a detailed description of the functionality of LoLA is presented. In the fields of geography and marketing, for instance, solving facility location problems requires using large amounts of demographic data. Hence, members of these groups (e. g. urban planners and sales managers) often work with geographical information too s. To address the specific needs of these users, LoLA was inked to a geographical information system (GIS) and the details of the combined functionality are described in the paper. Finally, there is a wide group of practitioners who need to solve large problems and require special purpose software with a good data interface. Many of such users can be found, for example, in the area of supply chain management (SCM). Logistics activities involved in strategic SCM include, among others, facility location planning. In this paper, the development of a commercial location software tool is also described. The too is embedded in the Advanced Planner and Optimizer SCM software developed by SAP AG, Walldorf, Germany. The paper ends with some conclusions and an outlook to future activities.
Das europäische Mobilfunksystem der dritten Generation heißt UMTS. UTRA - der terrestrische Funkzugang von UMTS - stellt zwei harmonisierte Luftschnittstellen zur Verfügung: Das TDD-basierte TD-CDMA und das FDD-basierte WCDMA. Das Duplexverfahren TDD bietet gegenüber FDD erhebliche Vorteile, z.B. können TDD-basierte Luftschnittstellen unterschiedliche Datenraten in der Aufwärts- und Abwärtsstrecke i.a. effizienter bereitstellen als FDD-basierte Luftschnittstellen. TD-CDMA ist Gegenstand dieser Arbeit. Die wichtigsten Details dieser Luftschnittstelle werden vorgestellt. Laufzeit und Interferenz sind wesentliche Gesichtspunkte beim Verwenden von TDD. Diese wesentlichen Gesichtspunkte werden eingehend für den Fall des betrachteten TD-CDMA untersucht. In UMTS spielen neben der Sprachübertragung insbesondere hochratige Datendienste und Multimediadienste eine wichtige Rolle. Die unterschiedlichen Qualitätsanforderungen dieser Dienste sind eine große Herausforderung für UMTS, insbesondere auf der physikalischen Ebene. Um den Qualitätsanforderungen verschiedener Dienste gerecht zu werden, definiert UTRA die L1/L2-Schnittstelle durch unterschiedliche Transportkanäle. Jeder Transportkanal garantiert durch die vorgegebene Datenrate, Verzögerung und maximal zulässige Bitfehlerrate eine bestimmte Qualität der Übertragung. Hieraus ergibt sich das Problem der Realisierung dieser Transportkanäle auf physikalischer Ebene. Dieses Problem wird in der vorliegenden Arbeit eingehend für TD-CDMA untersucht. Der UTRA-Standard bezeichnet die Realisierung eines Transportkanals als Transportformat. Wichtige Parameter des Transportformats sind das verwendete Pooling-Konzept, das eingesetzte FEC-Verfahren und die zugehörige Coderate. Um die Leistungsfähigkeit unterschiedlicher Transportformate quantitativ zu vergleichen, wird ein geeignetes Bewertungsmaß angegeben. Die zur Bewertung erforderlichen Meßwerte können nur durch Simulation auf Verbindungsebene ermittelt werden. Deshalb wird ein Programm für die Simulation von Transportformaten in TD-CDMA entwickelt. Bei der Entwicklung dieses Programms wird auf Konzepte, Techniken, Methoden und Prinzipien der Informatik für die Software-Entwicklung zurückgegriffen, um die Wiederverwendbarkeit und Änderbarkeit des Programms zu unterstützen. Außerdem werden wichtige Verfahren zur Reduzierung der Bitfehlerrate - die schnelle Leistungsregelung und die Antennendiversität - implementiert. Die Leistungsfähigkeit einer exemplarischen Auswahl von Transportformaten wird durch Simulation ermittelt und unter Verwendung des Bewertungsmaßes verglichen. Als FEC-Verfahren werden Turbo-Codes und die Code-Verkettung aus innerem Faltungscode und äußerem RS-Code eingesetzt. Es wird gezeigt, daß die untersuchten Verfahren zur Reduzierung der Bitfehlerrate wesentlichen Einfluß auf die Leistungsfähigkeit der Transportformate haben. Des weiteren wird gezeigt, daß die Transportformate mit Turbo-Codes bessere Ergebnisse erzielen als die Transportformate mit Code-Verkettung.
Diese Arbeit beschreibt die Untersuchung der Korrelationen zwischen den optischen Eigenschaften und den laserspezifischen Parametern von laseraktiven Festkörpermaterialien. Ein Schwerpunkt dieser Arbeit lag auf der Entwicklung von zweidimensionalen Meßverfahren zur Bestimmung der optischen und laserphysikalischen Eigenschaften von kristallinen Festkörpermaterialien mit einer räumlichen Auflösung zwischen 30 und 100 microm. Dazu wurden bekannte Methoden wie Messung der Absorption, Bestimmung der Fluoreszenzlebensdauer, die Schlierenmethode, das Polariskop und das Absorptionskalorimeter hinsichtlich Genauigkeit und räumlicher Auflösung verbessert, um für die zweidimensionalen Messungen eingesetzt werden zu können. Darüber hinaus müssen die Meßverfahren langzeitstabil sein, einen vollautomatischen Ablauf und eine quantitative Auswertung erlauben. Um die großen Datenmengen von maximal 2,8*10^6 Werten je Meßparameter und Probe handhaben zu können, wurde eine umfangreiche Softwarebibliothek zur Automatisierung der Messungen und zur Auswertung der Daten entwickelt. Die Auswertungsprogramme erlauben dabei beliebige Verknüpfungen zwischen den gemessenen Parametern. Voraussetzung hierfür war die Einführung eines kalibrierten Koordinatensystems für alle Meßverfahren. Mit den entwickelten Meßverfahren wurde eine Vielzahl verschiedener Proben und Materialien charakterisiert, um im ersten Schritt einen Überblick über mögliche Kristallfehler und deren Auswirkungen auf den Laserprozeß zu erhalten. Eine derart umfassende Charakterisierung von laseraktiven Materialien mit den dargestellten Genauigkeiten ist bisher noch nicht publiziert worden. Die präzise Charakterisierung der optischen Parameter und der laserphysikalischen Eigenschaften war in Verbindung mit der selbst entwickelten Software die Voraussetzung zur Untersuchung der Korrelationen zwischen diesen Parametern. Insbesondere die Untersuchung der Boulequerschnitte mit großem Durchmesser von bis zu 50 mm war sehr wichtig, da hier in derselben Probe Bereiche sehr unterschiedlicher Kristallqualität gemeinsam auftreten. Aus den Untersuchungen der Boulequerschnitte konnten Hinweise auf eine Korrelation zwischen den oben genannten Parametern abgeleitet werden, welche im Anschluß in einer quantitativen Analyse untersucht wurden. Daher war eine quantitative Bestimmung aller Parameter der Proben unabdingbar. Es konnte, wie theoretisch abgeleitet, ein linearer Zusammenhang zwischen den durch mechanische Spannungen induzierten Verlusten und den Laserparametern differentieller Wirkungsgrad und Schwelle nachgewiesen werden. Der Regressionskoeffizient der Korrelation zwischen diesen Parametern betrug für 3100 untersuchte Meßpunkte im Mittel r=0,76. Ebenso wurde der lineare Zusammenhang zwischen dem Betrag des Brechungsindexgradienten, der ein Maß für die optische Homogenität darstellt, und den gleichen Laserparametern gezeigt. Der mittlere Regressionskoeffizient ist mit r=0,65 etwas kleiner als im vorigen Fall, allerdings wurde der komplette Boulequerschnitt mit 265.000 Meßpunkten betrachtet, was kleinere Werte für r bei gleichstarker Korrelation erlaubt. In Einklang mit der Theorie wurde die Abhängigkeit der Korrelation der Parameter von der Transmission des Auskopplungsspiegels gezeigt. Eine Abhängigkeit des Brechungsindex von der Konzentration der Dotierung wurde qualitativ an einer ND:YAG Probe gezeigt. Die Verfahren wurden erfolgreich zur Charakterisierung von Czochralski-Nd:YAG, das erstmals mit einer Dotierungskonzentration von 2 at.% hergestellt werden konnte, angewandt. Der Vergleich mit dem sehr gut bekannten Nd:YAG mit einer Konzentration von 1 at.% zeigte keine Verschlechterung der Kristallqualität durch die Verdopplung der Dotierungskonzentration. Die Variationen im Betrag des Brechungsindexgradienten sind für beide Konzentrationen gleich groß. Diese Ergebnisse der optischen Charakterisierung konnten in Laserexperimenten auch bei hohen Ausgangsleistungen von 12 W bestätigt werden. Es wurde für das 2 at.% dotierte Material ein differentieller Wirkungsgrad von 56,6% und für 1 at.% dotiertes mit 53,8% nahezu der gleiche Wert bestimmt. Gegenüber einem Vergleichskristall aus Nd:YVO lieferte der 2 at.% Nd:YAG die höhere Ausgangsleistung, wobei zusätzlich berücksichtigt werden muß, daß der Nd:YVO Kristall bei 60% seiner Bruchgrenze und der 2 at.% Nd:YAG Kristall bei 39% seiner Bruchgrenze betrieben wurde. Mit der gleichen Systematik wurde die Qualitätskontrolle am Beispiel von Nd(0,9%):YAG Stäben aus der industriellen Fertigung demonstriert. Das Ausgangsmaterial wurde nach dem Zuchtvorgang einer Vorabprüfung unterzogen, um Defekte frühzeitig erkennen zu können. In Form einer Endkontrolle wurden die optischen Eigenschaften von fünf Stäben nach Durchlaufen des letzten Produktionsschrittes untersucht. Die Ergebnisse der Charakterisierung lieferten die kleinsten im Rahmen dieser Arbeit bestimmten Werte für den Betrag des Brechungsindexgradienten. Weiterhin demonstrierte die Untersuchung der Doppelbrechung, daß die vom Kern verursachten Spannungen, die sich über den ganzen Kristallboule ausbreiten, in den einzelnen Stäben nicht mehr vorhanden sind. Durch die hervorragenden Werte der optischen Homogenität und der Doppelbrechung sowie der sehr homogenen Verteilung der Dotierung konnte auf eine ausgezeichnete Kristallqualität geschlossen werden, was durch die Messung der Laserparameter bestätigt werden konnte. Es wurde im Multimodebetrieb ein differentieller Wirkungsgrad von maximal 68% erreicht, was sehr nahe an der theoretischen Obergrenze von 72% liegt. Mit der vorliegenden Arbeit wurde gezeigt, daß eine verläßliche Vorhersage der Lasereigenschaften aus optischen und spektroskopischen Daten möglich ist. Damit ist eine wichtige Vorbedingung zur Klassifizierung von laseraktiven Materialien nach bestimmten Qualitätsmerkmalen erfüllt. Eine Einführung von Qualitätsnormen mit definierten Prüfverfahren für laseraktive Materialien ist nun möglich. Die Umsetzung der in dieser Arbeit vorgeschlagenen Verfahren kann für die Laserindustrie der entscheidende Durchbruch von der Einzelfertigung in den Massenmarkt bedeuten.
Mit der vorliegenden Veröffentlichung soll der Versuch unternommen werden, mathematischen Schulstoff aus konkreten Problemen herzuentwickeln. Im Mittelpunkt der vorliegenden Arbeit stehen betriebswirtschaftliche Planungs- und Entscheidungsprobleme, wie sie von fast allen Wirtschaftsunternehmen zu lösen sind. Dabei wird im besonderen auf folgende Optimierungsprobleme eingegangen: Berechnung des Rohstoffbedarfs bei gegebenen Bestellungen, Aufarbeitung von vorhandenen Lagerbeständen und das Stücklistenproblem.
Das Crashverhalten energieabsorbierender Strukturen aus faserverstärkten
Kunststoffen, die während ihres Gebrauchs wechselnden Temperaturen ausgesetzt
sind, wurde bislang nur wenig erforscht. Typische Anwendungstemperaturen in der
Automobilindustrie, ausgenommen Bauteile, welche direkt mit dem Motor verbunden
sind, bewegen sich zwischen -40 und 100 °C. Da ein polymeres Matrixsystem in
diesem Temperaturbereich stark veränderliche Festigkeiten und Steifigkeiten
aufweist, variieren auch die mechanischen Eigenschaften eines Faser-Kunststoff-
Verbundes (FKV). Dies gilt insbesondere bei Druckbelastungen, da gerade hier die
Fasern auf die Stützwirkung der Matrix angewiesen sind.
Die vorliegende Arbeit befasst sich mit der experimentellen Untersuchung des
Crashverhaltens gewebeverstärkter Thermoplaste und deren numerischer Simulation
unter dem Einfluss der Umgebungstemperatur. Da Faser-Kunststoff-Verbunde beim
Crashvorgang ein stark von der Belastungsgeschwindigkeit abhängiges Kraftniveau
aufweisen, muss die Crashprüfung im relevanten Geschwindigkeitsbereich oberhalb
ca. 4 km/h durchgeführt werden können. Hierzu wird die Crashanlage der Institut für
Verbundwerkstoffe GmbH (IVW) um eine Klimatisierungseinrichtung für Crashversuche
erweitert.
Die Versuche werden erstmals an Strukturen aus glas- und kohlenstoffgewebeverstärkten
technischen Thermoplasten (verschiedene Polyamide und Polycarbonat)
im Temperaturbereich zwischen –30 und 90 °C durchgeführt. Dabei zeigt sich, dass
die Umgebungstemperatur einen deutlichen Einfluss auf das Crashverhalten hat und
bei der Auslegung energieabsorbierender Strukturen berücksichtigt werden muss.
Die hierfür verantwortlichen Materialparameter werden identifiziert, um eine Aussage
über geeignete Faser-Matrix-Kombinationen für temperaturbelastete Bauteile treffen
zu können.
Die wesentlichen Ergebnisse dieser Arbeit sind:
• Die Temperaturabhängigkeit des Schubmoduls der Matrix und die Crashkennwerte des Verbundes (Mittelkraft und spezifisch absorbierte Energie) stehen
in direktem Zusammenhang. Dies gilt insbesondere beim Versagen des FKV im
Laminatbiegemode.
• Teilkristalline Thermoplaste, auch hochtemperaturbeständige Thermoplaste wie
PEEK, eignen sich wegen der starken Abhängigkeit des Schubmoduls von der
Temperatur nur begrenzt als Matrixsystem für crashbelastete Strukturen.
• Amorphe Thermoplaste, deren Glasübergangstemperatur über der Einsatztemperatur
des Absorbers liegt, zeigen nur einen geringen Abfall des Kraftniveaus
bei zunehmender Temperatur und sind daher zu bevorzugen.
Die derzeit in FE-Programmen implementierten Materialmodelle ermöglichen nicht
die gewünschte Prognosefähigkeit bei der Crashsimulation von Strukturen aus
gewebeverstärkten Thermoplasten, da die komplexen Versagensmechanismen nicht
erfasst werden. Am Beispiel von kohlenstoffgewebeverstärktem Polyamid 12 wird
das Versagensverhalten der experimentell untersuchten Crashabsorber analysiert
und die erforderlichen crashrelevanten Kennwerte ermittelt. Dabei ist das Nachversagensverhalten
unter Druckbelastung von besonderer Bedeutung. Um dieses zu
untersuchen, wurde im Rahmen dieser Arbeit ein Druckversuch definiert und eine
Vorgehensweise zur Bestimmung der erforderlichen Versagensparameter vorgestellt.
Die erzielten Simulationsergebnisse korrelieren mit den experimentell ermittelten
Werten im untersuchten Temperaturbereich sehr gut.
A natural extension of point facility location problems are those problems in which facilities are extensive, i.e. those that can not be represented by isolated points but as some dimensional structures such as straight lines, segments of lines, polygonal curves or circles. In this paper a review of the existing work on the location of extensive facilities in continuous spaces is given. Gaps in the knowledge are identified and suggestions for further research are made.
We present a system concept allowing humans to work safely in the same environment as a robot manipulator. Several cameras survey the common workspace. A look-up-table-based fusion algorithm is used to back-project directly from the image spaces of the cameras to the manipulator?s con-figuration space. In the look-up-tables both, the camera calibration and the robot geometry are implicitly encoded. For experiments, a conven-tional 6 axis industrial manipulator is used. The work space is surveyed by four grayscale cameras. Due to the limits of present robot controllers, the computationally expensive parts of the system are executed on a server PC that communicates with the robot controller via Ethernet.
In this thesis a new family of codes for the use in optical high bit rate transmission systems with a direct sequence code division multiple access scheme component was developed and its performance examined. These codes were then used as orthogonal sequences for the coding of the different wavelength channels in a hybrid OCDMA/WDMA system. The overall performance was finally compared to a pure WDMA system. The common codes known up to date have the problem of needing very long sequence lengths in order to accommodate an adequate number of users. Thus, code sequence lengths of 1000 or more were necessary to reach bit error ratios of with only about 10 simultaneous users. However, these sequence lengths are unacceptable if signals with data rates higher than 100 MBit/s are to be transmitted, not to speak about the number of simultaneous users. Starting from the well known optical orthogonal codes (OOC) and under the assumption of synchronization among the participating transmitters - justified for high bit rate WDM transmission systems -, a new code family called ?modified optical orthogonal codes? (MOOC) was developed by minimizing the crosscorrelation products of each two sequences. By this, the number of simultaneous users could be increased by several orders of magnitude compared to the known codes so far. The obtained code sequences were then introduced in numerical simulations of a 80 GBit/s DWDM transmission system with 8 channels, each carrying a 10 GBit/s payload. Usual DWDM systems are featured by enormous efforts to minimize the spectral spacing between the various wavelength channels. These small spacings in combination with the high bit rates lead to very strict demands on the system components like laser diode, filters, multiplexers etc. Continuous channel monitoring and temperature regulations of sensitive components are inevitable, but often cannot prevent drop downs of the bit error ratio due to aging effects or outer influences like mechanical stress. The obtained results show that - very different to the pure WDM system - by orthogonally coding adjacent wavelength channels with the proposed MOOC, the overall system performance gets widely independent from system parameters like input powers, channel spacings and link lengths. Nonlinear effects like XPM that insert interchannel crosstalk are effectively fought. Furthermore, one can entirely dispense with the bandpass filters, thus simplifying the receiver structure, which is especially interesting for broadcast networks. A DWDM system upgraded with the OCDMA subsystem shows a very robust behavior against a variety of influences.
Fragestellungen der Standortplanung sollen den Mathematikunterricht der Schule bereichern, dort behandelt und gelöst werden. In dieser Arbeit werden planare Standortprobleme vorgestellt, die im Mathematikunterricht behandelt werden können. Die Probleme Produktion von Halbleiterplatinen, Planung eines Feuerwehrhauses und das Zentrallagerproblem, die ausnahmlos real und nicht konstruiert sind, werden ausführlich durchgearbeitet, so dass es schnell möglich ist, daraus Unterrichtseinheiten zu entwickeln.
In der vorliegenden Arbeit werden die Synthesen neuer Imidovanadium(V)-Verbindungen vorgestellt. Die analytischen Daten werden diskutiert und die Komplexe charakterisiert. Ergänzt werden diese Untersuchungen durch Reaktivitätsstudien, die wiederum die Charakterisierung der Produkte erfordert. Die Umsetzung von Phosphaalkinen mit Imidovanadium-Komplexen stellt einen Schwerpunkt der Arbeit dar. Die erhaltenen organischen bzw. anorganischen Produkte werden isoliert und charakterisiert. Mögliche Reaktionsmechanismen werden diskutiert und anhand nachgewiesener Neben- bzw. Zwischenprodukte untermauert. Ein weiterer Schwerpunkt dieser Arbeit ist das Studium des Reaktionsverhaltens der Imidovanadium(IV)-Verbindung tBuNVCl2 DME. Das Disproportionierungsverhalten bei den Substitutionsreaktionen mit Nukleophilen der 14., 15., und 16. Gruppe wird untersucht; neue Komplexe werden isoliert und charakterisiert.
Die Arbeit entstand vor dem Hintergrund, daß bestehende Verschleißmodelle sich nicht
beliebig auf jedes tribologische System übertragen lassen. Aus diesem Grund sollte auf Basis
der finiten Elemente ein Werkzeug zum grundlegenden Verständnis der Gleitverschleißmechanismen
geschaffen werden, welches systemunabhängig einsetzbar ist.
Zur Gleitverschleißmodellierung mit Hilfe der Methode der finiten Elemente (FE) mußte
vorab eine genaue Bestimmung der Verschleißmechanismen sowie der Materialkennwerte zur
Charakterisierung der Kontaktverhältnisse von Faser-Kunststoff-Verbund (FKV) / Stahl
Reibpaarungen durchgeführt werden. Die Reibungs- und Verschleißeigenschaften des
genannten tribologischen Systems wurden mittels Modellverschleißversuchen nach dem Stift-
Scheibe-Verfahren innerhalb eines Temperaturbereiches von Raumtemperatur bis T=180°C
bestimmt. Eine mechanische Charakterisierung erfolgte anhand von Zug-, Druck- und
Scherversuchen auf einer statischen Prüfmaschine. Die verschlissenen Probenoberflächen
wurden anschließend mit verschiedenen mikroskopischen Verfahren charakterisiert.
Wichtigstes Ergebnis dieser Untersuchungen war die starke Abhängigkeit des
Verschleißbetrages und der wirkenden Verschleißmechanismen von der Faserorientierung
und der Prüftemperatur.
Zur Berechnung der Spannungszustände im Reibkontakt wurde ein dreidimensionaler
anisotroper Kontaktalgorithmus entwickelt. Zur Überprüfung dieses Kontaktalgorithmus
wurden Kugeleindruckversuche an endlos kohlenstoffaserverstärktem PEEK durchgeführt. Es
konnte gezeigt werden, daß die Modellierung sehr gut mit den experimentellen Ergebnissen
übereinstimmte.
Im weiteren Verlauf der Arbeit wurde dieser Algorithmus zur Modellierung der wahren
Kontaktverhältnisse herangezogen. Eine mikromechanische Charakterisierung der Materialien
sowie die Bestimmung der Verschleißmechanismen unter Einzelrauhigkeitsspitzenkontakt wurde mit Hilfe von Mikrohärteversuchen bzw. Kratzversuchen durchgeführt. Die Ergebnisse
der Spannungsanalyse bestätigen die experimentell ermittelten Versagens- bzw.
Verschleißmechanismen unter Belastung einzelner Rauhigkeitsspitzen. Im Falle normaler
Faserorientierung fanden Spannungsüberhöhungen in den Fasern und im Faser/Matrix-
Grenzbereich statt, welche zu Faserbruch und Faser/Matrix-Delamination führen können. Unter paralleler und antiparalleler Faserorientierung wurden die Fasern hauptsächlich
Biegung ausgesetzt. Weiterhin herrschten im Faser/Matrix-Grenzbereich Scherspannungen,
die zu Faser/Matrix-Delamination führen.
Eine Modellierung des thermischen Verhaltens einer CF/PEEK - Stahl - Reibpaarung zeigte,
daß im Kontaktbereich Schmelztemperaturen vorliegen können. Weiterhin war eine starke
Abhängigkeit des Wärmeflusses von der Faserorientierung zu verzeichnen. Anhand der
Definition von Peclet-Nummern für anisotrope Verbundwerkstoffe konnte, abhängig von der
Faserorientierung, zwischen langsam und schnell gleitenden Reibpaarungen unterschieden
werden.
Es konnte gezeigt werden, daß sich mit Hilfe der Methode der finiten Elemente über
herrschende Spannungszustände in sehr guter Annäherung die Gleitverschleißmechanismen
von CF/PEEK - Stahl - Reibpaarungen beschreiben lassen. Letze Aufgabe bleibt nun die
Bestimmung einer Kenngröße zur Abschätzung des Materialverschleißes in Abhängigkeit von
den Spannungszuständen im Mikrobereich.
Abstract: The basic concepts of selective multiscale reconstruction of functions on the sphere from error-affected data is outlined for scalar functions. The selective reconstruction mechanism is based on the premise that multiscale approximation can be well-represented in terms of only a relatively small number of expansion coefficients at various resolution levels. A new pyramid scheme is presented to efficiently remove the noise at different scales using a priori statistical information.
By means of the limit and jump relations of classical potential theory the framework of a wavelet approach on a regular surface is established. The properties of a multiresolution analysis are verified, and a tree algorithm for fast computation is developed based on numerical integration. As applications of the wavelet approach some numerical examples are presented, including the zoom-in property as well as the detection of high frequency perturbations. At the end we discuss a fast multiscale representation of the solution of (exterior) Dirichlet's or Neumann's boundary-value problem corresponding to regular surfaces.
The purpose of satellite-to-satellite tracking (SST) and/or satellite gravity gradiometry (SGG) is to determine the gravitational field on and outside the Earth's surface from given gradients of the gravitational potential and/or the gravitational field at satellite altitude. In this paper both satellite techniques are analysed and characterized from mathematical point of view. Uniqueness results are formulated. The justification is given for approximating the external gravitational field by finite linear combination of certain gradient fields (for example, gradient fields of single-poles or multi-poles) consistent to a given set of SGG and/or SST data. A strategy of modelling the gravitational field from satellite data within a multiscale concept is described; illustrations based on the EGM96 model are given.
We introduce two novel techniques for speeding up the generation of digital \((t,s)\)-sequences. Based on these results a new algorithm for the construction of Owen's randomly permuted \((t,s)\)-sequences is developed and analyzed. An implementation of the new techniques is available at http://www.cs.caltech.edu/~ilja/libseq/index.html
Der Variantenreichtum der Pentaphosphaferrocene konnte unter Verwendung von trimethylsilyl-substituierten CpR-Liganden erweitert werden. Neben den einfach und zweifach Tms-substituierten Cp- und Cp= Liganden kommt auch der gemischt substituierte Cp-'-Ligand zum Einsatz. Bei der Cothermolyse von [CpRFe(5-P5)] und [CpRCo(CO)2] entstehen eine Reihe von neuartigen und bekannten Cobalt und Eisen Mehrkernclustern mit unsubstituierten Pn-Liganden. Die Verbindungen [{Cp=Co}4P10], [{Cp=Co}4P4] und [{Cp-Co}4P4] fungierten ebenfalls in ausgewählten Reaktionen als Phosphorquelle mit einer erstaunlichen Produktpalette.
Free Surface Lattice-Boltzmann Method To Model The Filling Of Expanding Cavities By Bingham Fluids
(2001)
The filling process of viscoplastic metal alloys and plastics in expanding cavities is modelled using the lattice Boltzmann method in two and three dimensions. These models combine the regularized Bingham model for viscoplastic with a free-interface algorithm. The latter is based on a modified immiscible lattice Boltzmann model in which one species is the fluid and the other one is considered as vacuum. The boundary conditions at the curved liquid-vacuum interface are met without any geometrical front reconstruction from a first-order Chapman-Enskog expansion. The numerical results obtained with these models are found in good agreement with available theoretical and numerical analysis.
Untersucht wurden eine Reihe von alpha,beta-ungesättigten Carbonylverbindungen, die im Hinblick auf ihr Vorkommen in Lebensmitteln, ihrer zum Teil noch nicht hinreichend bekannten toxikologischen Wirkungen und Hinsichtlich möglicher Struktur-Wirkungsbeziehungen ausgewählt wurden: (E)-2-Hexenal (HEX), (E)-2-Octenal (OCTE), (E)-2-Nonenal (NONE), (2E,4E)-2,4-Hexadienal (HEXDI), (2E,6Z)-2,6-Nonadienal (NONDI), (E)-2-Zimtaldehyd (CA) und 2-Cyclohexen-1-on (CHX). Mit Hilfe der gewonnen Daten sollte eine Abschätzung des toxischen (gentoxischen) Potentials der Verbindungen ermöglicht werden. Neben Cytotoxizität und Wachstumshemmung wurde vor allem auf Induktion von DNA-Schäden mittels Comet-Assay geprüft, für einige Substanzen auch auf Induktion von Mutationen mittels HPRT-Test. Weiterhin wurden Veränderungen des zellulären Glutathionspiegels und oxidative DNA-Modifikationen mittels modifiziertem Comet-Assay erfaßt. In orientierenden Versuchen wurde auf Induktion von Apoptose mittels Durchflußcytometrie geprüft. Die Untersuchungen wurden an V79 Zellen, einer Lungenfibroblastenzellinie des Chinesischen Hamsters, Caco-2 Zellen, einer humane Adenocarcinomzellinie, und an primären humanen Colonzellen durchgeführt. Ergänzend wurde auf Gentoxizität an Bakterien im UMU-Test geprüft. Die Ergebnisse zeigen, daß alle untersuchten alpha,beta-ungesättigten Carbonylverbindungen außer NONE in nicht cytotoxischen Konzentrationen konzentrationsabhängig DNA-Schäden in den verschiedenen Säugerzellen induzieren. Eine DNA-schädigende Wirkung von NONE konnte aufgrund der starken cytotoxischen Wirkung der Verbindung nicht beobachtet werden. Induktion von Apoptose, die für HEX in V79 Zellen untersucht wurde, konnte nicht nachgewiesen werden. Somit kann für die beobachteten DNA-Schäden eine gentoxische Wirkung angenommen werden. Mutagenität war für HEX, nur in der Nähe des cytotoxischen Grenzbereichs nachweisbar. Im Vergleich zur DNA-Schädigung in geringeren Konzentrationen depletierten alle untersuchten Verbindungen den Glutathionspiegel. Erstmals konnte unter diesen Bedingungen eine erhöhte Empfindlichkeit der Zellen gegenüber induziertem oxidativem Streß (H2O2) nachgewiesen werden. Weiterhin wurde erstmals für HEX eine erhöhte oxidative DNA-Schädigung im Verlauf einer mehrstündigen Postinkubation (ohne Zugabe eines Oxidans) gezeigt. Die Bedeutung dieser oxidativen DNA-Schäden für die gentoxische Wirkung der 2-Alkenale/CHX ist derzeit noch nicht abschätzbar. Für den UMU-Test wurde belegt, daß er zum Nachweis gentoxischer Wirkungen von 2-Alkenalen ungeeignet ist, aufgrund einer durch die Substanz bedingte Beeinflussung der beta-Galactosidase-Aktivität. Am wirksamsten waren NONDI und NONE in den verwendeten Testsystemen. Das geringe Vorkommen dieser Verbindungen in der Umwelt/Nahrung und ihre starke Cytotoxizität relativieren jedoch das gentoxische Gefährdungspotential. HEX war in der Regel entweder gleich stark (GSH-Depletion; Induktion oxidativer Schäden) oder leicht schwächer (Induktion von DNA-Schäden) wirksam als NONDI/NONE. Die Verbindungen (OCTE, HEXDI und CHX) sind schwächer wirksam und/oder kommen in deutlich geringeren Mengen vor, so daß für sie von einem zu vernachlässigenden Gefährdungspotential ausgegangen werden kann. CA besitzt ebenfalls eine geringere gentoxische Wirkung als HEX, da aber keine Daten zur täglichen Aufnahme vorliegen, ist eine Riskoabschätzung nicht möglich. Aufgrund der deutlich geringeren cytotoxischen Wirkung von HEX im Vergleich zu NONE/NONDI (Faktor 14) und des relativ hohen Vorkommens (geschätzte mittlere tägliche Aufnahme pro Person: ca. 6 mg) ist das mögliche Gefährdungspotential durch HEX höher einzuschätzen.
Wannier-Stark states for semiconductor superlattices in strong static fields, where the interband Landau-Zener tunneling cannot be neglected, are rigorously calculated. The lifetime of these metastable states was found to show multiscale oscillations as a function of the static field, which is explained by an interaction with above-barrier resonances. An equation, expressing the absorption spectrum of semiconductor superlattices in terms of the resonance Wannier-Stark states is obtained and used to calculate the absorption spectrum in the region of high static fields.
In this work, we discuss the resonance states of a quantum particle in a periodic potential plus static force. Originally this problem was formulated for a crystalline electron subject to the static electric field and is known nowadays as the Wannier-Stark problem. We describe a novel approach to the Wannier-Stark problem developed in recent years. This approach allows to compute the complex energy spectrum of a Wannier-Stark system as the poles of a rigorously constructed scattering matrix and, in this sense, solves the Wannier-Stark problem without any approximation. The suggested method is very efficient from the numerical point of view and has proven to be a powerful analytic tool for Wannier-Stark resonances appearing in different physical systems like optical or semiconductor superlattices.
To simulate the influence of process parameters to the melt spinning process a fiber model is used and coupled with CFD calculations of the quench air flow. In the fiber model energy, momentum and mass balance are solved for the polymer mass flow. To calculate the quench air the Lattice Boltzmann method is used. Simulations and experiments for different process parameters and hole configurations are compared and show a good agreement.
This paper details models and algorithms which can be applied to evacuation problems. While it concentrates on building evacuation many of the results are applicable also to regional evacuation. All models consider the time as main parameter, where the travel time between components of the building is part of the input and the overall evacuation time is the output. The paper distinguishes between macroscopic and microscopic evacuation models both of which are able to capture the evacuees' movement over time. Macroscopic models are mainly used to produce good lower bounds for the evacuation time and do not consider any individual behavior during the emergency situation. These bounds can be used to analyze existing buildings or help in the design phase of planning a building. Macroscopic approaches which are based on dynamic network flow models (minimum cost dynamic flow, maximum dynamic flow, universal maximum flow, quickest path and quickest flow) are described. A special feature of the presented approach is the fact, that travel times of evacuees are not restricted to be constant, but may be density dependent. Using multicriteria optimization priority regions and blockage due to fire or smoke may be considered. It is shown how the modelling can be done using time parameter either as discrete or continuous parameter. Microscopic models are able to model the individual evacuee's characteristics and the interaction among evacuees which influence their movement. Due to the corresponding huge amount of data one uses simulation approaches. Some probabilistic laws for individual evacuee's movement are presented. Moreover ideas to model the evacuee's movement using cellular automata (CA) and resulting software are presented. In this paper we will focus on macroscopic models and only summarize some of the results of the microscopic approach. While most of the results are applicable to general evacuation situations, we concentrate on building evacuation.
Given a railway network together with information on the population and their use of the railway infrastructure, we are considering the e ffects of introducing new train stops in the existing railway network. One e ffect concerns the accessibility of the railway infrastructure to the population, measured in how far people live from their nearest train stop. The second effect we study is the change in travel time for the railway customers that is induced by new train stops. Based on these two models, we introduce two combinatorial optimization problems and give NP-hardness results for them. We suggest an algorithmic approach for the model based on travel time and give first experimental results.
Lineare Optimierung ist ein wichtiges Aufgabengebiet der angewandten Mathematik, da sich viele praktische Probleme mittels dieser Technik modellieren und lösen lassen. Diese Veröffentlichung soll helfen, Schüler an diese Thematik heranzuführen. Dabei soll der Vorgang des Modellierens, also die Reduktion des Problems auf die wesentlichen Merkmale, vermittelt werden. Anschließend an den Modellierungsprozeß können durch Einsatz der Simplex-Methode die linearen Optimierungsprobleme gelöst werden. Verschiedene praktische Beispiele dienen der Veranschaulichung des Vorgehens.
We study summation of sequences and integration in the quantum model of computation. We develop quantum algorithms for computing the mean of sequences which satisfy a \(p\)-summability condition and for integration of functions from Lebesgue spaces \(L_p([0,1]^d)\) and analyze their convergence rates. We also prove lower bounds which show that the proposed algorithms are, in many cases, optimal within the setting of quantum computing. This extends recent results of Brassard, Høyer, Mosca, and Tapp (2000) on computing the mean for bounded sequences and complements results of Novak (2001) on integration of functions from Hölder classes.
We survey old and new results about optimal algorithms for summation of finite sequences and for integration of functions from Hölder or Sobolev spaces. First we discuss optimal deterministic and randornized algorithms. Then we add a new aspect, which has not been covered before on conferences
about (quasi-) Monte Carlo methods: quantum computation. We give a short introduction into this setting and present recent results of the authors on optimal quantum algorithms for summation and integration. We discuss comparisons between the three settings. The most interesting case for Monte
Carlo and quantum integration is that of moderate smoothness \(k\) and large dimension \(d\) which, in fact, occurs in a number of important applied problems. In that case the deterministic exponent is negligible, so the \(n^{-1/2}\) Monte Carlo and the \(n^{-1}\) quantum speedup essentially constitute the entire convergence rate.
In the Finite-Volume-Particle Method (FVPM), the weak formulation of a hyperbolic conservation law is discretized by restricting it to a discrete set of test functions. In contrast to the usual Finite-Volume approach, the test functions are not taken as characteristic functions of the control volumes in a spatial grid, but are chosen from a partition of unity with smooth and overlapping partition functions (the particles), which can even move along prescribed velocity fields. The information exchange between particles is based on standard numerical flux functions. Geometrical information, similar to the surface area of the cell faces in the Finite-Volume Method and the corresponding normal directions are given as integral quantities of the partition functions. After a brief derivation of the Finite-Volume-Particle Method, this work focuses on the role of the geometric coefficients in the scheme.
Annual Report 2000
(2001)
Abstract: Operator product expansions are applied to dilaton-axion four-point functions. In the expansions of the bilocal fields "doubble Phi", CC and "Phi"C, the conformal fields which are symmetric traceless tensors of rank l and have dimensions "delta" = 2+l or 8+l+ "eta"(l) and "eta"(l) = O(N ^ -2) are identified. The unidentified field have dimension "delta" = "lambda"+l+eta(l) with "lambda" >= 10. The anomalous dimensions eta(l) are calculated at order O(N ^ -2) for both 2 ^ -1/2(-"doubble Phi" + CC) and 2 ^ -1/2(-"Phi"C + C"Phi") and are found to be the same, proving U(1)_Y symmetry. The relevant coupling constants are given at order O(1).