Refine
Year of publication
- 2001 (121) (remove)
Document Type
- Preprint (37)
- Doctoral Thesis (35)
- Report (21)
- Periodical Part (13)
- Article (4)
- Diploma Thesis (3)
- Lecture (2)
- Master's Thesis (2)
- Working Paper (2)
- Course Material (1)
Keywords
- AG-RESY (9)
- RODEO (7)
- Mathematikunterricht (3)
- Modellierung (3)
- Phosphaalkin (3)
- praxisorientiert (3)
- vibration (3)
- Eisen (2)
- Lineare Algebra (2)
- Mobilfunk (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (30)
- Kaiserslautern - Fachbereich Informatik (21)
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich Physik (12)
- Kaiserslautern - Fachbereich Sozialwissenschaften (12)
- Fraunhofer (ITWM) (9)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich ARUBI (2)
Das Idealbild der europäischen Stadt mit ihrer dicht gewachsenen Baustruktur und ihren öffentlichen Räumen steht als Synonym für 'Urbanität' und beeinflußt bis zum heutigen Tag das planerische Denken und Handeln. Eng verbunden damit tauchen immer wieder Assoziationen zu Agora und Forum auf, die als Archetypen des 'Öffentlichen' schlechthin, den Mythos einer sich dort artikulierenden und konstituierenden, idealen und demokratischen Stadtgesellschaft transportieren. Zu Beginn des 21. Jahrhunderts stellt sich jedoch die Frage, ob sich die tradierten und erprobten Denkmodelle und Bilder des öffentlichen Raumes aufgrund der rasanten gesellschaftlichen und informationstechnologischen Veränderungen, überlebt haben. Haben die typischen Ideen von Stadt, die auf dem öffentlichen Raum beruhen nur noch rein symbolische Bedeutung? Verlagern sie sich mehr und mehr in den virtuellen Raum? 'Die Stadt der kurzen Wege' mit ihrer räumlichen Mischung ist als 'Marktplatz' für den Austausch von Informationen und Waren nicht mehr in der bekannten Weise relevant und gesellschaftlich bestimmend. Die Stadt als einheitliches und homogenes Gebilde existiert nicht mehr. Stattdessen ist sie durch Fragmentierung und Zersplitterung gekennzeichnet, wie u.a. die Diagnosen von Touraine ['Die Stadt - ein überholter Entwurf', 1996], Koolhaas ['Generic City', 1997], Sieverts ['Die Zwischenstadt', 1999] und Augé ['Orte und Nicht-Orte', 1998] zeigen. Synchron dazu entstehen mit dem Cyberspace oder 'Virtual Cities' [Rötzer, 1997] neue Formen von öffentlichem Raum und Öffentlichkeit - Parallelräume zur realen Welt. Welche Auswirkungen diese neuen Räume auf das Leben der Menschen und die Stadt haben werden, kann noch nicht abgesehen werden. In der realen Welt werden die Planungsspielräume der Kommunen immer kleiner; die Wechselwirkungen, die u.a. durch Globalisierung, Privatisierung und Deregulierung öffentlicher Aufgaben ausgelöst werden, immer komplexer. Neben den international zu beobachtenden Entwicklungen [Shopping-Mall, New Urbanism, Gated Community], die sich länderübergreifend in leicht abgewandelten Varianten durchzusetzen scheinen, üben auch soziokulturelle Gesellschaftstrends großen Einfluß auf den öffentlichen Raum aus. Der öffentliche Raum als Bindeglied zwischen dem 'Öffentlichen' und dem 'Privaten' ist zunehmend dem Druck der 'Erlebnis- und Konsumgesellschaft' ausgesetzt und kann deshalb seine gesamtgesellschaftliche Funktion für die Stadt nur noch eingeschränkt wahrnehmen. Die individualisierte und mobile Gesellschaft mit ihren gewandelten und diversifizierten Lebensentwürfen und Wertvorstellungen stellt das tradierte Verständnis des öffentlichen Raums zusätzlich in Frage. Das Bild des öffentlichen Raumes als ein Bereich der Gesellschaft des 21. Jahrhunderts kann nicht mehr mit einem mythisierenden Agora-Begriff begegnet werden. Neue Wege und eine Überprüfung der aktuellen Entwicklungen sind dafür unerlässlich. Gleichzeitig müssen jedoch auch die geschichtlichen Gegebenheiten berücksichtigt werden, um aus ihnen zu lernen.
Abstract
The main theme of this thesis is about Graph Coloring Applications and Defining Sets in Graph Theory.
As in the case of block designs, finding defining sets seems to be difficult problem, and there is not a general conclusion. Hence we confine us here to some special types of graphs like bipartite graphs, complete graphs, etc.
In this work, four new concepts of defining sets are introduced:
• Defining sets for perfect (maximum) matchings
• Defining sets for independent sets
• Defining sets for edge colorings
• Defining set for maximal (maximum) clique
Furthermore, some algorithms to find and construct the defining sets are introduced. A review on some known kinds of defining sets in graph theory is also incorporated, in chapter 2 the basic definitions and some relevant notations used in this work are introduced.
chapter 3 discusses the maximum and perfect matchings and a new concept for a defining set for perfect matching.
Different kinds of graph colorings and their applications are the subject of chapter 4.
Chapter 5 deals with defining sets in graph coloring. New results are discussed along with already existing research results, an algorithm is introduced, which enables to determine a defining set of a graph coloring.
In chapter 6, cliques are discussed. An algorithm for the determination of cliques using their defining sets. Several examples are included.
We present a complete derivation of the semiclassical limit of the coherent state propagator in one dimension, starting from path integrals in phase space. We show that the arbitrariness in the path integral representation, which follows from the overcompleteness of the coherent states, results in many different semiclassical limits. We explicitly derive two possible semiclassical formulae for the propagator, we suggest a third one, and we discuss their relationships. We also derive an initial value representation for the semiclassical propagator, based on an initial gaussian wavepacket. It turns out to be related to, but different from, Heller's thawed gaussian approximation. It is very different from the Herman - Kluk formula, which is not a correct semiclassical limit. We point out errors in two derivations of the latter. Finally we show how the semiclassical coherent state propagators lead to WKB-type quantization rules and to approximations for the Husimi distributions of stationary states.
Satellite-to-satellite tracking (SST) and satellite gravity gradiometry (SGG), respectively, are two measurement principles in modern satellite geodesy which yield knowledge of the first and second order radial derivative of the earth's gravitational potential at satellite altitude, respectively. A numerical method to compute the gravitational potential on the earth's surface from those observations should be capable of processing huge amounts of observational data. Moreover, it should yield a reconstruction of the gravitational potential at different levels of detail, and it should be possible to reconstruct the gravitational potential from only locally given data. SST and SGG are modeled as ill-posed linear pseudodifferential operator equations with an injective but non-surjective compact operator, which operates between Sobolev spaces of harmonic functions and such ones consisting of their first and second order radial derivatives, respectively. An immediate discretization of the operator equation is obtained by replacing the signal on its right-hand-side either by an interpolating or a smoothing spline which approximates the observational data. Here the noise level and the spatial distribution of the data determine whether spline-interpolation or spline-smoothing is appropriate. The large full linear equation system with positive definite matrix which occurs in the spline-interplation and spline-smoothing problem, respectively, is efficiently solved with the help of the Schwarz alternating algorithm, a domain decomposition method which allows it to split the large linear equation system into several smaller ones which are then solved alernatingly in an iterative procedure. Strongly space-localizing regularization scaling functions and wavelets are used to obtain a multiscale reconstruction of the gravitational potential on the earth's surface. In a numerical experiment the advocated method is successfully applied to reconstruct the earth's gravitational potential from simulated 'exact' and 'error-affected' SGG data on a spherical orbit, using Tikhonov regularization. The applicability of the numerical method is, however, not restricted to data given on a closed orbit but it can also cope with realistic satellite data.
The objective of this paper is to bridge the gap between location theory and practice. To meet this objective focus is given to the development of software capable of addressing the different needs of a wide group of users. There is a very active community on location theory encompassing many research fields such as operations research, computer science, mathematics, engineering, geography, economics and marketing. As a result, people working on facility location problems have a very diverse background and also different needs regarding the software to solve these problems. For those interested in non-commercial applications (e. g. students and researchers), the library of location algorithms (LoLA can be of considerable assistance. LoLA contains a collection of efficient algorithms for solving planar, network and discrete facility location problems. In this paper, a detailed description of the functionality of LoLA is presented. In the fields of geography and marketing, for instance, solving facility location problems requires using large amounts of demographic data. Hence, members of these groups (e. g. urban planners and sales managers) often work with geographical information too s. To address the specific needs of these users, LoLA was inked to a geographical information system (GIS) and the details of the combined functionality are described in the paper. Finally, there is a wide group of practitioners who need to solve large problems and require special purpose software with a good data interface. Many of such users can be found, for example, in the area of supply chain management (SCM). Logistics activities involved in strategic SCM include, among others, facility location planning. In this paper, the development of a commercial location software tool is also described. The too is embedded in the Advanced Planner and Optimizer SCM software developed by SAP AG, Walldorf, Germany. The paper ends with some conclusions and an outlook to future activities.
Das europäische Mobilfunksystem der dritten Generation heißt UMTS. UTRA - der terrestrische Funkzugang von UMTS - stellt zwei harmonisierte Luftschnittstellen zur Verfügung: Das TDD-basierte TD-CDMA und das FDD-basierte WCDMA. Das Duplexverfahren TDD bietet gegenüber FDD erhebliche Vorteile, z.B. können TDD-basierte Luftschnittstellen unterschiedliche Datenraten in der Aufwärts- und Abwärtsstrecke i.a. effizienter bereitstellen als FDD-basierte Luftschnittstellen. TD-CDMA ist Gegenstand dieser Arbeit. Die wichtigsten Details dieser Luftschnittstelle werden vorgestellt. Laufzeit und Interferenz sind wesentliche Gesichtspunkte beim Verwenden von TDD. Diese wesentlichen Gesichtspunkte werden eingehend für den Fall des betrachteten TD-CDMA untersucht. In UMTS spielen neben der Sprachübertragung insbesondere hochratige Datendienste und Multimediadienste eine wichtige Rolle. Die unterschiedlichen Qualitätsanforderungen dieser Dienste sind eine große Herausforderung für UMTS, insbesondere auf der physikalischen Ebene. Um den Qualitätsanforderungen verschiedener Dienste gerecht zu werden, definiert UTRA die L1/L2-Schnittstelle durch unterschiedliche Transportkanäle. Jeder Transportkanal garantiert durch die vorgegebene Datenrate, Verzögerung und maximal zulässige Bitfehlerrate eine bestimmte Qualität der Übertragung. Hieraus ergibt sich das Problem der Realisierung dieser Transportkanäle auf physikalischer Ebene. Dieses Problem wird in der vorliegenden Arbeit eingehend für TD-CDMA untersucht. Der UTRA-Standard bezeichnet die Realisierung eines Transportkanals als Transportformat. Wichtige Parameter des Transportformats sind das verwendete Pooling-Konzept, das eingesetzte FEC-Verfahren und die zugehörige Coderate. Um die Leistungsfähigkeit unterschiedlicher Transportformate quantitativ zu vergleichen, wird ein geeignetes Bewertungsmaß angegeben. Die zur Bewertung erforderlichen Meßwerte können nur durch Simulation auf Verbindungsebene ermittelt werden. Deshalb wird ein Programm für die Simulation von Transportformaten in TD-CDMA entwickelt. Bei der Entwicklung dieses Programms wird auf Konzepte, Techniken, Methoden und Prinzipien der Informatik für die Software-Entwicklung zurückgegriffen, um die Wiederverwendbarkeit und Änderbarkeit des Programms zu unterstützen. Außerdem werden wichtige Verfahren zur Reduzierung der Bitfehlerrate - die schnelle Leistungsregelung und die Antennendiversität - implementiert. Die Leistungsfähigkeit einer exemplarischen Auswahl von Transportformaten wird durch Simulation ermittelt und unter Verwendung des Bewertungsmaßes verglichen. Als FEC-Verfahren werden Turbo-Codes und die Code-Verkettung aus innerem Faltungscode und äußerem RS-Code eingesetzt. Es wird gezeigt, daß die untersuchten Verfahren zur Reduzierung der Bitfehlerrate wesentlichen Einfluß auf die Leistungsfähigkeit der Transportformate haben. Des weiteren wird gezeigt, daß die Transportformate mit Turbo-Codes bessere Ergebnisse erzielen als die Transportformate mit Code-Verkettung.
Diese Arbeit beschreibt die Untersuchung der Korrelationen zwischen den optischen Eigenschaften und den laserspezifischen Parametern von laseraktiven Festkörpermaterialien. Ein Schwerpunkt dieser Arbeit lag auf der Entwicklung von zweidimensionalen Meßverfahren zur Bestimmung der optischen und laserphysikalischen Eigenschaften von kristallinen Festkörpermaterialien mit einer räumlichen Auflösung zwischen 30 und 100 microm. Dazu wurden bekannte Methoden wie Messung der Absorption, Bestimmung der Fluoreszenzlebensdauer, die Schlierenmethode, das Polariskop und das Absorptionskalorimeter hinsichtlich Genauigkeit und räumlicher Auflösung verbessert, um für die zweidimensionalen Messungen eingesetzt werden zu können. Darüber hinaus müssen die Meßverfahren langzeitstabil sein, einen vollautomatischen Ablauf und eine quantitative Auswertung erlauben. Um die großen Datenmengen von maximal 2,8*10^6 Werten je Meßparameter und Probe handhaben zu können, wurde eine umfangreiche Softwarebibliothek zur Automatisierung der Messungen und zur Auswertung der Daten entwickelt. Die Auswertungsprogramme erlauben dabei beliebige Verknüpfungen zwischen den gemessenen Parametern. Voraussetzung hierfür war die Einführung eines kalibrierten Koordinatensystems für alle Meßverfahren. Mit den entwickelten Meßverfahren wurde eine Vielzahl verschiedener Proben und Materialien charakterisiert, um im ersten Schritt einen Überblick über mögliche Kristallfehler und deren Auswirkungen auf den Laserprozeß zu erhalten. Eine derart umfassende Charakterisierung von laseraktiven Materialien mit den dargestellten Genauigkeiten ist bisher noch nicht publiziert worden. Die präzise Charakterisierung der optischen Parameter und der laserphysikalischen Eigenschaften war in Verbindung mit der selbst entwickelten Software die Voraussetzung zur Untersuchung der Korrelationen zwischen diesen Parametern. Insbesondere die Untersuchung der Boulequerschnitte mit großem Durchmesser von bis zu 50 mm war sehr wichtig, da hier in derselben Probe Bereiche sehr unterschiedlicher Kristallqualität gemeinsam auftreten. Aus den Untersuchungen der Boulequerschnitte konnten Hinweise auf eine Korrelation zwischen den oben genannten Parametern abgeleitet werden, welche im Anschluß in einer quantitativen Analyse untersucht wurden. Daher war eine quantitative Bestimmung aller Parameter der Proben unabdingbar. Es konnte, wie theoretisch abgeleitet, ein linearer Zusammenhang zwischen den durch mechanische Spannungen induzierten Verlusten und den Laserparametern differentieller Wirkungsgrad und Schwelle nachgewiesen werden. Der Regressionskoeffizient der Korrelation zwischen diesen Parametern betrug für 3100 untersuchte Meßpunkte im Mittel r=0,76. Ebenso wurde der lineare Zusammenhang zwischen dem Betrag des Brechungsindexgradienten, der ein Maß für die optische Homogenität darstellt, und den gleichen Laserparametern gezeigt. Der mittlere Regressionskoeffizient ist mit r=0,65 etwas kleiner als im vorigen Fall, allerdings wurde der komplette Boulequerschnitt mit 265.000 Meßpunkten betrachtet, was kleinere Werte für r bei gleichstarker Korrelation erlaubt. In Einklang mit der Theorie wurde die Abhängigkeit der Korrelation der Parameter von der Transmission des Auskopplungsspiegels gezeigt. Eine Abhängigkeit des Brechungsindex von der Konzentration der Dotierung wurde qualitativ an einer ND:YAG Probe gezeigt. Die Verfahren wurden erfolgreich zur Charakterisierung von Czochralski-Nd:YAG, das erstmals mit einer Dotierungskonzentration von 2 at.% hergestellt werden konnte, angewandt. Der Vergleich mit dem sehr gut bekannten Nd:YAG mit einer Konzentration von 1 at.% zeigte keine Verschlechterung der Kristallqualität durch die Verdopplung der Dotierungskonzentration. Die Variationen im Betrag des Brechungsindexgradienten sind für beide Konzentrationen gleich groß. Diese Ergebnisse der optischen Charakterisierung konnten in Laserexperimenten auch bei hohen Ausgangsleistungen von 12 W bestätigt werden. Es wurde für das 2 at.% dotierte Material ein differentieller Wirkungsgrad von 56,6% und für 1 at.% dotiertes mit 53,8% nahezu der gleiche Wert bestimmt. Gegenüber einem Vergleichskristall aus Nd:YVO lieferte der 2 at.% Nd:YAG die höhere Ausgangsleistung, wobei zusätzlich berücksichtigt werden muß, daß der Nd:YVO Kristall bei 60% seiner Bruchgrenze und der 2 at.% Nd:YAG Kristall bei 39% seiner Bruchgrenze betrieben wurde. Mit der gleichen Systematik wurde die Qualitätskontrolle am Beispiel von Nd(0,9%):YAG Stäben aus der industriellen Fertigung demonstriert. Das Ausgangsmaterial wurde nach dem Zuchtvorgang einer Vorabprüfung unterzogen, um Defekte frühzeitig erkennen zu können. In Form einer Endkontrolle wurden die optischen Eigenschaften von fünf Stäben nach Durchlaufen des letzten Produktionsschrittes untersucht. Die Ergebnisse der Charakterisierung lieferten die kleinsten im Rahmen dieser Arbeit bestimmten Werte für den Betrag des Brechungsindexgradienten. Weiterhin demonstrierte die Untersuchung der Doppelbrechung, daß die vom Kern verursachten Spannungen, die sich über den ganzen Kristallboule ausbreiten, in den einzelnen Stäben nicht mehr vorhanden sind. Durch die hervorragenden Werte der optischen Homogenität und der Doppelbrechung sowie der sehr homogenen Verteilung der Dotierung konnte auf eine ausgezeichnete Kristallqualität geschlossen werden, was durch die Messung der Laserparameter bestätigt werden konnte. Es wurde im Multimodebetrieb ein differentieller Wirkungsgrad von maximal 68% erreicht, was sehr nahe an der theoretischen Obergrenze von 72% liegt. Mit der vorliegenden Arbeit wurde gezeigt, daß eine verläßliche Vorhersage der Lasereigenschaften aus optischen und spektroskopischen Daten möglich ist. Damit ist eine wichtige Vorbedingung zur Klassifizierung von laseraktiven Materialien nach bestimmten Qualitätsmerkmalen erfüllt. Eine Einführung von Qualitätsnormen mit definierten Prüfverfahren für laseraktive Materialien ist nun möglich. Die Umsetzung der in dieser Arbeit vorgeschlagenen Verfahren kann für die Laserindustrie der entscheidende Durchbruch von der Einzelfertigung in den Massenmarkt bedeuten.
Mit der vorliegenden Veröffentlichung soll der Versuch unternommen werden, mathematischen Schulstoff aus konkreten Problemen herzuentwickeln. Im Mittelpunkt der vorliegenden Arbeit stehen betriebswirtschaftliche Planungs- und Entscheidungsprobleme, wie sie von fast allen Wirtschaftsunternehmen zu lösen sind. Dabei wird im besonderen auf folgende Optimierungsprobleme eingegangen: Berechnung des Rohstoffbedarfs bei gegebenen Bestellungen, Aufarbeitung von vorhandenen Lagerbeständen und das Stücklistenproblem.
Das Crashverhalten energieabsorbierender Strukturen aus faserverstärkten
Kunststoffen, die während ihres Gebrauchs wechselnden Temperaturen ausgesetzt
sind, wurde bislang nur wenig erforscht. Typische Anwendungstemperaturen in der
Automobilindustrie, ausgenommen Bauteile, welche direkt mit dem Motor verbunden
sind, bewegen sich zwischen -40 und 100 °C. Da ein polymeres Matrixsystem in
diesem Temperaturbereich stark veränderliche Festigkeiten und Steifigkeiten
aufweist, variieren auch die mechanischen Eigenschaften eines Faser-Kunststoff-
Verbundes (FKV). Dies gilt insbesondere bei Druckbelastungen, da gerade hier die
Fasern auf die Stützwirkung der Matrix angewiesen sind.
Die vorliegende Arbeit befasst sich mit der experimentellen Untersuchung des
Crashverhaltens gewebeverstärkter Thermoplaste und deren numerischer Simulation
unter dem Einfluss der Umgebungstemperatur. Da Faser-Kunststoff-Verbunde beim
Crashvorgang ein stark von der Belastungsgeschwindigkeit abhängiges Kraftniveau
aufweisen, muss die Crashprüfung im relevanten Geschwindigkeitsbereich oberhalb
ca. 4 km/h durchgeführt werden können. Hierzu wird die Crashanlage der Institut für
Verbundwerkstoffe GmbH (IVW) um eine Klimatisierungseinrichtung für Crashversuche
erweitert.
Die Versuche werden erstmals an Strukturen aus glas- und kohlenstoffgewebeverstärkten
technischen Thermoplasten (verschiedene Polyamide und Polycarbonat)
im Temperaturbereich zwischen –30 und 90 °C durchgeführt. Dabei zeigt sich, dass
die Umgebungstemperatur einen deutlichen Einfluss auf das Crashverhalten hat und
bei der Auslegung energieabsorbierender Strukturen berücksichtigt werden muss.
Die hierfür verantwortlichen Materialparameter werden identifiziert, um eine Aussage
über geeignete Faser-Matrix-Kombinationen für temperaturbelastete Bauteile treffen
zu können.
Die wesentlichen Ergebnisse dieser Arbeit sind:
• Die Temperaturabhängigkeit des Schubmoduls der Matrix und die Crashkennwerte des Verbundes (Mittelkraft und spezifisch absorbierte Energie) stehen
in direktem Zusammenhang. Dies gilt insbesondere beim Versagen des FKV im
Laminatbiegemode.
• Teilkristalline Thermoplaste, auch hochtemperaturbeständige Thermoplaste wie
PEEK, eignen sich wegen der starken Abhängigkeit des Schubmoduls von der
Temperatur nur begrenzt als Matrixsystem für crashbelastete Strukturen.
• Amorphe Thermoplaste, deren Glasübergangstemperatur über der Einsatztemperatur
des Absorbers liegt, zeigen nur einen geringen Abfall des Kraftniveaus
bei zunehmender Temperatur und sind daher zu bevorzugen.
Die derzeit in FE-Programmen implementierten Materialmodelle ermöglichen nicht
die gewünschte Prognosefähigkeit bei der Crashsimulation von Strukturen aus
gewebeverstärkten Thermoplasten, da die komplexen Versagensmechanismen nicht
erfasst werden. Am Beispiel von kohlenstoffgewebeverstärktem Polyamid 12 wird
das Versagensverhalten der experimentell untersuchten Crashabsorber analysiert
und die erforderlichen crashrelevanten Kennwerte ermittelt. Dabei ist das Nachversagensverhalten
unter Druckbelastung von besonderer Bedeutung. Um dieses zu
untersuchen, wurde im Rahmen dieser Arbeit ein Druckversuch definiert und eine
Vorgehensweise zur Bestimmung der erforderlichen Versagensparameter vorgestellt.
Die erzielten Simulationsergebnisse korrelieren mit den experimentell ermittelten
Werten im untersuchten Temperaturbereich sehr gut.
A natural extension of point facility location problems are those problems in which facilities are extensive, i.e. those that can not be represented by isolated points but as some dimensional structures such as straight lines, segments of lines, polygonal curves or circles. In this paper a review of the existing work on the location of extensive facilities in continuous spaces is given. Gaps in the knowledge are identified and suggestions for further research are made.
We present a system concept allowing humans to work safely in the same environment as a robot manipulator. Several cameras survey the common workspace. A look-up-table-based fusion algorithm is used to back-project directly from the image spaces of the cameras to the manipulator?s con-figuration space. In the look-up-tables both, the camera calibration and the robot geometry are implicitly encoded. For experiments, a conven-tional 6 axis industrial manipulator is used. The work space is surveyed by four grayscale cameras. Due to the limits of present robot controllers, the computationally expensive parts of the system are executed on a server PC that communicates with the robot controller via Ethernet.
In this thesis a new family of codes for the use in optical high bit rate transmission systems with a direct sequence code division multiple access scheme component was developed and its performance examined. These codes were then used as orthogonal sequences for the coding of the different wavelength channels in a hybrid OCDMA/WDMA system. The overall performance was finally compared to a pure WDMA system. The common codes known up to date have the problem of needing very long sequence lengths in order to accommodate an adequate number of users. Thus, code sequence lengths of 1000 or more were necessary to reach bit error ratios of with only about 10 simultaneous users. However, these sequence lengths are unacceptable if signals with data rates higher than 100 MBit/s are to be transmitted, not to speak about the number of simultaneous users. Starting from the well known optical orthogonal codes (OOC) and under the assumption of synchronization among the participating transmitters - justified for high bit rate WDM transmission systems -, a new code family called ?modified optical orthogonal codes? (MOOC) was developed by minimizing the crosscorrelation products of each two sequences. By this, the number of simultaneous users could be increased by several orders of magnitude compared to the known codes so far. The obtained code sequences were then introduced in numerical simulations of a 80 GBit/s DWDM transmission system with 8 channels, each carrying a 10 GBit/s payload. Usual DWDM systems are featured by enormous efforts to minimize the spectral spacing between the various wavelength channels. These small spacings in combination with the high bit rates lead to very strict demands on the system components like laser diode, filters, multiplexers etc. Continuous channel monitoring and temperature regulations of sensitive components are inevitable, but often cannot prevent drop downs of the bit error ratio due to aging effects or outer influences like mechanical stress. The obtained results show that - very different to the pure WDM system - by orthogonally coding adjacent wavelength channels with the proposed MOOC, the overall system performance gets widely independent from system parameters like input powers, channel spacings and link lengths. Nonlinear effects like XPM that insert interchannel crosstalk are effectively fought. Furthermore, one can entirely dispense with the bandpass filters, thus simplifying the receiver structure, which is especially interesting for broadcast networks. A DWDM system upgraded with the OCDMA subsystem shows a very robust behavior against a variety of influences.
Fragestellungen der Standortplanung sollen den Mathematikunterricht der Schule bereichern, dort behandelt und gelöst werden. In dieser Arbeit werden planare Standortprobleme vorgestellt, die im Mathematikunterricht behandelt werden können. Die Probleme Produktion von Halbleiterplatinen, Planung eines Feuerwehrhauses und das Zentrallagerproblem, die ausnahmlos real und nicht konstruiert sind, werden ausführlich durchgearbeitet, so dass es schnell möglich ist, daraus Unterrichtseinheiten zu entwickeln.
In der vorliegenden Arbeit werden die Synthesen neuer Imidovanadium(V)-Verbindungen vorgestellt. Die analytischen Daten werden diskutiert und die Komplexe charakterisiert. Ergänzt werden diese Untersuchungen durch Reaktivitätsstudien, die wiederum die Charakterisierung der Produkte erfordert. Die Umsetzung von Phosphaalkinen mit Imidovanadium-Komplexen stellt einen Schwerpunkt der Arbeit dar. Die erhaltenen organischen bzw. anorganischen Produkte werden isoliert und charakterisiert. Mögliche Reaktionsmechanismen werden diskutiert und anhand nachgewiesener Neben- bzw. Zwischenprodukte untermauert. Ein weiterer Schwerpunkt dieser Arbeit ist das Studium des Reaktionsverhaltens der Imidovanadium(IV)-Verbindung tBuNVCl2 DME. Das Disproportionierungsverhalten bei den Substitutionsreaktionen mit Nukleophilen der 14., 15., und 16. Gruppe wird untersucht; neue Komplexe werden isoliert und charakterisiert.
Die Arbeit entstand vor dem Hintergrund, daß bestehende Verschleißmodelle sich nicht
beliebig auf jedes tribologische System übertragen lassen. Aus diesem Grund sollte auf Basis
der finiten Elemente ein Werkzeug zum grundlegenden Verständnis der Gleitverschleißmechanismen
geschaffen werden, welches systemunabhängig einsetzbar ist.
Zur Gleitverschleißmodellierung mit Hilfe der Methode der finiten Elemente (FE) mußte
vorab eine genaue Bestimmung der Verschleißmechanismen sowie der Materialkennwerte zur
Charakterisierung der Kontaktverhältnisse von Faser-Kunststoff-Verbund (FKV) / Stahl
Reibpaarungen durchgeführt werden. Die Reibungs- und Verschleißeigenschaften des
genannten tribologischen Systems wurden mittels Modellverschleißversuchen nach dem Stift-
Scheibe-Verfahren innerhalb eines Temperaturbereiches von Raumtemperatur bis T=180°C
bestimmt. Eine mechanische Charakterisierung erfolgte anhand von Zug-, Druck- und
Scherversuchen auf einer statischen Prüfmaschine. Die verschlissenen Probenoberflächen
wurden anschließend mit verschiedenen mikroskopischen Verfahren charakterisiert.
Wichtigstes Ergebnis dieser Untersuchungen war die starke Abhängigkeit des
Verschleißbetrages und der wirkenden Verschleißmechanismen von der Faserorientierung
und der Prüftemperatur.
Zur Berechnung der Spannungszustände im Reibkontakt wurde ein dreidimensionaler
anisotroper Kontaktalgorithmus entwickelt. Zur Überprüfung dieses Kontaktalgorithmus
wurden Kugeleindruckversuche an endlos kohlenstoffaserverstärktem PEEK durchgeführt. Es
konnte gezeigt werden, daß die Modellierung sehr gut mit den experimentellen Ergebnissen
übereinstimmte.
Im weiteren Verlauf der Arbeit wurde dieser Algorithmus zur Modellierung der wahren
Kontaktverhältnisse herangezogen. Eine mikromechanische Charakterisierung der Materialien
sowie die Bestimmung der Verschleißmechanismen unter Einzelrauhigkeitsspitzenkontakt wurde mit Hilfe von Mikrohärteversuchen bzw. Kratzversuchen durchgeführt. Die Ergebnisse
der Spannungsanalyse bestätigen die experimentell ermittelten Versagens- bzw.
Verschleißmechanismen unter Belastung einzelner Rauhigkeitsspitzen. Im Falle normaler
Faserorientierung fanden Spannungsüberhöhungen in den Fasern und im Faser/Matrix-
Grenzbereich statt, welche zu Faserbruch und Faser/Matrix-Delamination führen können. Unter paralleler und antiparalleler Faserorientierung wurden die Fasern hauptsächlich
Biegung ausgesetzt. Weiterhin herrschten im Faser/Matrix-Grenzbereich Scherspannungen,
die zu Faser/Matrix-Delamination führen.
Eine Modellierung des thermischen Verhaltens einer CF/PEEK - Stahl - Reibpaarung zeigte,
daß im Kontaktbereich Schmelztemperaturen vorliegen können. Weiterhin war eine starke
Abhängigkeit des Wärmeflusses von der Faserorientierung zu verzeichnen. Anhand der
Definition von Peclet-Nummern für anisotrope Verbundwerkstoffe konnte, abhängig von der
Faserorientierung, zwischen langsam und schnell gleitenden Reibpaarungen unterschieden
werden.
Es konnte gezeigt werden, daß sich mit Hilfe der Methode der finiten Elemente über
herrschende Spannungszustände in sehr guter Annäherung die Gleitverschleißmechanismen
von CF/PEEK - Stahl - Reibpaarungen beschreiben lassen. Letze Aufgabe bleibt nun die
Bestimmung einer Kenngröße zur Abschätzung des Materialverschleißes in Abhängigkeit von
den Spannungszuständen im Mikrobereich.
Abstract: The basic concepts of selective multiscale reconstruction of functions on the sphere from error-affected data is outlined for scalar functions. The selective reconstruction mechanism is based on the premise that multiscale approximation can be well-represented in terms of only a relatively small number of expansion coefficients at various resolution levels. A new pyramid scheme is presented to efficiently remove the noise at different scales using a priori statistical information.
By means of the limit and jump relations of classical potential theory the framework of a wavelet approach on a regular surface is established. The properties of a multiresolution analysis are verified, and a tree algorithm for fast computation is developed based on numerical integration. As applications of the wavelet approach some numerical examples are presented, including the zoom-in property as well as the detection of high frequency perturbations. At the end we discuss a fast multiscale representation of the solution of (exterior) Dirichlet's or Neumann's boundary-value problem corresponding to regular surfaces.