Refine
Year of publication
- 2006 (139) (remove)
Document Type
- Doctoral Thesis (69)
- Report (33)
- Periodical Part (14)
- Preprint (14)
- Working Paper (3)
- Diploma Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Moving Images (1)
- Study Thesis (1)
Keywords
- Elastic BVP (3)
- Apfelsaft (2)
- Apoptosis (2)
- Approximation (2)
- Curved viscous fibers (2)
- Elastisches RWP (2)
- Elastoplastisches RWP (2)
- Fluid dynamics (2)
- Hysterese (2)
- IMRT (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (31)
- Fraunhofer (ITWM) (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich ARUBI (10)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
Die Gestaltungslehre setzt sich häufig das Ziel, die Wahrnehmung von Lernenden zu sensibilisieren, um deren Wahrnehmungsfähigkeit zu verbessern. Dabei steht vornehmlich der visuelle Aspekt von Wahrnehmung im Mittelpunkt. Nun stellt sich die Frage, ob und in welchem Maße die Gestaltungslehre dem Ziel einer solchen Wahrnehmungssensibilisierung überhaupt gerecht werden kann. Die vorliegende Arbeit untersuchte deshalb, in wieweit die visuelle Wahrnehmung durch eine fachspezifische Trainingssituation innerhalb einer Ausbildung zu beeinflussen ist. Dabei wurde die Veränderung der Wahrnehmungsfähigkeit differenziert betrachtet, geleitet von der Annahme, dass diese Veränderung sich sowohl in Bezug auf fachspezifische, als auch auf nicht fachspezifische Inhalte vollziehen könnte. Um also diese Frage nach der Beeinflussung von Wahrnehmung durch Training zu klären, wurden an der Fachhochschule Weihenstephan in den Studiengängen Landschaftsarchitektur und Landschaftsbau und -Management vergleichende Untersuchungen angestellt. Das Ziel: eventuelle Auswirkungen der Teilnahme von Studierenden am Gestaltungsfach Schrift abzubilden. In der Vorgehensweise orientierte sich die Untersuchung an den Erkenntnissen zum Wahrnehmungslernen. Weil Wahrnehmungslernen nach Gibson und Gibson bedeutet, dass die Differenzierungsleistung zunimmt, wurde in der Studie nach Unterschieden und Veränderungen im Differenzierungsvermögen bei den Untersuchungsteilnehmern gefahndet. Weil Wahrnehmungslernen nur in Folge eines entsprechenden Trainings einsetzt, lässt sich aus dem Nachweis einer Steigerung der Differenzierungsleistung schließen, dass eine vorweggegangene Trainingssituation – also in diesem Fall im Unterricht des Gestaltungsfaches Schrift – stattgefunden haben muss. Um die Differenzierungsleistung beim Wahrnehmen abzubilden, wurden Sortierungsaufgaben gestellt. Karten mit Schriftarten waren zu sortieren, um festzustellen ob sich die Differenzierungsleistung bezüglich fachspezifischer Inhalte verändert hat. Karten mit Abdrucken von Handflächen waren zu sortieren, um festzustellen ob sich auch die Differenzierungsleistung bezüglich allgemeiner nicht fachbezogener Inhalte verändert hat. Quantitative und qualitative Unterschiede in der Kategorienbildung der Sortierungen stehen für die Differenzierungsleistung. Im Ergebnis sprechen verschiedene Indizien dafür, dass die Differenzierungsleistung bezüglich fachspezifischer Inhalte bei den Teilnehmern am Unterricht zum Fach Schrift zugenommen hat – die Wahrnehmungsfähigkeit hat sich demzufolge zumindest fachbezogen steigern lassen. Eine Steigerung bezüglich allgemeiner Inhalte ließ sich hingegen nicht verzeichnen. Die Ergebnisse einer weiteren Gruppe von Studierenden zeigte, dass aber die Möglichkeit, Wahrnehmungsfähigkeit auch allgemein zu beeinflussen, nicht grundsätzlich auszuschließen ist. Der Nachweis scheint aber nur dann gelingen zu können, wenn die Testobjekte des Verfahrens entsprechend wissenschaftlicher Erkenntnisse in ihrer Struktur in ganz besonderer Weise den Objekten der Trainingssituation gleichen. Die Ergebnisse dieser weiteren Gruppe lassen außerdem vermuten, dass sich auch eine einmalig angewandte Sensibilisierung auf die Wahrnehmungsfähigkeit trainierend auswirken kann, dass aber ein solcher Trainingseffekt nicht zwingend anhält. Der Zeitrahmen des Trainings hat also offenbar Auswirkungen auf die Nachhaltigkeit des Effekts, Übung und Wiederholung ist – und so haben es auch Gibson und Gibson bestätigt – für das Eintreten von Wahrnehmungslernen von Bedeutung. Aus den Ergebnissen lässt sich folgern, dass die Wahrnehmungsfähigkeit im Sinne des Ziels der Gestaltungslehre hinsichtlich fachlicher Inhalte gesteigert werden kann.
The fast development of the financial markets in the last decade has lead to the creation of a variety of innovative interest rate related products that require advanced numerical pricing methods. Examples in this respect are products with a complicated strong path-dependence such as a Target Redemption Note, a Ratchet Cap, a Ladder Swap and others. On the other side, the usage of the standard in the literature one-factor Hull and White (1990) type of short rate models allows only for a perfect correlation between all continuously compounded spot rates or Libor rates and thus are not suited for pricing innovative products depending on several Libor rates such as for example a "steepener" option. One possible solution to this problem deliver the two-factor short rate models and in this thesis we consider a two-factor Hull and White (1990) type of a short rate process derived from the Heath, Jarrow, Morton (1992) framework by limiting the volatility structure of the forward rate process to a deterministic one. In this thesis, we often choose to use a variety of modified (binomial, trinomial and quadrinomial) tree constructions as a main numerical pricing tool due to their flexibility and fast convergence and (when there is no closed-form solution) compare their results with fine grid Monte Carlo simulations. For the purpose of pricing the already mentioned innovative short-rate related products, in this thesis we offer and examine two different lattice construction methods for the two-factor Hull-White type of a short rate process which are able to deal easily both with modeling of the mean-reversion of the underlying process and with the strong path-dependence of the priced options. Additionally, we prove that the so-called rotated lattice construction method overcomes the typical for the existing two-factor tree constructions problem with obtaining negative "risk-neutral probabilities". With a variety of numerical examples, we show that this leads to a stability in the results especially in cases of high volatility parameters and negative correlation between the base factors (which is typically the case in reality). Further, noticing that Chan et al (1992) and Ritchken and Sankarasubramanian (1995) showed that option prices are sensitive to the level of the short rate volatility, we examine the pricing of European and American options where the short rate process has a volatility structure of a Cheyette (1994) type. In this relation, we examine the application of the two offered lattice construction methods and compare their results with the Monte Carlo simulation ones for a variety of examples. Additionally, for the pricing of American options with the Monte Carlo method we expand and implement the simulation algorithm of Longstaff and Schwartz (2000). With a variety of numerical examples we compare again the stability and the convergence of the different lattice construction methods. Dealing with the problems of pricing strongly path-dependent options, we come across the cumulative Parisian barrier option pricing problem. We notice that in their classical form, the cumulative Parisian barrier options have been priced both analytically (in a quasi closed form) and with a tree approximation (based on the Forward Shooting Grid algorithm, see e.g. Hull and White (1993), Kwok and Lau (2001) and others). However, we offer an additional tree construction method which can be seen as a direct binomial tree integration that uses the analytically calculated conditional survival probabilities. The advantage of the offered method is on one side that the conditional survival probabilities are easier to calculate than the closed-form solution itself and on the other side that this tree construction is very flexible in the sense that it allows easy incorporation of additional features such as e.g a forward starting one. The obtained results are better than the Forward Shooting Grid tree ones and are very close to the analytical quasi closed form solution. Finally, we pay our attention to pricing another type of innovative interest rate alike products - namely the Longevity bond - whose coupon payments depend on the survival function of a given cohort. Due to the lack of a market for mortality, for the pricing of the Longevity bonds we develop (following Korn, Natcheva and Zipperer (2006)) a framework that contains principles from both Insurance and Financial mathematic. Further on, we calibrate the existing models for the stochastic mortality dynamics to historical German data and additionally offer new stochastic extensions of the classical (deterministic) models of mortality such as the Gompertz and the Makeham one. Finally, we compare and analyze the results of the application of all considered models to the pricing of a Longevity bond on the longevity of the German males.
Selbstorganisation ist eine interessante und vielversprechende Möglichkeit, um die Komplexität verteilter Systeme beherrschbar zu machen. In diesem Beitrag schlagen wir ein leistungsfähiges Rechnersystem auf Basis von rekonfigurierbarer Hardware vor, welches aufgrund seiner Flexibilität in vielen Bereichen eingesetzt werden kann. Es wird die geplante Systemarchitektur und Systemsoftware beschrieben und ein intelligentes, verteiltes Kamerasystem vorgestellt, welches wir als Anwendung mit dem vorgeschlagenen System realisieren wollen, um Selbstorganisation in verteilten Systemen näher zu untersuchen.
Die Substanzklasse der Indirubine stellen u.a. potente Hemmstoffe der Cyclin-abhängigen Kinasen dar, die eine Schlüsselfunktion in der Regulation des Zellzyklus besitzen. In Vitro zeigen sie eine Wachstumshemmung am isolierten CDK-Enzym und in verschiedenen Tumorzelllinien. In einem ersten in vivo-Versuch an athymen Nacktmäusen, mit subkutan implantiertem Tumorxenograft des Lungenkarzinoms LXFL529, bewirkte 5-Methylindirubin 6 einen Stillstand des Tumorwachstums. Als Konsequenz zum in vivo Versuch wurde in dieser Arbeit der in vitro Metabolismus von 5-Methylindirubin 6 durch Inkubation mit verschiedenen tierischen Lebermikrosomen untersucht. Anschließende Identifizierung, Synthese und biologische Tests der Metaboliten sollen Aufschluss über ihr Wirkpotential geben. Hierzu wurde eine HPLC-MS-Methode entwickelt, mit der es gelang entstandene Metaboliten zu trennen und gleichzeitig strukturelle bzw. Massen-Veränderungen der Ausgangsverbindung zu erhalten. Es konnte gezeigt werden, dass 5-Methylindirubin durch Inkubation mit 6 Rinderlebermikrosomen zu fünf Metaboliten umgesetzt wurde, von denen vier identisch mit den Metaboliten aus den Inkubationen mit Schweinelebermikrosomen- und Aroclor-induzierten Rattenlebermikrosomen sind. Aus den aufgenommen Massenspektren wurden zwei generierte Metaboliten als mögliche mono-hydroxylierte Strukturisomere der Ausgangsverbindung und ein Metabolit als mögliche Di-Hydroxy-Verbindung von 5-Methylindirubin 6 identifiziert. Des Weiteren wurden 5-Bromindirubin 39, 5-Methoxyindirubin 40 und Indirubin-3’-(2-hydroxyethyl)oximether 10 als nicht-glycosodische Indirubin-Derivate und die glycosidischen Verbindungen Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15, sowie die zu 15 entsprechenden 5-Iod und 5-Methyl-Verbindung (41 und 16) in Inkubationen mit Aroclor-induzierten Rattenlebermikrosomen untersucht. Für sämtliche Verbindungen konnte die Bildung mehrerer Metaboliten nachgewiesen werden, wobei die zugehörigen MS-Daten, wie bei 5-Methylindirubin 6, Hinweise auf eine Mono- bzw. Di-Hydroxylierung des Grundgerüsts der Ausgangsverbindung lieferten. Zusätzlich konnte aus den Daten der Inkubation mit Aroclor-induzierten Rattenlebermikrosomen einen Hinweis auf die Umsatzgeschwindigkeit der getesteten Indirubine erhalten werden. Es ergab sich folgende Reihenfolge der Umsatzgeschwindigkeit: 5-Methylindirubin 6 > 5-Methoxyindirubin 40 >> 5-Bromindirubin 39 > 5-Iodindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 41 > Indirubin-3’-(2-β-D-glucopyranosylethyl)oximether 15 > 5-Methylindirubin-3’-(2-β-D-glucopyranosylethyl)oximether 16. In einem zweiten Teil der Arbeit wurde durch spezielle dünnschichtchromatographische Trennung die Inkubation von 5-Methylindirubin und Aroclor-induzierten Rattenlebermikrosomen aufgearbeitet. Die so isolierten Metaboliten M2 und M3 wurden mittels 1H-NMR als 6-Hydroxy-5-methylindirubin 74 = M2 und 6,7’-Dihydroxy-5-methyl-indirubin 75 = M3 identifiziert. Um eine Aussage über das biologische Wirkpotential der beiden Metaboliten zu erhalten, wurden diese synthetisiert und anschließend einem ersten biologischen Tests unterworfen. Zur Darstellung von M2 wurde käufliches Indoxyl-3-acetat mit 6-Hydroxy-5-methylisatin nach einer modifizierten Methode von Russell und Kaupp umgesetzt. Das benötigte Isatin wurde aus einem geeigneten acylierten Anilin mittels regiospezifischer Metallierung (DOM-Reaktion) und anschließender Umsetzung mit Diethyloxalat selbst hergestellt. Für die Synthese des zweiten Metaboliten M3 wurde ein Syntheseweg erstellt indem aus einer geeigneten N-Phenyl-glycin-o-carbonsäure 103 ein Diacetylindoxyl 104 erzeugt wurde, das selektiv in ein N-Acetylindoxyl 106 überführt wurde. Anschließend wurde durch saure Kondensation mit 6-Hydroxy-5-methyl-isatin 76 das gewünschte 6,7’-Dihydroxy-5-methyl-indirubin 75 erzeugt. Die beiden so erhaltenen Metaboliten M2=74 und M3=75 wurden schlussendlich auf ihre Hemmwirkung im SRB-Test an den beiden Zelllinien LXFL529L (humaner grosszelliger Lungentumor) und C6 (Rattenglioblastom) getestet. Es zeigte sich, dass die erzeugten Metaboliten das Wachstum der Tumorzelllinie LXFL529L deutlich weniger hemmt als die Ausgangsverbindung 5-Methylindirubin 6. Offenbar stellen die von 5-Methylindirubin 6 durch Mikrosomeninkubation generierten Metaboliten M2 und M3 in den getesteten Tumorzelllinien keine aktivere Wirkform dar.
Die Begrenzung und Minimierung der Belastung der Bevölkerung durch Umgebungslärm ist ein wichtiges Handlungsfeld der Raumplanung und insbesondere der Stadtplanung als koordinierender Gesamtplanung auf örtlicher Ebene. Obwohl für die Immissionssituation empfindlicher Gebiete in vielen Fällen nicht nur eine Anlage, sondern die Kombination mehrerer, z. T. unterschiedlicher Emittenten maßgeblich ist, fehlt bisher ein fachlich abgesichertes und in der Planungspraxis anwendbares Konzept zur Modellierung und zum Management kombinierter Umgebungslärmimmissionen. Die unter dem Stichwort ’Gesamtlärm’ geführte fachliche und rechtliche Diskussion hat sich in diesem Zusammenhang bislang sehr stark auf Summationsregeln für Immissionspegel und daraus abgeleitete Belastungsgrenzwerte reduziert. Zielsetzung der Arbeit ist es, eine strukturierte Modellierung als Basis für ein Managementkonzept zu erarbeiten, das die Erfassung und Interpretation kombinierter Umgebungslärmbelastungen ermöglicht. Maßgeblich für die Modellierungsparadigmen ist der Anspruch, die Anforderungen und Handlungsspielräume der Stadtplanung zu berücksichtigen, sich also an praktisch verfügbaren und planerisch steuerbaren Daten und Erkenntnissen zu orientieren, mit Unschärfen transparent umzugehen und auch die im internationalen Umfeld schon praktisch angewandten Konzepte auf Übertragbarkeit zu untersuchen. Der dafür gewählte Modellierungsansatz basiert auf der Charakterisierung des Umgebungslärms als Interaktion zwischen emittierenden und empfindlichen Raumnutzungen und damit als Raumnutzungskonflikt, der sich zum Einen als räumliches Risiko (z. B. für die menschliche Gesundheit) und zum Anderen als Ressourcenkonflikt um die Ruhe als Qualitätsmerkmal von Standorten darstellen lässt. Durch die Vielzahl der in die Modellierung einzubeziehenden Elemente und Parameter in den Bereichen Emission, Transmission, räumliche Immission, Exposition und Lärmwirkung ergibt sich die Notwendigkeit, neben fachlichen Vereinfachungen auch räumliche Abschichtungen vorzunehmen. Im Ergebnis wird ein dreistufiges Modellkonzept vorgeschlagen, das auf der ersten Stufe - Raumbezogenes Belästigungsrisiko - Optimierungskriterien für Gesamträume mit dem Ziel der Risikominimierung auf Basis vorliegender, stark generalisierender Belästigungskenngrößen herleitet und sich vor allem für räumlich übergeordnete Planungsaufgaben wie die Flächennutzungs- und die Gesamtverkehrsplanung eignet. Als räumliche Konkretisierung wird für die Bearbeitung quartiersbezogener Planungsaufgaben eine Modellebene ’Ruhezonierung’ vorgeschlagen, die sich vom Risikoansatz löst und Maßstäbe für die qualitätsorientierte Optimierung kleinräumiger Immissionssituationen enthält. Die letzte, in der Arbeit nur skizzierte Modellebene - Lokale akustische Qualität - enthält gebäudebezogene Ansätze zur Qualitätssteigerung. Damit entsteht ein durchgängiges Managementkonzept zur Anwendung in der örtlichen Gesamtplanung, das versucht, die vorhandenen Erkenntnisse der Lärmwirkungsforschung unter Beachtung der Datenqualität und des erforderlichen Detaillierungsgrads in schlüssiger und anwendbarer Weise für die räumlichen Handlungsebenen der Stadtplanung nutzbar zu machen.
Die Computerisierung der Gesellschaft bedingt ein ständiges Zunehmen der Geschwindigkeit, mit der neue Daten erzeugt werden. Parallel zu dieser Entwicklung steigt der Bedarf an geeigneten Analyseverfahren, die in diesen großen und oftmals heterogenen Datenmengen Muster finden, Zusammenhänge entdecken und damit Wissen erzeugen. Das in dieser Arbeit entwickelte Verfahren findet die passende Struktur in einer ungeordneten, abstrakten Datenmenge, ordnet die zugrunde liegenden Informationen und bündelt diese somit für eine gezielte Anwendung. Dieser Prozess des Information Clustering ist zweistufig, es erfolgt zuerst ein generelles Clustering, an das sich eine interpretierende Visualisierung anschliesst. Für das Clustering wird das Verfahren der Voronoidiagramme erweitert. Durch den Einsatz einer generellen Distanzfunktion wird die Modellierung der durch die großen Datenmengen entstehenden multidimensionalen Parameter sowie weiterer Gewichte ermöglicht. Eine anschließende Visualisierung aus dem Bereich der Informationsvisualisierung unterstützt die Interpretation der neu gewonnenen Informationen. Für die praktische Anwendung wird die Stadtplanung betrachtet. In der Stadtplanung wird das Modell des Planungsablaufes eingesetzt, mit dem verschiedene Planungsalternativen erzeugt werden. Dieses Modell ist jedoch zu starr, um den dynamischen Anforderungen in der Realität gerecht zu werden. Das Information Clustering erweitert den klassischen Planungsablauf, die Flexibilität des Modells wird dadurch erhöht und die Komplexität reduziert. Das Ergebnis der Berechnung ist genau eine Planungsalternative, die sämtliche Eingabeparameter kanalisiert.
Durch vorangegangene Arbeiten wurden transgene Kartoffelpflanzen erzeugt, die eine verringerte Aktivität des plastidären ATP/ADP Transporters aufweisen (NTT-antisense). Die Knollen dieser Pflanzen zeigen nicht nur veränderte Gehalte an Primärmetaboliten sondern auch eine erhöhte Pathogen-Resistenz, zum Beispiel gegen den bakteriellen Krankheitserreger Erwinia carotovora ssp. atroseptica (Eca). In diesem Zusammenhang deuten neuere Veröffentlichungen auf eine Bedeutung von Transportproteinen für Wirt-Pathogen Wechselwirkungen hin. Im Zuge dieser Arbeit konnte durch die Herstellung eines Systems zur gezielten Erzeugung von Eca „K.O.“-Mutanten die Bedeutung von ausgewählten Sequenzen, welche für Transportproteine kodieren, analysiert werden. Hierbei zeigte sich, dass im Bezug auf die Virulenz von Eca, sowohl der Prolin- als auch der d-Galaktonattransport nur von untergeordneter Bedeutung ist. In weiteren Untersuchungen wurde allerdings der Karbonsäuremetabolismus und -transport von Eca als zentrales Element in der Entfaltung maximaler bakterieller Virulenz erkannt. Hierbei wurde das Cit1-Protein als hoch-affiner Citrattransporter, welcher über die bakterielle pmf energetisiert wird, identifiziert. Dieses Protein ist für ein Wachstum von Eca auf Citrat als einziger Kohlenstoffquelle notwendig und essentiell zur Etablierung einer vollständigen Pathogenese auf Kartoffelknollenscheibchen. So weisen Eca cit1 „K.O.“-Mutanten im Vergleich zu Wildtyp Zellen nicht nur eine geringere pektolytische Aktivität und Gewebemazeration, sondern auch ein reduziertes in planta Wachstum, auf. Des Weiteren wurde ermittelt, dass sich NTT-antisense Gewebe nicht nur durch eine erhöhte Pathogen-Resistenz auszeichnet, sondern auch erniedrigte Citratgehalte aufweist. Analog führte eine artifizielle Erhöhung des Citratgehaltes durch Infiltration von Knollengewebe zu einer deutlich erhöhten Gewebemazeration durch Eca sowie einer verringerten Akkumulation von Abwehrrelevanten pflanzlichen Gentranskripten (PR-Gene). Weitere untersuchte Eca-Mutanten belegten, dass im gemeinsamen Wirken mit anderen enzymatischen Komponenten, Citrat ein ambivalentes Molekül für pflanzliche Resistenz und bakterielle Virulenz ist. Weiterhin konnte gezeigt werden, dass Transportproteine nicht nur für die Virulenz von Eca, sondern auch für phytopathogene Pilze wie Magnaporthe grisea, von Bedeutung sind. So konnte durch die Kooperation mit der AG Thines (IBWF) das Genprodukt eines bei Pathogenese induzierten Genes (rig2), biochemisch charakterisiert werden. Hierbei wurde mittels Komplementation einer Hefemutante (22∆8AA) nachgewiesen, dass es sich bei diesem Protein um einen Prolin-Transporter handelt. Diese Arbeit zeigt, dass Transportproteine als ein wichtiges Element in Wirt-Pathogen Beziehungen wirken können und eine Charakterisierung solcher Proteine zum Verständnis dieser Wechselwirkungen unerlässlich ist.
We present a constructive theory for locally supported approximate identities on the unit ball in \(\mathbb{R}^3\). The uniform convergence of the convolutions of the derived kernels with an arbitrary continuous function \(f\) to \(f\), i.e. the defining property of an approximate identity, is proved. Moreover, an explicit representation for a class of such kernels is given. The original publication is available at www.springerlink.com
Zusammenfassung Im Rahmen dieser Arbeit wurde ein Konzept für ein kapazitives Messsystem entwickelt und als Prototyp realisiert. Um realistische Rahmenbedingungen zu schaffen wurde der Prototyp auf einer Ultrapräzisionsmaschine des Lehrstuhls für Feinwerktechnik montiert und getestet. Für die Auswertung eines kapazitiven Sensors wurde das Trägerfrequenzmessverfahren gewählt. Um die gestellten Anforderungen erfüllen zu können musste das TF-Verfahren zunächst entscheidend modifiziert werden. Die klassischen Verfahren zur Demodulation, wie z.B. wie die synchrone Demodulation oder die Hüllkurvendemodulation sind ungeeignet, da sie zunächst das analoge modulierte Signal ins Basisband verschieben und dann erst für weitere Verarbeitung das Ausgangssignal zur Verfügung stellen. Dieser Zwischenschritt ist besonders anfällig für Signalverzerrungen und Phasenfehlern zwischen Trägerschwingung und moduliertem Signal. Um nun diese Nachteile zu umgehen erfolgt die Demodulation direkt durch die Abtastung des modulierten Signals mittels eines sehr schnellen AD-Wandlers. Das modulierte Signal wird so direkt ins Basisband zurückgefaltet. Da es sich bei dem modulierten Signal um ein bandbegrenztes Signal handelt kann die Abtastrate des AD-Wandlers an die Bandbreite des modulierten Signals angepasst werden, es findet eine Unterabtastung statt. Nachteilig ist hierbei, dass die hochfrequenten Anteile des thermischen Rauschens durch die Unterabtastung in das Basisband zurückgefaltet werden und so den Signal/Rauschabstand verschlechtern. Durch den Einsatz einer rauscharmen Sensorelektronik und der Optimierung der Messbrückenparameter konnte dieser Nachteil streckenweise wieder kompensiert werden. Aufgrund der geringen Kapazitäten von kapazitiven Sensoren spielt der Einfluss von parasitären Effekten eine besonders große Rolle und muss daher vermieden werden. Als Gegenmaßnahmen wurde neben einem kapazitätsarmen Aufbau der Schaltung die Guardtechnik zur Unterdrückung parasitärerer Kapazitäten eingesetzt. Die aktive Abschirmung der empfindlichen signalführenden Leitungen auf Leiterplatte, Sensor und Anschlusskabel bietet einen wirksamen Schutz gegen den negativen Einfluss parasitäre Kapazitäten. Der Einfluss dieser aktiven Schaltung hinsichtlich des Rauschen und des Verstärkungsfehlers auf die Performance des Messsystems wurde bewertet. Anhand von Modellen wurden der Verstärkungsfehler und die Rauschspannung quantifiziert. Neben diesen zentralen Störgrößen wurde weiter der Einfluss der Temperatur untersucht und quantifiziert Das verstärkte Messsignal wird durch einen schnellen AD-Wandler in einen digitalen Datenstrom umgesetzt. Obwohl die Datenrate des Messsystems durch Unterabtastung deutlich gesenkt werden konnte, fällt dennoch eine recht große weiterzuverarbeitende Datenmenge von einigen Megabyte pro Sekunde an, die auf einen PC gespeichert wird. Damit eine fehlerfreie Datenübertragung an den PC erfolgen kann ist eine Zwischenspeicherung der gewonnenen Daten in einem Puffer notwendig. Die Zwischenspeicherung erfolgt mit einem insgesamt 12k-Byte großen und 16 Bit breiten Fifo-Speicher, der zusammen mit der AD-Wandlerelektronik auf einer Platine untergebracht werden konnte. Diese Elektronik ist neben der Sensorelektronik und der Signalerzeugung für die Trägerfrequenz ein zentraler Bestandteil des Prototyps. Der Prototyp wird durch einen handels-üblichen PC angesteuert. Der Aufbau des gesamten Messsystems und die abschließenden Untersuchungen erfolgten auf einer Ultrapräzisionsdrehmaschine. Diese Maschine bot aufgrund ihrer bekannten mechanischen Eigenschaften eine präzise Grundlage für die Untersuchungen am Messsystem. Hierbei zeigte sich, dass neben den deterministischen Störgrößen eine Vielzahl von weiteren unvorhersehbaren Störungen negativen Einfluss auf die Gesamtperformance des Messsystems nehmen kann. Diese Störgrößen wie z.B. Netzstörungen konnten durch verschiedene Abschirmmaßnahmen deutlich verbessert werden. So enthielten die ersten Messungen deutliche Zeichen dieser Störanteile die nur unzureichend durch eine softwareseitige digitale Filterung unterdrückt werden konnten. Mit weiteren Messungen konnte dann die deutliche Abnahme des Störpegels verifiziert werden.
The topic of this thesis is the coupling of an atomistic and a coarse scale region in molecular dynamics simulations with the focus on the reflection of waves at the interface between the two scales and the velocity of waves in the coarse scale region for a non-equilibrium process. First, two models from the literature for such a coupling, the concurrent coupling of length scales and the bridging scales method are investigated for a one dimensional system with harmonic interaction. It turns out that the concurrent coupling of length scales method leads to the reflection of fine scale waves at the interface, while the bridging scales method gives an approximated system that is not energy conserving. The velocity of waves in the coarse scale region is in both models not correct. To circumvent this problems, we present a coupling based on the displacement splitting of the bridging scales method together with choosing appropriate variables in orthogonal subspaces. This coupling allows the derivation of evolution equations of fine and coarse scale degrees of freedom together with a reflectionless boundary condition at the interface directly from the Lagrangian of the system. This leads to an energy conserving approximated system with a clear separation between modeling errors an errors due to the numerical solution. Possible approximations in the Lagrangian and the numerical computation of the memory integral and other numerical errors are discussed. We further present a method to choose the interpolation from coarse to atomistic scale in such a way, that the fine scale degrees of freedom in the coarse scale region can be neglected. The interpolation weights are computed by comparing the dispersion relations of the coarse scale equations and the fully atomistic system. With this new interpolation weights, the number of degrees of freedom can be drastically reduced without creating an error in the velocity of the waves in the coarse scale region. We give an alternative derivation of the new coupling with the Mori-Zwanzig projection operator formalism, and explain how the method can be extended to non-zero temperature simulations. For the comparison of the results of the approximated with the fully atomistic system, we use a local stress tensor and the energy in the atomistic region. Examples for the numerical solution of the approximated system for harmonic potentials are given in one and two dimensions.