Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Has Fulltext
- yes (65)
Keywords
- CAFM (2)
- Cobalt (2)
- Eisen (2)
- Facility Management (2)
- Gebäudeautomation (2)
- IR-MPD (2)
- Integration (2)
- Katalyse (2)
- Kopplung (2)
- Schnittstelle (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Mathematik (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (1)
Pflanzenkläranlagen (PKA) sind ein naturnahes Verfahren der Abwasserreinigung, das aufgrund seines im Vergleich zu technischen Kläranlagen geringen Wartungs- und Energieaufwands, der guten Einbindung in die Landschaft und der höheren Reinigungsleistung als konventionelle Teichkläranlagen vorwiegend im ländlichen Raum zum Einsatz kommt.
Gemäß den allgemein anerkannten Regeln der Technik beschränkt sich die Anwendung jedoch auf im Trennsystem entwässerte Einzugsgebiete und den Einsatz von fluviatilen Rundkornsanden als Filtersubstrat. Im Süden und Südwesten Deutschlands überwiegt allerdings das Mischsystem, sodass verfahrenstechnische Lösungen in der Abwasserreinigung die Mischkanalisation als Voraussetzung haben. Im Zuge der Umsetzung der EU-Wasserrahmenrichtlinie (EU-WRRL) sind Immissionsbetrachtungen im Hinblick auf den guten chemischen Zustand des Gewässers als Grundlage für den guten ökologischen Zustand erforderlich. Dezentrale Kläranlagen an abflussschwachen Gewässern müssen häufig verschärfte Anforderungen an den Ablauf, insbesondere im Hinblick auf die Nitrifikationsleistung, einhalten. Ziel dieser Arbeit ist die Überprüfung der Eignung von Pflanzenkläranlagen im Mischsystem im Allgemeinen und von Lavasand als Filtersubstrat im Besonderen zur Erfüllung dieser Anforderungen.
Der für Lavasand-Anlagen entwickelte Bemessungsansatz des Entsorgungsverbandes Saar (EVS) sowie die zugehörigen Planungs- und Betriebsvorgaben wurden im großtechnischen Maßstab an zehn kommunalen Kläranlagen mit Ausbaugrößen von 70 bis 600 EW überprüft. Neben einer reinen Verifizierung des Konzepts im Sinne eines Nachweises der Reinigungsleistung wurde versucht, auf der Kläranlage Büschdorf die Belastungsgrenzen des Systems und insbesondere der alternierend und intermittierend betriebenen Hauptbodenfilter (HBF) zu ermitteln. Ergebnis dieser Untersuchungen auf der Kläranlage Büschdorf war, dass der dort als Filtersubstrat eingesetzte Lavasand über ein Jahr mit maximalen hydraulischen Flächenbelastungen von mehr als 220 l/(m2*d) beaufschlagt werden kann, ohne dass es zu Kolmationserscheinungen oder einem Einbruch der Reinigungsleistung kommt.
Darüber hinaus wurde die Leistungsfähigkeit von Lavasanden aus verschiedenen Steinbrüchen mit unterschiedlichen Eigenschaften auf der Kläranlage Riesweiler untersucht. Es zeigte sich, dass das Filtermaterial mit der größten Porosität, der größten spezifischen Oberfläche, der geringsten Durchlässigkeit und der höchsten Kationenaustauschkapazität die besten Ergebnisse im Hinblick auf die Elimination von Kohlenstoff- und Phosphorverbindungen sowie Ammoniumstickstoff erzielt. Im Zusammenhang mit dem CSB-Abbau und der Nitrifikationsleistung sind aerobe Verhältnisse im Filterkörper notwendig, was durch einen intermittierenden Betrieb der Bodenfilter sichergestellt wird. Dieser Sachverhalt wurde mit Redoxpotenzialmessungen und Beprobungen von Versuchsphasen mit dem Filter im Normal- und Einstaubetrieb nachgewiesen. Gemäß den Ergebnissen dieser Arbeit sind Lavasande als Filtersubstrat im Vergleich zu fluviatilen Rundkornsanden bei höherer hydraulischer Belastung, insbesondere bezogen auf den Ammoniumstickstoffabbau, leistungsfähiger.
Zusammenfassend ist festzustellen, dass substrateigenschaftsabhängige Bemessungs-vorgaben notwendig und sinnvoll sind. Hier besteht weiterer Forschungsbedarf.
Ein werkstoffgerechter und wirtschaftlicher Einsatz von ultrahochfestem Beton (UHPC) erfordert hybride Konstruktionen mit minimierten Querschnitten. Hierfür bieten sich Verbundträger, bestehend aus Stahlprofilen geringer Blechdicke und Betongurten von wenigen Zentimetern Plattenstärke an, deren Einsatzgebiet im Hochbau als filigrane Fassadenplatten oder tragende Hohlwände mit integrierter Haustechnik liegen kann. Besonderes Augenmerk ist bei derartigen Verbundkonstruktionen auf die Ausbildung und die Leistungsfähigkeit der Verbundfuge zu legen. Aufgrund der reduzierten Betongurtdicke ist eine Anwendung von konventionellen Verbundmitteln nicht möglich. Daher wurde ein neuartiges Verbundmittel durch das Anordnen von rechteckförmigen Stahlzähnen an der Blechoberkante entwickelt, welche an ihrer Spitze um 90° verdreht werden. Die Trag- und Verformungsfähigkeit dieser sogenannten "Stahlschare" wurde in dem von der DFG geförderten Projekt Schn 771/5-1 im Zuge des DFG-Schwerpunktprogramms SPP 1182 untersucht und ist Gegenstand der vorliegenden Arbeit.
Der Verdrehvorgang und die daraus resultierenden Dehnungen wurden mittels einer optischen Messung sowie FE-Simulation analysiert und zur weiteren Beurteilung der Längsschubtragfähigkeit herangezogen. Hierfür wurden 6 Push-out-Versuchsserien mit 38 Einzelversuchen mit verschiedenen Parametervariationen durchgeführt und ausgewertet. Zusammen mit den Ergebnissen von entsprechenden FE-Modellen und theoretischen Überlegungen wurde ein Bemessungskonzept für Längsschub entwickelt. Dieses beinhaltet die Versagensarten Längsaufreißen des Betongurts, Betonausbruch sowie Stahlversagen durch Abscheren der Schare. Die vorgeschlagenen Widerstandsmodelle wurden zudem einer statistischen Auswertung gemäß Eurocode 0 unterzogen. Abschließend wurde das Zugtragverhalten in Pull-out-Versuchen sowie das Verhalten in großmaßstäblichen Verbundträgern mit unterschiedlichen Verdübelungsgraden geprüft.
Data integration aims at providing uniform access to heterogeneous data, managed by distributed source systems. Data sources can range from legacy systems, databases, and enterprise applications to web-scale data management systems. The materialized approach to data integration, extracts data from the sources, transforms and consolidates the data, and loads it into an integration system, where it is persistently stored and can be queried and analyzed.
To support materialized data integration, so called Extract-Transform-Load (ETL) systems have been built and are widely used to populate data warehouses today. While ETL is considered state-of-the-art in enterprise data warehousing, a new paradigm known as MapReduce has recently gained popularity for web-scale data transformations, such as web indexing or page rank computation.
The input data of both, ETL and MapReduce programs keeps changing over time, while business transactions are processed or the web is crawled, for instance. Hence, the results of ETL and MapReduce programs get stale and need to be recomputed from time to time. Recurrent computations over changing input data can be performed in two ways. The result may either be recomputed from scratch or recomputed in an incremental fashion. The idea behind the latter approach is to update the existing result in response to incremental changes in the input data. This is typically more efficient than the full recomputation approach, because reprocessing unchanged portions of the input data can often be avoided.
Incremental recomputation techniques have been studied by the database research community mainly in the context of the maintenance of materialized views and have been adopted by all major commercial database systems today. However, neither today's ETL tools nor MapReduce support incremental recomputation techniques. The situation of ETL and MapReduce programmers nowadays is thus much comparable to the situation of database programmers in the early 1990s. This thesis makes an effort to transfer incremental recomputation techniques into the ETL and MapReduce environments. This poses interesting research challenges, because these environments differ fundamentally from the relational world with regard to query and programming models, change data capture, transactional guarantees and consistency models. However, as this thesis will show, incremental recomputations are feasible in ETL and MapReduce and may lead to considerable efficiency improvements.
Hydrogels are known to be covalently or ionic cross-linked, hydrophilic three-dimensional
polymer networks, which exist in our bodies in a biological gel form such as the vitreous
humour that fills the interior of the eyes. Poly(N-isopropylacrylamide) (poly(NIPAAm))
hydrogels are attracting more interest in biomedical applications because, besides others, they
exhibit a well-defined lower critical solution temperature (LCST) in water, around 31–34°C,
which is close to the body temperature. This is considered to be of great interest in drug
delivery, cell encapsulation, and tissue engineering applications. In this work, the
poly(NIPAAm) hydrogel is synthesized by free radical polymerization. Hydrogel properties
and the dimensional changes accompanied with the volume phase transition of the
thermosensitive poly(NIPAAm) hydrogel were investigated in terms of Raman spectra,
swelling ratio, and hydration. The thermal swelling/deswelling changes that occur at different
equilibrium temperatures and different solutions (phenol, ethanol, propanol, and sodium
chloride) based on Raman spectrum were investigated. In addition, Raman spectroscopy has
been employed to evaluate the diffusion aspects of bovine serum albumin (BSA) and phenol
through the poly(NIPAAm) network. The determination of the mutual diffusion coefficient,
\(D_{mut}\) for hydrogels/solvent system was achieved successfully using Raman spectroscopy at
different solute concentrations. Moreover, the mechanical properties of the hydrogel, which
were investigated by uniaxial compression tests, were used to characterize the hydrogel and to
determine the collective diffusion coefficient through the hydrogel. The solute release coupled
with shrinking of the hydrogel particles was modelled with a bi-dimensional diffusion model
with moving boundary conditions. The influence of the variable diffusion coefficient is
observed and leads to a better description of the kinetic curve in the case of important
deformation around the LCST. A good accordance between experimental and calculated data
was obtained.
Palladium-Catalyzed C–C Bond Formations via Activation of Carboxylic Acids and Their Derivatives
(2013)
Applications of carboxylic acids and their derivatives in transition metal-catalyzed cross-coupling reactions regio-selectively forming Csp3-Csp2, and Csp2-Csp2 bonds were explored in this thesis. Several important organic building blocks such as aryl acetates, diaryl acetates, imines, ketones, biaryls, styrenes and polysubstituted alkenes were successfully accessed from carboxylic acids and their derivatives by the means of C–H activation and decarboxylative cross-couplings.
An efficient and practical protocol for the synthesis of biologically important ethyl 2-arylacates through the dealkoxycarbonlative cross-coupling reaction between aryl halides and malonates was developed. Activation of the alpha-proton of alkyl esters by a copper catalyst allowed the deprotonation of esters even in the presence of mild bases, leading to a straightforward and efficient approach to alkyl alpha-diarylacetate from simple alkyl acetates and aryl halides.
The addition of a primary amine into the coupling reaction of alpha-oxocarboxylic acids and aryl halides led to an unprecedented low-temperature redox-neutral decarboxylative coupling process, providing a green and efficient method for the preparation of azomethines, in which all the three substituents can be independently varied. A minor modification of this protocol allowed us to easily access the corresponding ketones.
The decarboxylative coupling of robust aryl mesylates as well as polysubstituted alkenyl mesylates using our customized imidazolyl phosphine ligands was realized, further expanding the scope of carbon electrophiles in decarboxylative coupling reactions. Variation of the ligands led to two complementary protocols, providing the corresponding biaryls and polysubstituted olefins in high yields.
The use of a new class of pyrimidinyl phosphine ligands dramatically reduced the reaction temperatures of decarboxylative cross-coupling reactions between aromatic carboxylic acids and aryl or alkenyl triflates. The new catalyst system for the first time allowed the efficient decarboxylative biaryls synthesis at only 100 °C, representing a significant achievement in redox-neutral decarboxylative coupling reactions.
There is growing international concern about the necessity to re-think the university so that it might remain relevant in a modern society. In the traditional task division at universities, knowledge is the main resource. Universities make use of both the cognitive and the informational approach. It was expected that universities use each approach to improve overall university performance. To effectively use the informational approach, universities should apply the tools from knowledge management. To effectively use the cognitive approach, universities must update their teaching-learning strategies to incorporate some of the recent advances in neuroscience and biology of knowledge, specifically from neurobiology and autopoiesis. With this frame, the main contribution of this work is the result of merging pedagogy and biology, towards an ideal future university. This goal was achieved through an exploratory study conducted to identify opportunities and difficulties in improving the teaching-learning process for the future of higher education in Honduras. The Delphi Study was used as a predictive method. Nineteen Honduran experts participated in this study, and two rounds were necessary to achieve consensus.
The multi-disciplinary approach of this research addresses three different fields whose core element is knowledge. First, input from the present field of higher education is used to speak about the future. Second, input is taken from the biology of knowledge, and its contributions from neurobiology and autopoiesis that allow modifying and completing the already existing learning theories with a biological basis. Third, input is taken from the knowledge process, which is traditionally used as an organizational tool and know is translated to the individual level. The exploration shows that experts are concerned about all the missions and responsibilities of universities, but they agree that changes should primarily take place in the teaching dimension. Even though they are not aware of the possible contributions of biology, they suggest new forms of teaching that more favor skills development, promotes values, pertinent knowledge, and personal development over short-term contents. The resulting BRAIN Model encompasses the ideal future of higher education regarding teaching and learning, according to experts’ answers. It provides a useful guide that any reform in teaching should take into account for a holistic, integral, and therefore more efficient learning task.
Fluid extraction is a typical chemical process where two types of fluids are mixed together. The high complexity of this process which involves droplet coalescence, breakup, mass transfer, and counter-current flow often makes design difficult. The industrial design of these processes is still based on expensive mini-plant and pilot plant experiments. Therefore, there is a strong need for research into the stimulation of fluid-fluid interaction processes using computational fluid dynamics (CFD).
Previous multi-phase fluid simulations have focused on the development of models that couple mass and momentum using the Navier-Stokes equation. Recent population balance models (PBM) have proved to be important methods for analyzing droplet breakage and collisions. A combination of CFD and PBM facilitates the simulation of flow property by solving coupling equations, and the calculation of the droplet size and numbers. In our study, we successfully coupled an Euler-Euler CFD model with the breakup and coalescence models proposed by Luo and Svendsen (59).
The simulation output of extraction columns provides a mathematical understand- ing of how fluids are mixed inside a mixing device. This mixing process shows that the dispersed phase of a flow generates large blobs and bubbles. Current mathemati- cal simulation results often fail to provide an intuitive representation of how well two different types of fluid interact, so intuitive and physically plausible visualization tech- niques are in high demand to help chemical engineers to explore and analyze bubble column simulation data. In chapter 3, we present the visualization tools we developed for extraction column data.
Fluid interfaces and free surfaces are topics of growing interest in the field of multi- phase computational fluid dynamics. However, the analysis of the flow field relative to the material interface shape and topology is a challenging task. In chapter 5, we present a technique that facilitates the visualization and analysis of complex material interface behaviors over time. To achieve this, we track the surface parameterization of time-varying material interfaces and identify locations where there are interactions between the material interfaces and fluid particles. Splatting and surface visualization techniques produce an intuitive representation of the derived interface stability. Our results demonstrate that the interaction of a flow field with a material interface can be understood using appropriate extraction and visualization techniques, and that our techniques can help the analysis of mixing and material interface consistency.
In addition to texture-based methods for surface analysis, the interface of two- phase fluid can be considered as an implicit function of the density or volume fraction values. High-level visualization techniques such as topology-based methods can re- veal the hidden structure underlying simple simulation data, which will enhance and advance our understanding of multi-fluid simulation data. Recent feature-based vi- sualization approaches have explored the possibility of using Reeb graphs to analyze scalar field topologies(19, 107). In chapter 6, we present a novel interpolation scheme for interpolating point-based volume fraction data and we further explore the implicit fluid interface using a topology-based method.
Efficient time integration and nonlinear model reduction for incompressible hyperelastic materials
(2013)
This thesis deals with the time integration and nonlinear model reduction of nearly incompressible materials that have been discretized in space by mixed finite elements. We analyze the structure of the equations of motion and show that a differential-algebraic system of index 1 with a singular perturbation term needs to be solved. In the limit case the index may jump to index 3 and thus renders the time integration into a difficult problem. For the time integration we apply Rosenbrock methods and study their convergence behavior for a test problem, which highlights the importance of the well-known Scholz conditions for this problem class. Numerical tests demonstrate that such linear-implicit methods are an attractive alternative to established time integration methods in structural dynamics. In the second part we combine the simulation of nonlinear materials with a model reduction step. We use the method of proper orthogonal decomposition and apply it to the discretized system of second order. For a nonlinear model reduction to be efficient we approximate the nonlinearity by following the lookup approach. In a practical example we show that large CPU time savings can achieved. This work is in order to prepare the ground for including such finite element structures as components in complex vehicle dynamics applications.
Das Zwei-Komponenten System CiaRH beeinflusst mit der β-Lactamresistenz, Kompetenz, Autolyse, Bakteriocinproduktion und Virulenz eine Vielzahl an Phänotypen in Streptococcus pneumoniae und ist daher von großer physiologischer Bedeutung. Es setzt sich aus der membrangebundenen Sensorkinase CiaH und dem cytoplasmatisch lokalisierten Response Regulator CiaR zusammen. Das CiaRH System ist unter sehr vielen Wachstumsbedingungen aktiv. CiaH ist allerdings für die Aktivierung von CiaR unter bestimmten Bedingungen verzichtbar. CiaR ist jedoch in seiner phosphorylierten Form aktiv, was die Frage nach einer alternativen Phosphatquelle für CiaR aufwirft. Der sog. Crosstalk durch eine fremde Sensorkinase oder niedermolekulare Phosphodonoren wie Acetylphosphat stellen mögliche Wege zur alternativen Phosphorylierung von CiaR dar.
Um zwischen diesen Möglichkeiten zu unterscheiden, wurden Gene des Acetylphosphat-Stoffwechsels inaktiviert, was zu einer Änderung der Produktion von Acetylphosphat führen sollte. Anschließende Messungen der zellulären Acetylphosphatmenge und der CiaR-abhängigen Promotoraktivitäten in Abwesenheit der Sensorkinase CiaH zeigten klar, dass mit sinkendem Acetylphosphat auch die CiaR-vermittelte Genexpression reduziert wurde. Diese Korrelation legt den Schluss nahe, dass Acetylphosphat tatsächlich den wesentlichen alternativen Phosphodonor für CiaR darstellt. Allerdings wurden auch Hinweise für geringfügigen Crosstalk durch eine andere Sensorkinase erhalten. Im Zuge dieser Experimente ergab sich weiterhin, dass ein Enzym des Acetylphosphat-Stoffwechsels, die Acetatkinase, eine besondere Rolle bei der alternativen Phosphorylierung von CiaR spielt. Eine Reihe von Befunden legt den Schluss nahe, dass Acetatkinase und CiaR möglicherweise interagieren. Eine solche regulatorische Rolle der Acetatkinase ist bisher nicht beschrieben.
Weiterhin konnte gezeigt werden, dass die CiaR-Aktivität durch die Bifunktionalität von CiaH auf nahezu konstantem Niveau gehalten wird. Dabei kann wahrscheinlich Acetat, ein exkretiertes Endprodukt des Acetylphosphat-Stoffwechsels, zur Stimulierung der Phosphataseaktivität von CiaH dienen. Dies könnte von physiologischer Bedeutung sein, um eine von Acetylphosphat ausgehende Phosphorylierung von CiaR durch Acetat im Medium durch Dephosphorylierung zu begrenzen. Somit könnten Acetylphosphat und Acetat Gegenspieler zur Regulation der CiaR-Aktivität darstellen.
Ein einem zweiten Teil dieser Arbeit wurde auf die Auswirkungen von Mutationen in CiaH auf die CiaR-Aktivität eingegangen. Das CiaRH-System wurde als erste Nicht-PBP-Resistenzdeteminante in β-lactamresistenten Labormutanten von S. pneumoniae R6 entdeckt, wobei eine Mutation im Sensorkinasegen ciaH (ciaH306, T230P) eine Erhöhung der CiaR-abhängigen Genexpression vermittelte. Weitere ciaH-Mutationen wurden in anderen spontanresistenten Labormutanten beschrieben. Die Laborallele vermitteln eine Steigerung der CiaR-abhängigen Promotoraktivität zwischen vier- und 26-fach. Phänotypische Folgen sind die Verringerung der β-Lactamsuszeptibilität, der Verlust der Kompetenz und verändertes Wachstum von S. pneumoniae R6.
Im Zuge dieser Arbeit wurden zum ersten Mal veränderte ciaH-Allele in klinischen Pneumokokken-Isolaten identifiziert und charakterisiert. Es zeigte sich eine Verbreitung in Isolaten der Serotypen 6, 7, 9, 19 und 23. Im Gegensatz zu den Laborallelen vermitteln die klinischen Allele eine bis zu dreifache Erhöhung der CiaR-abhängigen Promotoraktivität. Lediglich das Allel ciaHTpVT beeinflusst die Phänotypen β-Lactamresistenz und Kompetenz. Weiterhin erfolgte die Charakterisierung der Kinase- und Phosphataseaktivitäten der klinischen ciaH-Allele. Hierbei zeigten sich Abweichungen der Stärken beider Funktionen, wobei für ciaH306 ein Phosphatasedefekt festgestellt wurde.
This thesis is separated into three main parts: Development of Gaussian and White Noise Analysis, Hamiltonian Path Integrals as White Noise Distributions, Numerical methods for polymers driven by fractional Brownian motion.
Throughout this thesis the Donsker's delta function plays a key role. We investigate this generalized function also in Chapter 2. Moreover we show by giving a counterexample, that the general definition for complex kernels is not true.
In Chapter 3 we take a closer look to generalized Gauss kernels and generalize these concepts to the case of vector-valued White Noise. These results are the basis for Hamiltonian path integrals of quadratic type. The core result of this chapter gives conditions under which pointwise products of generalized Gauss kernels and certain Hida distributions have a mathematical rigorous meaning as distributions in the Hida space.
In Chapter 4 we discuss operators which are related to applications for Feynman Integrals as differential operators, scaling, translation and projection. We show the relation of these operators to differential operators, which leads to the well-known notion of so called convolution operators. We generalize the central homomorphy theorem to regular generalized functions.
We generalize the concept of complex scaling to scaling with bounded operators and discuss the relation to generalized Radon-Nikodym derivatives. With the help of this we consider products of generalized functions in chapter 5. We show that the projection operator from the Wick formula for products with Donsker's deltais not closable on the square-integrable functions..
In Chapter 5 we discuss products of generalized functions. Moreover the Wick formula is revisited. We investigate under which conditions and on which spaces the Wick formula can be generalized to. At the end of the chapter we consider the products of Donsker's delta function with a generalized function with help of a measure transformation. Here also problems as measurability are concerned.
In Chapter 6 we characterize Hamiltonian path integrands for the free particle, the harmonic oscillator and the charged particle in a constant magnetic field as Hida distributions. This is done in terms of the T-transform and with the help of the results from chapter 3. For the free particle and the harmonic oscillator we also investigate the momentum space propagators. At the same time, the $T$-transform of the constructed Feynman integrands provides us with their generating functional. In Chapter 7, we can show that the generalized expectation (generating functional at zero) gives the Greens function to the corresponding Schrödinger equation.
Moreover, with help of the generating functional we can show that the canonical commutation relations for the free particle and the harmonic oscillator in phase space are fulfilled. This confirms on a mathematical rigorous level the heuristics developed by Feynman and Hibbs.
In Chapter 8 we give an outlook, how the scaling approach which is successfully applied in the Feynman integral setting can be transferred to the phase space setting. We give a mathematical rigorous meaning to an analogue construction to the scaled Feynman-Kac kernel. It is open if the expression solves the Schrödinger equation. At least for quadratic potentials we can get the right physics.
In the last chapter, we focus on the numerical analysis of polymer chains driven by fractional Brownian motion. Instead of complicated lattice algorithms, our discretization is based on the correlation matrix. Using fBm one can achieve a long-range dependence of the interaction of the monomers inside a polymer chain. Here a Metropolis algorithm is used to create the paths of a polymer driven by fBm taking the excluded volume effect in account.