Refine
Year of publication
- 2013 (65) (remove)
Document Type
- Doctoral Thesis (65) (remove)
Has Fulltext
- yes (65)
Keywords
- CAFM (2)
- Cobalt (2)
- Eisen (2)
- Facility Management (2)
- Gebäudeautomation (2)
- IR-MPD (2)
- Integration (2)
- Katalyse (2)
- Kopplung (2)
- Schnittstelle (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (13)
- Kaiserslautern - Fachbereich Mathematik (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (11)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Sozialwissenschaften (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (1)
Lithiumphenylacetylid führte zu einem Halbsandwichkomplex unter Austausch der beiden verbrückenden Bromide gegen Phenylacetylide. Diese neue Halbsandwichverbindung wurde mit Röntgenabsorptionsspektroskopie untersucht und charakterisiert.
Um substituierte Cyclopentadienylliganden anhand ihrer Sperrigkeit charakterisieren zu können, wurden als Maß für den sterischen Anspruch die beiden Kegelwinkel Θ und Ω in Anlehnung an Tolman eingeführt. Als Modellsystem wurden in einer Zusammenarbeit mit der Arbeitsgruppe von Tamm (TU Braunschweig) Cycloheptatrienyl-Zirconium-Komplexe des Typs \([(η^7-C_7H_7)Zr(C_5R_5)]\) ausgewählt, da diese die an ein Modellsystem gestellten Anforderungen erfüllen. Dadurch konnten etwa 20 neue Cycloheptatrienyl-Cyclopentadienyl-Zirconium-Komplexe erhalten werden, bei welchen anhand von Festkörperstrukturen oder DFT-Berechnungen der sterische Anspruch der substituierten Cyclopentadienylliganden ermittelt wurde.
Basierend auf sehr reaktiven Cyclopentadienyl-Eisen-σ-Arylkomplexen konnten zwei unterschiedliche Reaktionen untersucht werden. Zum einen wurde die von Wallasch beobachtete Oxidation von \(Cp'''Fe(II)(σ-Mes)\) \((Cp''' = C_5H_2tBu_3; Mes = C_6H_3-2,4,6-Me_3)\) mit \(PdCl_2\) zu dem neuartigen Komplex \(Cp'''Fe(III)(σ-Mes)Cl\) weiter untersucht, um diese Substanzklasse kennenzulernen. Dabei erwies sich Hexachlorethan als wesentlich günstigeres Oxidationsmittel, mit dessen Hilfe die Verbindungen \(^4CpFe(III)(σ-Mes)Cl,\) \(^4CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) und \(^5CpFe(III)(σ-C_6H_3-2,6-iPr_2)Cl\) synthetisiert und charakterisiert werden konnten.
Auch die von Weismann beobachtete σ/π-Umlagerungsreaktion von \(^5CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Trimethylaluminium zu \(^5CpFe(π-C_6H_3-2,6-iPr_2-AlMe_3)\) wurde näher untersucht. Dazu wurde \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlR_3\) (R = Me, Et, Pr) umgesetzt, um die entsprechenden Umlagerungsprodukte herzustellen. Diese konnten bei der Umsetzung mit \(AlMe_3\) auch erhalten werden, allerdings zeigten sich bei der Reaktion mit \(AlEt_3\) und \(AlPr_3\) unerwartete Reaktionsprodukte. Durch einen Bromid-Alkyl-Austausch wurden die Komplexe \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlEt_2Br)\) und \(^4CpFe(π-C_6H_3-2,6-iPr_2-AlPr_2Br)\) gebildet. Zusätzlich konnten bei der Umlagerung mit \(AlEt_3\) vier weitere Neben- bzw. Folgeprodukte beobachtet werden. Eines der Folgeprodukte ist der Butinkomplex \((^4CpFe)_2(μ,η^2:η^2-but-2-in)\), der vermutlich durch eine Kupplung zweier Ethylgruppen und Dehydrierung gebildet wird. Reaktionen von \([^4CpFe(μ-Br)]_2\) oder \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit Ethylmagnesiumbromid ergaben den gleichen Komplex. Für die Entstehung der unterschiedlichen Produkte bei der Reaktion von \(^4CpFe(σ-C_6H_3-2,6-iPr_2)\) mit \(AlEt_3\) wurde ein Mechanismus entwickelt und dieser anhand der gewonnenen Erkenntnisse belegt.
Sphärische keramische Nanopartikel können die Eigenschaften von Thermoplasten
signifikant positiv verändern. Eine gute Dispersität von Nanopartikeln in einer polymeren
Matrix ermöglicht z.B. eine außergewöhnliche Steigerung der Zähigkeit. Allerdings
neigen die Nanoadditive wegen ihrer großen spezifischen Oberfläche zur Agglomeration,
was der Verbesserung der Eigenschaften entgegenwirkt. Dies stellt eine der
größten Herausforderungen der Nanokompositforschung dar. Da industriell hergestellte
Nanokomposite von steigendem Interesse für vielerlei Anwendungen sind, ist es
ingenieurwissenschaftlich relevant, Prozess-Struktur-Eigenschaftsbeziehungen von Nanokompositen
mit kommerziell erhältlichen Nanopartikeln genauer zu verstehen. Dies
erlaubt eine gezielte Steuerung bzw. Einstellung der Materialeigenschaften.
In den bisherigen wissenschaftlichen Arbeiten zu thermoplastischen Nanokompositen
mit sphärischen keramischen Nanofüllstoffen ist die Dispersität der Nanokomposite
nicht hinreichend gut quantifiziert worden, was zur Folge hat, dass verschiedene Herstellungsmethoden
nicht miteinander verglichen werden können. Diese Arbeit zielt darauf
ab, thermoplastische Polyamid 6-Nanoverbundwerkstoffe mit guter Dispersität mittels
Extrusion herzustellen und zu untersuchen. Dabei werden drei Herstellungsmethoden
und die dabei erreichten Dispersionsqualitäten und Eigenschaftsprofile betrachtet. Dafür
werden Verbundwerkstoffe aus einer PA6-Matrix und keramischen Nanofüllstoffen (TiO2,
SiO2, BaSO4) - als Pulver oder als Nanopartikeldispersion - generiert. Die erzeugten
Komposite werden mit TEM-, REM- und μ-CT-Analysen morphologisch analysiert. Die
Materialeigenschaften werden durch DSC-, DMTA-, GPC-, Viskositätsuntersuchungen
erfasst. Weiterhin werden Kerbschlagbiege- und Zugversuche durchgeführt.
In einem ersten Schritt wird eine häufig angewendete Herstellungsmethode untersucht,
bei der Nanopartikelpulver zum Extrusionsprozess zugegeben werden. Es ist
nicht möglich alle Agglomerate durch die Bearbeitung im Extruder aufzubrechen. Die
Agglomeratfestigkeit für die verwendeten Partikel wird aus den Verläufen der Dispersität
bei mehrfacher Extrusion erfolgreich bestimmt. Die Untersuchung der Vorgänge
bei der Deagglomeration anhand eines Modells zeigt, dass das Verhältnis zwischen
Agglomeratbruch und Erosion von einzelnen Partikeln von der Oberfläche des Agglomerates
für die Materialeigenschaften von maßgeblicher Bedeutung ist. Trotz sehr guter
Dispersionsqualität der TiO2-Komposite und einer guten Partikel-Matrix-Anbindung lassen
sich nur die Festigkeit und Steifigkeit steigern, während die Kerbschlagzähigkeit nicht erhöht ist. Die TiO2-Nanopartikel weisen eine relativ geringe Agglomeratfestigkeit
(0,1 MPa) auf, und die Erosion spielt neben Bruch eine wichtige Rolle im Deagglomerationsmechanismus,
weshalb für diese Partikel die Zugabe als Pulver zu empfehlen
ist. Restagglomerate führen jedoch zu Spannungskonzentrationen im Material, was
eine Zähigkeitssteigerung verhindert. SiO2-Nanopartikel dagegen können bei den in
dieser Arbeit gewonnenen Erkenntnissen nicht als Füllstoffe empfohlen werden. Ihre
Agglomerate weisen eine so hohe Festigkeit auf, dass diese überwiegend zerbrechen.
BaSO4 sollte als Pulver nicht verwendet werden, denn es kann mittels Extrusion kaum
dispergiert werden.
In der zweiten Bearbeitungsphase werden die Materialeigenschaften bei der Zugabe
der Nanopartikel als wässrige Dispersion untersucht. Dabei wird die Partikeldispersion
drucklos zugegeben; das Dispersionsmedium kann an der Zugabestelle direkt verdampfen.
Zusammengefasst ist festzustellen, dass Agglomeration an der Zugabestelle zu
verschlechterten mechanischen Eigenschaften führt.
Im dritten Schritt werden wässrige Nanopartikeldispersionen unter Druck in den Extruder
gepumpt, um zu erreichen, dass sich eine Mischung aus flüssiger Dispersion und Polymerschmelze
bildet. Dabei tritt zum einen Diffusion der Partikel in die Polymerschmelze
auf, zum anderen kommt es zu Tropfenverkleinerung durch die Scherspannung im
Extruder. Bei der theoretischen Untersuchung der Zerkleinerung der Dispersionstropfen
wird festgestellt, dass das Verhältnis der Viskositäten der zu mischenden Medien, deren
Oberflächenspannungen und die Scherspannung im Extruder den Vorgang bestimmen.
Die so ermittelte Größe der kleinsten Agglomerate liegt nicht im Nanometerbereich.
Infolge der geringen Mischdauer nach der Verdunstung des Dispergiermediums sind die
Agglomerate schlecht an die Matrix angebunden. Weiterhin bilden sich sehr kompakte
Agglomerate. Aufgrund dessen steigert sich der E-Modul des Nanokomposits kaum
bei einer gleichzeitig reduzierten Zähigkeit. Als Dispersion zugegeben diffundieren die
SiO2-Partikel kaum und es bilden sich relativ große Agglomerate. Da insbesondere bei
TiO2 und BaSO4 außergewöhnlich kleine Agglomerate (<100 nm) bzw. sogar Primärpartikel
gefunden werden, ist davon auszugehen, dass für diese beiden Nanoadditive
auch Diffusion von Bedeutung ist. Nanokomposite mit diesen Füllstoffen sollten über
die Methode der Zugabe von wässrigen Dispersionen unter Druck hergestellt werden.
Diese Arbeit bildet mit systematischen Untersuchungen von industriell relevanten Prozessen
zur Herstellung von Nanokompositen, den Mechanismen, die dabei ablaufen,
und den erzielbaren Materialmorphologien und Materialeigenschaften die Grundlage
für maßgeschneiderte Nanokomposite.
Tire-soil interaction is important for the performance of off-road vehicles and the soil compaction in the agricultural field. With an analytical model, which is integrated in multibody-simulation software, and a Finite Element model, the forces and moments generated on the tire-soil contact patch were studied to analyze the tire performance. Simulations with these two models for different tire operating conditions were performed to evaluate the mechanical behaviors of an excavator tire. For the FE model validation a single wheel tester connected to an excavator arm was designed. Field tests were carried out to examine the tire vertical stiffness, the contact pressure on the tire – hard ground interface, the longitudinal/vertical force and the compaction of the sandy clay from the test field under specified operating conditions. The simulation and experimental results were compared to evaluate the model quality. The Magic Formula was used to fit the curves of longitudinal and lateral forces. A simplified tire-soil interaction model based on the fitted Magic Formula could be established and further applied to the simulation of vehicle-soil interaction.
Recent progresses and advances in the field of consumer electronics, driven by display
technologies and also the sector of mobile, hand-held devices, enable new ways in
presenting information to users, as well as new ways of user interaction, therefore
providing a basis for user-centered applications and work environments.
My thesis focuses on how arbitrary display environments can be utilized to improve
both the user experience, regarding perception of information, and also to provide
intuitive interaction possibilities. On the one hand advances in display technologies
provide the basis for new ways of visualizing content and collaborative work, on the
other hand forward-pressing developments in the consumer market, especially the
market of smart phones, offer potential to enhance usability in terms of interaction
and therefore can provide additional benefit for users.
Tiled display setups, combining both large screen real estate and high resolution,
provide new possibilities and chances to visualize large datasets and to facilitate col-
laboration in front of a large screen area. Furthermore these display setups present
several advantages over the traditional single-user-workspace environments: con-
trary to single-user-workspaces, multiple users are able to explore a dataset displayed
on a tiled display system, at the same time, thus allowing new forms of collabora-
tive work. Based on that, face-to-face discussions are enabled, an additional value
is added. Large displays also allow the utilization of the user’s spatial memory, al-
lowing physical navigation without the need of switching between different windows
to explore information.
With Tiled++ I contributed a versatile approach to address the bezel problem. The
bezel problem is one of the Top Ten research challenges in the research field of LCD-
based tiled wall setups. By applying the Tiled++ approach a large high resolution
Focus & Context screen is created, combining high resolution focus areas with low
resolution context information, projected onto the bezel area.
Additionally the field of user interaction poses an important challenge, especially
regarding the utilization of large tiled displays, since traditional keyboard & mouse
interaction devices reached their limits. My focus in this thesis is on Mobile HCI.Devices like mobile phones are utilized to interact with large displays, since they
feature various interaction modalities and preserve user mobility.
Large public displays, as a modernized form of traditional bulletin boards, also en-
able new ways of handling information, displaying content, and user interaction.
Utilized in hot spots, Digital Interactive Public Pinboards can provide an adequate
answer to questions like how to approach pressing issues like disaster and crisis man-
agement for both responders as well as citizens and also new ways of how to handle
information flow (contribution & distribution & accession). My contribution to the
research field of public display environments was the conception and implementa-
tion of an easy-to-use and easy-to-set-up architecture to overcome shortcomings of
current approaches and to cover the needs of aid personnel.
Although being a niche, Virtual Reality (VR) environments can provide additional
value for visualizing specific content. Disciplines like earth sciences & geology, me-
chanical engineering, design, and architecture can benefit from VR environments. In
order to consider the variety of users, I introduce a more intuitive and user friendly
interaction metaphor, the ARC metaphor.
Visualization challenges base on being able to cope with more and more complex
datasets and to bridge the gap between comprehensibility and loss of information.
Furthermore the visualization approach has to be reasonable, which is a crucial
factor when working in interdisciplinary teams, where the standard of knowledge
is diverse. Users have to be able to conceive the visualized content in a fast and
reliable way. My contribution are visualization approaches in the field of supportive
visualization.
Finally, my work illuminates how the synthesis of visualization, interaction and dis-
play technologies enhance the user experience. I promote a holistic view. The user
is brought back into the focus of attention, provided with a tool-set to support him,
without overextending the abilities of, for example, non-expert users, a crucial factor
in the more and more interdisciplinary field of computer science.
An huge amount of computational models and programming languages have been proposed
for the description of embedded systems. In contrast to traditional sequential programming
languages, they cope directly with the requirements for embedded systems: direct support for
concurrent computations and periodic interaction with the environment are only some of the
features they offer. Synchronous languages are one class of languages for the development of
embedded systems and they follow the fundamental principle that the execution is divided into
a sequence of logical steps. Thereby, each step follows the simplification that the computation
of the outputs is finished directly when the inputs are available. This rigorous abstraction leads
to well-defined deterministic parallel composition in general, and to deterministic abortion
and suspension in imperative synchronous languages in particular. These key features also
allow to translate programs to hardware and software, and also formal verification techniques
like model checking can be easily applied.
Besides the advantages of imperative synchronous languages, also some drawbacks can
be listed. Over-synchronization is an effect being caused by parallel threads which have to
synchronize for each execution step, even if they do not communicate, since the synchronization
is implicitly forced by the control-flow. This thesis considers the idea of clock refinement to
introduce several abstraction layers for communication and synchronization in addition to the
existing single-clock abstraction. Thereby, clocks can be refined by several independent clocks
so that a controlled amount of asynchrony between subsequent synchronization points can be
exploited by compilers. The declarations of clocks form a tree, and clocks can be defined within
the threads of the parallel statement, which allows one to do independent computations based
on these clocks without synchronizing the threads. However, the synchronous abstraction is
kept at each level of the abstraction.
Clock refinement is introduced in this thesis as an extension to the imperative synchronous
language Quartz. Therefore, new program statements are introduced which allow to define
a new clock as a refinement of an existing one and to finish a step based on a certain clock.
Examples are considered to show the impact of the behavior of the new statements to
the already existing statements, before the semantics of this extension is formally defined.
Furthermore, the thesis presents a compile algorithm to translate programs to an intermediate
format, and to translate the intermediate format to a hardware description. The advantages
obtained by the new modeling feature are finally evaluated based on examples.
Aim of this work was the extension and development of a coupled Computational Fluid Dynamics (CFD) and population balance model (PBM) solver to enable a simulation aided design of stirred liquid-liquid extraction columns. The principle idea is to develop a new design methodology based on a CFD-PBM approach and verify it with existing data and correlations. On this basis, the separation performance in any apparatus geometry should be possible to predict without any experimental input. Reliable “experiments in silico” (computer calculations) should give the engineer a valuable and user-friendly tool for early design studies at minimal costs.
The layout of extraction columns is currently based on experimental investigations from miniplant to pilot plant and a scale-up to the industrial scale. The hydrodynamic properties can be varied by geometrical adjustments of the stirrer diameter, the stirrer height, the free cross sectional area of the stator, the compartment height as well as the positioning and the size of additional baffles. The key parameter for the liquid–liquid extraction is the yield which is mainly determined at the in- and outlets of the column. Local phenomena as the swirl structure are influenced by geometry changes. However, these local phenomena are generally neglected in state-of-the are design methodologies due to the complex required measurement techniques. A geometrical optimization of the column therefore still results in costs for validation experiments as assembly and operation of the column, which can be reduced by numerical investigations. The still mainly in academics used simulation based layout of counter-current extraction columns is based at the beginning of this work on one dimensional simulations of extraction columns and first three dimensional simulations. The one dimensional simulations are based on experimental derived, geometrical dependent correlations for the axial backmixing (axial dispersion), the hold-up, the phase fraction, the droplet sedimentation and the energy dissipation. A combination of these models with droplet population balance modeling resulted in a description of the complex droplet-droplet interactions (droplet size) along the column height. The three dimensional CFD simulations give local information about the flow field (velocity, swirl structure) based on the used numerical mesh corresponding to the real geometry. A coupling of CFD with population balance modeling further provides information about the local droplet size. A backcoupling of the droplet size with the CFD (drag model) results in an enhancement of the local hydrodynamics (e.g. hold-up, dispersed phase velocity). CFD provided local information about the axial dispersion coefficient of simple geometrical design (e.g. Rotating Disc Contactor (RDC) column). First simulations of the RDC column using a two dimensional rotational geometry combined with population balance modeling were performed and gave local information about the droplet size for different boundary conditions (rotational speed, different column sizes).
In this work, two different column types were simulated using an extended OpenSource CFD code. The first was the RDC column, which were mainly used for code development due to its simple geometry. The Kühni DN32 column is equipped with a six-baffled stirring device and flat baffles for disturbing the flow and requires a full three dimensional description. This column type was mainly used for experimental validation of the simulations due to the low required volumetric flow rate. The Kühni DN60 column is similar to the Kühni DN32 column with slight changes to the stirring device (4-baffles) and was used for scale up investigations. For the experimental validation of the hydrodynamics, laser based measurement techniques as Particle Image Velocimetry (PIV) and Laser Induced Fluorescence (LIF) were used. A good agreement between the experimental derived values for velocity, hold-up and energy dissipation, experimentally derived correlations from literature and the simulations with a modified Euler-Euler based OpenSource CFD code could be found. The experimental derived axial dispersion coefficient was further compared to Euler-Lagrange simulations. The experimental derived correlations for the Kühni DN32 in literature fit to the simulated values. Also the axial dispersion coefficient for the dispersed phase satisfied a correlation from literature. However, due to the complexity of the dispersed phase axial dispersion coefficient measurement, the available correlations gave no distinct agreement to each other.
A coupling of the modified Euler-Euler OpenSource CFD code was done with a one group population balance model. The implementation was validated to the analytical solution of the population balance equation for constant breakage and coalescence kernels. A further validation of the population balance transport equation was done by comparing the results of a five compartment section to the results of the commercial CFD code FLUENT using the Quadrature Method of Moments (QMOM).
For the simulation of the droplet-droplet interactions in liquid-liquid extraction columns, several breakage and coalescence models are available in the literature. The models were compared to each other using the one-group population balance model in Matlab which allows the determination of the minimum stable droplet diameter at a certain energy dissipation. Based on this representation, it was possible to determine the parameters for a specific breakage and coalescence model combination which allowed the simulation of a Kühni miniplant column at different rotational speeds. The resulting simulated droplet size was in very good agreement to the experimental derived droplet size from literature. Several column designs of the DN32 were investigated by changing the compartment height and the axial stirrer position. It could be shown that a decrease of the stirrer position increases the phase fraction inside the compartment. At the same time, the droplet size decreases inside the compartment, which allows a higher mass transfer due to a higher available interfacial area. However, the shifting results in an expected earlier flooding of the column due to a compressed flow structure underneath the stirring device. In a next step, the code was further extended by mass transfer equations based on the two-film theory. Mass transfer coefficient models for the dispersed and continuous phase were investigated for the RDC column design.
A first mass transfer simulation of a full miniplant column was done. The change in concentration was accounted by the mixture density, viscosity and interfacial tension in dependence of the concentration, which affects the calculation of the droplet size. The results of the column simulation were compared to own experimental data of the column. It could be shown that the concentration profile along the column height can be predicted by the presented CFD/population balance/mass transfer code. The droplet size decreases corresponding to the interfacial tension along the column height. Compared to the experimental derived droplet size at the outlet, the simulation is in good agreement.
Besides the occurrence of a mono dispersed droplet size, high breakage may lead to the generation of small satellite droplets and coalescence underneath the stator leads to larger droplets inside the column and hence to a change of the hold-up and of the flooding point. A multi-phase code was extended by the Sectional Quadrature Method of Moment (SQMOM) allowing a modeling of the droplet interactions of bimodal droplet interactions or multimodal distributions. The implementations were in good agreement to the analytical solution. In addition, the simulation of an RDC column section showed the different distribution of the smaller droplets and larger droplets. The smaller droplets tend to follow the continuous phase flow structure and show a higher distribution of inside the column. The larger droplets tend to rise directly through the column and show only a low influence to the continuous phase flow.
The current results strengthen the use of CFD for the layout of liquid-liquid extraction columns in future. The coupling of CFD/PBM and mass transfer using an OpenSource CFD code allows the investigation of computational intensive column designs (e.g. pilot plant columns). Furthermore the coupled code enhances the accuracy of the hydrodynamics simulations and leads to a better understanding of counter-current liquid-liquid extraction columns. The gained correlation were finally used as an input for one dimensional mass transfer simulations, where a perfect fit of the concentration profiles at varied boundary conditions could be obtained. By using the multi-scale approach, the computational time for mass transfer simulations could be reduced to minutes. In future, with increasing computational power, a further extend of the multiphase CFD/SQMOM model including mass transfer equation will provide an efficient tool to model multimodal and multivariate systems as bubble column reactors.
In recent years, recommender systems have been widely used for a variety of different kinds of items such as books, movies, and music. However, current recommendation approaches have often been criticized to suffer from overspecialization thus not enough considering a user’s diverse topics of interest. In this thesis we present a novel approach to extracting contextualized user profiles which enable recommendations taking into account a user’s full range of interests. The method applies algorithms from the domain of topic detection and tracking to automatically identify diverse user interests and to represent them with descriptive labels. That way manual annotations of interest topics by the users, e. g., from a predefined domain taxonomy, are no longer required. The approach has been tested in two scenarios: First, we implemented a content-based recommender system for an Enterprise 2.0 resource sharing platform where the contextualized user interest profiles have been used to generate recommendations with a high degree of inter-topic diversity. In an effort to harness the collective intelligence of the users, the resources in the system were described by making use of user-generated metadata. The evaluation experiments show that our approach is likely to capture a multitude of diverse interest topics per user. The labels extracted are specific for these topics and can be used to retrieve relevant on-topic resources. Second, a slightly adapted variation of the algorithm has been used to target music recommendations based on the user’s current mood. In this scenario music artists are described by using freely available Semantic Web data from the Linked Open Data cloud thus not requiring expensive metadata annotations by experts. The evaluation experiments conducted show that many users have a multitude of different preferred music styles. However a correlation between these music styles and music mood categories could not be observed. An integration of our proposed user profiles with existing user model ontologies seems promising for enabling context-sensitive recommendations.
In the last few years a lot of work has been done in the investigation of Brownian motion with point interaction(s) in one and higher dimensions. Roughly speaking a Brownian motion with point interaction is nothing else than a Brownian motion whose generator is disturbed by a measure supported in just one point.
The purpose of the present work is the introducing of curve interactions of the two dimensional Brownian motion for a closed curve \(\mathcal{C}\). We will understand a curve interaction as a self-adjoint extension of the restriction of the Laplacian to the set of infinitely often continuously differentiable functions with compact support in \(\mathbb{R}^{2}\) which are constantly 0 at the closed curve. We will give a full description of all these self-adjoint extensions.
In the second chapter we will prove a generalization of Tanaka's formula to \(\mathbb{R}^{2}\). We define \(g\) to be a so-called harmonic single layer with continuous layer function \(\eta\) in \(\mathbb{R}^{2}\). For such a function \(g\) we prove
\begin{align}
g\left(B_{t}\right)=g\left(B_{0}\right)+\int\limits_{0}^{t}{\nabla g\left(B_{s}\right)\mathrm{d}B_{s}}+\int\limits_{0}^{t}\eta\left(B_{s}\right)\mathrm{d}L\left(s,\mathcal{C}\right)
\end{align}
where \(B_{t}\) is just the usual Brownian motion in \(\mathbb{R}^{2}\) and \(L\left(t,\mathcal{C}\right)\) is the connected unique local time process of \(B_{t}\) on the closed curve \(\mathcal{C}\).
We will use the generalized Tanaka formula in the following chapter to construct classes of processes related to curve interactions. In a first step we get the generalization of point interactions in a second step we get processes which behaves like a Brownian motion in the complement of \(\mathcal{C}\) and has an additional movement along the curve in the time- scale of \(L\left(t,\mathcal{C}\right)\). Such processes do not exist in the one point case since there we cannot move when the Brownian motion is in the point.
By establishing an approximation of a curve interaction by operators of the form Laplacian \(+V_{n}\) with "nice" potentials \(V_{n}\) we are able to deduce the existence of superprocesses related to curve interactions.
The last step is to give an approximation of these superprocesses by a sytem of branching particles. This approximation gives a better understanding of the related mass creation.
Organophosph(on)ate sind die Ester der Phosphor- und Phosphonsäure und sind z.B. als Bausteine der DNA und Zellmembranen aufzufinden. Für einige künstlich hergestellte Organophosph(on)ate sind jedoch sehr hohe Toxizitäten beschrieben. Diese in der Klasse der neurotoxischen Organophosph(on)ate (NOP) zusammengefassten Verbindungen beinhalten Insektizide und chemische Kampfstoffe. Obwohl NOPs inzwischen in den meisten Ländern verboten sind, kommt es jedes Jahr zu zahlreichen Todesfällen. Die Toxizität, die auf die irreversible Inhibierung der Acetylcholinesterase (AChE) zurückzuführen ist, wird in der aktuellen Therapie durch die Gabe von Reaktivatoren aufgehoben. Mit dieser Therapie sind jedoch einige Nachteile verbunden.
Meine Dissertation hatte das Ziel, neue, auf Cyclodextrinen basierte Scavenger zu entwickeln, die in der Lage sind, ein NOP zu entgiften, bevor es mit der AChE reagieren kann. In diesem Rahmen wurde ein breit angelegtes Screening durchgeführt und 69 potentielle Scavenger synthetisiert und bezüglich ihrer Wirkung auf den NOP-Abbau untersucht. Während die untersuchten N- und O-Nucleophile keine Aktivität auf den Abbau von drei repräsentativen NOPs, Cyclosarin (GF), Tabun (GA) und VX, zeigten, wurden für α-Effekt-Nucleophile z.T. hohe Aktivitäten beobachtet.
β-Cyclodextrin, das mit Pyridiniumoximatgruppen modifiziert ist, war besonders effizient gegenüber GF. In weitergehenden quantitativen Untersuchungen konnte zudem festgestellt werden, dass der Abbau von GF in Gegenwart dieser Verbindung enantioselektiv verläuft. Dies ist ein klarer Hinweis darauf, dass das Cyclodextrin, vermutlich durch Einlagerung des Cyclohexylrests von GF für die Wirkungsweise des Scavengers von Bedeutung ist. Solche Pyridiniumoximate beschleunigten auch den Abbau von GA. Eine chirale Induktion des Cyclodextrinrings konnte in diesem Fall aber nicht festgestellt werden, was sehr wahrscheinlich auf die fehlende Wechselwirkung des GA mit dem Cyclodextrinring zurückzuführen ist.
Cyclodextrine, die Hydroxamsäuregruppen entlang der Kavität enthalten, sind ebenfalls in der Lage, GA abzubauen. Bei diesen Untersuchungen zeigte sich, dass die Aktivität des Scavengers mit der Anzahl an reaktiven Einheiten entlang der Cyclodextrinkavität steigt. Mit Hydroxamsäure modifizierte Cyclodextrine zeigten erstmals auch Aktivität im Abbau von VX. Mit Halbwertszeiten von fast drei Stunden ist der Abbau noch zu langsam für einen in vivo Einsatz, jedoch stellen diese Verbindungen sehr vielversprechende Leitstrukturen für weitere Arbeiten in diesem Gebiet dar.
Der Abbau des essentiellen Penicillin-Bindeproteins 2x in S. pneumoniae durch die Serinprotease HtrA
(2013)
Im Fokus dieser Arbeit stand der Abbau des essentiellen Zellteilungsproteins PBP2x aus S. pneumoniae durch die Serinprotease HtrA. Die PBP2x-Molekülmenge des Wildtypsatmms R6 wurde mit Hilfe einer quantitativen Methode ermittelt und ergab einen Wert von ca. 20.000 Molekülen. Für den Laborstamm C405, der unter anderem die zwei AS-Austausche L403F und T526S innerhalb der Transpep-tidase-Domäne von PBP2x beinhaltet, konnte eine 6,3fach geringere Menge im Vergleich zum Wildtypstamm R6 nachgewiesen werden. Der Laborstamm C606, der vier AS-Austausche in der Transpep-tidase-Domäne von PBP2x aufweist, besitzt sogar eine noch geringere PBP2x-Menge und ist gene-tisch instabil. Die geringe Menge des essentiellen PBP2x in den beiden Stämmen C405 und C606 konnte jeweils auf die proteolytische Aktivität der Serinprotease HtrA zurückgeführt werden. Die alleinige Auswirkung der PBP2x-Mutationen aus C405 und C606 auf die PBP2x-Menge wurden im definierten genetischen Hintergrund des Wildtypstamms R6 untersucht. Dabei konnte bewiesen werden, dass auch hier schon geringere Mengen an PBP2x vorliegen, die Mutationen also direkt Einfluß auf die Struktur von PBP2x haben und somit durch HtrA abgebaut werden. Diese Mutanten besitzen einen temperatursensitiven Resistenzphänotyp, wobei das Wachstum bei 30 °C zu verlängerten Zellen führte.
Innerhalb umfassender Komplementationsstudien wurde die htrA-Expression in unterschiedlichen Stämmen stufenweise erhöht, wobei korrelierend mit den steigenden HtrA-Mengen in den Zellen jeweils stufenweise verringerte PBP2x-Menge erwartet wurden. Die Ergebnisse zeigen eindeutig, dass die Serinprotease HtrA je nach genetischem Hintergrund nur bis zu einem bestimmten Level bzw. überhaupt nicht überexprimiert werden kann. Sobald dieser Level überschritten wird, wehrt sich die Zelle mit gravierenden Mutationen, die sowohl die proteolytische Aktivität, als auch die vollständige Proteinsynthese der Serinprotease HtrA inhibieren.
Im Wildtypstamm R6 wurde die Serinprotease HtrA anhand von Temperaturshiftexperimenten als nicht temperatursensitiv nachgewiesen. Dagegen benötigen Stämme mit verändertem PBP2x bei Hitzestress die Serinprotease HtrA, die durch den Abbau von falsch gefalteten Proteinen ein besseres Wachstum ermöglicht.
Die Auswirkung der verringerten PBP2x-Menge auf die Lokalisation des veränderten und niederaffinen PBP2x aus C405 wurde mittels Fluoreszenzmikroskopie in verschiedenen genetischen Hinter-gründen untersucht. Das GFP-PBP2xC405-Fusionsprotein wurde hierbei durch die Serinprotease HtrA, je nach genetischem Hintergrund, unterschiedlich stark abgebaut, was wiederum in einem höheren Anteil an zytoplasmatisch leuchtenden Zellen resultiert. Sobald die Serinprotease HtrA in diesen Stämmen fehlte, wurde das Fusionsprotein nicht mehr abgebaut und eine korrekte septale bzw. äquato-riale Lokalisation wurde sichtbar. Demnach befindet sich die geringe PBP2x-Menge immer in der Region, in der sie am dringensten benötigt wird - dem Zellseptum.
Das GFP-PBP2x-OT-Fusionsprotein, dem die Transpeptidasedomäne fehlt, wird ebenfalls durch die Serinprotease HtrA abgebaut. Sobald htrA jedoch deletiert wurde, zeigte sich eine septale bzw. äquato-riale Lokalisation des Fusionsproteins. Somit konnte zum ersten Mal eindeutig bewiesen werden, dass ausschließlich die PASTA-Domänen des PBP2x für die Lokalisation dieses essentiellen Enzyms am Zellseptum verantwortlich sind.
Die Größen der detektierten Abbauprodukte der GFP-Fusionsproteine gaben zudem Aufschluss über die ungfähre Position zweier Schnittstellen der Serinprotease HtrA, nämlich kurz nach der Transmembrandomäne von PBP2x und am Ende der N-terminalen Domäne.
Die Rolle des essentiellen PBP2x aus R6 und C405 bei der Zellteilung wurde anhand von Depletionsexperimenten eingehend untersucht. Dabei zeigte sich, dass sich die kontinuierliche Dezimierung des GFP-PBP2x bzw. GFP-PBP2xC405 in allen drei konditionalen Stämmen negativ auf das Wachstum und die Zellmorphologie auswirkte. Die Stämme waren in der Lage mehrere Generationen in Abwesenheit des Induktors zu wachsen, da sich innerhalb der Zelle noch ausreichend synthetisiertes Fusionsprotein aus der Vorkultur befand, bevor sich ein Wachstumsstopp einstellte.
Die Aufreinigung eines proteolytisch aktiven HtrA-Proteins und einer Form mit (S234A) im aktiven Zentrum von HtrA aus S. pneumoniae gelang im Rahmen dieser Arbeit. Die proteolytische Aktivität des HtrA-Proteins konnte anhand von ß-Casein Assays bestätigt werden. Der Abbau des Proteins PBP2xC405 und sogar der PBP2xwt konnten erstmals unter in vitro-Bedingungen als Substrate von HtrA nachgewiesen werden.
Die Daten dieser Arbeit bestärkt die Hypothese, dass ungefaltene PBP2x-Proteine durch die Sec-Translokase exportiert und anschließend in die Membran integriert werden. Dabei führt die Serinprotease HtrA die Proteinqualitätskontrolle durch und baut falsch gefaltete Proteine, oder Proteine, die sich nicht im Komplex befinden, ab.
There is a growing trend for ever larger wireless sensor networks (WSNs) consisting of thousands or tens of thousands of sensor nodes (e.g., [91, 79]). We believe this trend will continue and thus scalability plays a crucial role in all protocols and mechanisms for WSNs. Another trend in many modern WSN applications is the time sensitivity to information from sensors to sinks. In particular, WSNs are a central part of the vision of cyber-physical systems and as these are basically closed-loop systems many WSN applications will have to operate under stringent timing requirements. Hence, it is crucial to develop algorithms that minimize the worst-case delay in WSNs. In addition, almost all WSNs consist of battery-powered nodes, and thus energy-efficiency clearly remains another premier goal in order to keep network lifetime high. This dissertation presents and evaluates designs for WSNs using multiple sinks to achieve high lifetime and low delay. Firstly, we investigate random and deterministic node placement strategies for large-scale and time-sensitive WSNs. In particular, we focus on tiling-based deterministic node placement strategies and analyze their effects on coverage, lifetime, and delay performance under both exact placement and stochastically disturbed placement. Next, we present sink placement strategies, which constitutes the main contributions of this dissertation. Static sinks will be placed and mobile sinks will be given a trajectory. A proper sink placement strategy can improve the performance of a WSN significantly. In general, the optimal sink placement with lifetime maximization is an NP-hard problem. The problem is even harder if delay is taken into account. In order to achieve both lifetime and delay goals, we focus on the problem of placing multiple (static) sinks such that the maximum worst-case delay is minimized while keeping the energy consumption as low as possible. Different target networks may need a corresponding sink placement strategy under differing levels of apriori assumptions. Therefore, we first develop an algorithm based on the Genetic Algorithm (GA) paradigm for known sensor nodes' locations. For a network where global information is not feasible we introduce a self-organized sink placement (SOSP) strategy. While GA-based sink placement achieves a near-optimal solution, SOSP provides a good sink placement strategy with a lower communication overhead. How to plan the trajectories of many mobile sinks in very large WSNs in order to simultaneously achieve lifetime and delay goals had not been treated so far in the literature. Therefore, we delve into this difficult problem and propose a heuristic framework using multiple orbits for the sinks' trajectories. The framework is designed based on geometric arguments to achieve both, high lifetime and low delay. In simulations, we compare two different instances of our framework, one conceived based on a load-balancing argument and one based on a distance minimization argument, with a set of different competitors spanning from statically placed sinks to battery-state aware strategies. We find our heuristics outperform the competitors in both, lifetime and delay. Furthermore, and probably even more important, the heuristic, while keeping its good delay and lifetime performance, scales well with an increasing number of sinks. In brief, the goal of this dissertation is to show that placing nodes and sinks in conventional WSNs as well as planning trajectories in mobility enabled WSNs carefully really pays off for large-scale and time-sensitive WSNs.
Das Zwei-Komponenten System CiaRH beeinflusst mit der β-Lactamresistenz, Kompetenz, Autolyse, Bakteriocinproduktion und Virulenz eine Vielzahl an Phänotypen in Streptococcus pneumoniae und ist daher von großer physiologischer Bedeutung. Es setzt sich aus der membrangebundenen Sensorkinase CiaH und dem cytoplasmatisch lokalisierten Response Regulator CiaR zusammen. Das CiaRH System ist unter sehr vielen Wachstumsbedingungen aktiv. CiaH ist allerdings für die Aktivierung von CiaR unter bestimmten Bedingungen verzichtbar. CiaR ist jedoch in seiner phosphorylierten Form aktiv, was die Frage nach einer alternativen Phosphatquelle für CiaR aufwirft. Der sog. Crosstalk durch eine fremde Sensorkinase oder niedermolekulare Phosphodonoren wie Acetylphosphat stellen mögliche Wege zur alternativen Phosphorylierung von CiaR dar.
Um zwischen diesen Möglichkeiten zu unterscheiden, wurden Gene des Acetylphosphat-Stoffwechsels inaktiviert, was zu einer Änderung der Produktion von Acetylphosphat führen sollte. Anschließende Messungen der zellulären Acetylphosphatmenge und der CiaR-abhängigen Promotoraktivitäten in Abwesenheit der Sensorkinase CiaH zeigten klar, dass mit sinkendem Acetylphosphat auch die CiaR-vermittelte Genexpression reduziert wurde. Diese Korrelation legt den Schluss nahe, dass Acetylphosphat tatsächlich den wesentlichen alternativen Phosphodonor für CiaR darstellt. Allerdings wurden auch Hinweise für geringfügigen Crosstalk durch eine andere Sensorkinase erhalten. Im Zuge dieser Experimente ergab sich weiterhin, dass ein Enzym des Acetylphosphat-Stoffwechsels, die Acetatkinase, eine besondere Rolle bei der alternativen Phosphorylierung von CiaR spielt. Eine Reihe von Befunden legt den Schluss nahe, dass Acetatkinase und CiaR möglicherweise interagieren. Eine solche regulatorische Rolle der Acetatkinase ist bisher nicht beschrieben.
Weiterhin konnte gezeigt werden, dass die CiaR-Aktivität durch die Bifunktionalität von CiaH auf nahezu konstantem Niveau gehalten wird. Dabei kann wahrscheinlich Acetat, ein exkretiertes Endprodukt des Acetylphosphat-Stoffwechsels, zur Stimulierung der Phosphataseaktivität von CiaH dienen. Dies könnte von physiologischer Bedeutung sein, um eine von Acetylphosphat ausgehende Phosphorylierung von CiaR durch Acetat im Medium durch Dephosphorylierung zu begrenzen. Somit könnten Acetylphosphat und Acetat Gegenspieler zur Regulation der CiaR-Aktivität darstellen.
Ein einem zweiten Teil dieser Arbeit wurde auf die Auswirkungen von Mutationen in CiaH auf die CiaR-Aktivität eingegangen. Das CiaRH-System wurde als erste Nicht-PBP-Resistenzdeteminante in β-lactamresistenten Labormutanten von S. pneumoniae R6 entdeckt, wobei eine Mutation im Sensorkinasegen ciaH (ciaH306, T230P) eine Erhöhung der CiaR-abhängigen Genexpression vermittelte. Weitere ciaH-Mutationen wurden in anderen spontanresistenten Labormutanten beschrieben. Die Laborallele vermitteln eine Steigerung der CiaR-abhängigen Promotoraktivität zwischen vier- und 26-fach. Phänotypische Folgen sind die Verringerung der β-Lactamsuszeptibilität, der Verlust der Kompetenz und verändertes Wachstum von S. pneumoniae R6.
Im Zuge dieser Arbeit wurden zum ersten Mal veränderte ciaH-Allele in klinischen Pneumokokken-Isolaten identifiziert und charakterisiert. Es zeigte sich eine Verbreitung in Isolaten der Serotypen 6, 7, 9, 19 und 23. Im Gegensatz zu den Laborallelen vermitteln die klinischen Allele eine bis zu dreifache Erhöhung der CiaR-abhängigen Promotoraktivität. Lediglich das Allel ciaHTpVT beeinflusst die Phänotypen β-Lactamresistenz und Kompetenz. Weiterhin erfolgte die Charakterisierung der Kinase- und Phosphataseaktivitäten der klinischen ciaH-Allele. Hierbei zeigten sich Abweichungen der Stärken beider Funktionen, wobei für ciaH306 ein Phosphatasedefekt festgestellt wurde.
Diversitätsgenerierende Retroelemente (DGRs) stellen einen neuen Typus Retroelement dar, die gezielt einen Teil einer codierenden Sequenz des Wirtsgenoms über einen Copy and Replace-Mechanismus hypermutieren und somit zur Erzeugung biologischer Diversität beitragen können. Trotz dieser einzigartigen Eigenschaften und dem potentiellen Wert dieser Elemente für Industrie und Forschung konzentrierten sich seit der Beschreibung des ersten DGRs vor über zehn Jahren die meisten Publikationen auf mechanistische Eigenschaften des Prototypen aus dem Bordetella Bakteriophagen. Allerdings sind zahlreiche Fragen zur Funktionsweise dieser Elemente noch immer ungeklärt. Ebenso wurden bisher extensivere, vergleichende Studien, die weitere Vertreter dieser Elemente berücksichtigen, noch nicht durchgeführt.
Die vorliegende Dissertation leistet einen wichtigen Beitrag zum tieferen Verständnis diversitätsgenerierender Retroelemente. Das eigens für diesen Zweck konzipierte Programm DiGReF erlaubte eine umfassende Analyse der Bestände öffentlicher Datenbanken auf DGRs in sequenzierten Genomen. Mit Hilfe dieser Daten konnten weitere Aspekte dieser Elemente aufgeklärt werden, die eine Analyse ihrer Verteilung, ihrer phylogenetischen Beziehungen, ihrer Struktur und eine Charakterisierung der einzelnen Elemente einer DGR-Kassette umfassten. So konnte gezeigt werden, dass das zuvor für wenige Elemente beschriebene Merkmal der Adeninsubstitution eine gemeinsame Eigenschaft aller DGRs ist, während keine C-, T- oder G-Substitionen auftreten. Ebenso fanden sich erste Belege dafür, dass die beiden essentiellen Elemente Template Repeat und reverse Transkriptase nicht notwendigerweise ein gemeinsames Transkript besitzen. Außerdem konnte erstmalig die Gruppe der weitgehend uncharakterisierten akzessorischen Proteine umfassender beschrieben und ein Consensusmotiv ermittelt werden. Für künftige Studien werden die DiGReF-Software und die Ergebnisse dieser Arbeit von grundlegender Bedeutung sein.
Der zweite Teil dieser Arbeit fokussierte sich auf die experimentelle Charakterisierung zweier Kernkomponenten von DGRs, der reversen Transkriptase und den akzessorischen Proteinen. Während die Aufreinigung einer DGR-assoziierten reversen Transkriptase noch weitere experimentelle Arbeiten erfordern wird, konnte das akzessorische Protein Alr3496 aus der Blaualge Nostoc sp. PCC 7120 erfolgreich in rekombinanter Form aufgereinigt werden. Es konnte weiterhin gezeigt werden, dass Alr3496 diverse Nucleinsäuresubstrate bindet, und in der Lage ist, die Hybridisierung von komplementären DNA-Strängen zu katalysieren. Dies legt nahe, dass akzessorische Proteine aus DGR-Elementen eine Rolle als Nucleinsäurechaperone übernehmen.
Polychlorinated dibenzo-p-dioxins, dibenzofurans, and polychlorinated biphenyls are persistent environmental pollutants which ubiquitously occur as complex mixtures and accumulate in the food and feed chain due to their high lipophilic properties. Of the 419 possible congeners, only 29 share a common mechanism of action and cause similar effects, the so called dioxin-like compounds. Dioxin-like compounds evoke a broad spectrum of biochemical and toxic responses, i.e. enzyme induction, dermal toxicity, hepatotoxicity, immunotoxicity, carcinogenicity as well as adverse effects on reproduction, development, and the endocrine system in laboratory animals and in humans. Most, if not all, of the aforementioned responses, are mediated by the aryl hydrocarbon receptor. In the present work, the elicited biochemical effects of a selection of dioxin-like compounds and the non dioxin-like PCB 153 were examined in mouse (in vivo) and in human liver cell models (in vitro). Emphasis was given to the main contributors to the total toxic equivalents in human blood and tissues TCDD, 1-PnCDD, 4-PnCDF, PCB 118, PCB 126, and PCB 156, which likewise contribute about 90 % to the dioxin-like activity in the human food chain.
Three mouse in vivo studies were carried out aiming to characterize the alterations in hepatic gene expression as well as the induction of hepatic xenobiotic metabolizing enzymes after single oral dose. Based on the results obtained from mouse 3-day and 14-day studies, the seven test compounds can be categorized into three classes; the ones which are 'pure' AhR ligands (TCDD, 1-PnCDD, 4-PnCDF, and PCB 126) or solely CAR inducers (PCB 153), and the ones which are AhR/CAR mixed-type inducers (PCB 118, PCB 156). Moreover, the analysis of hepatic gene expression patterns after a single oral dose of either TCDD or PCB 153 revealed that the altered genes fundamentally differed. Profiling of significantly altered genes led to the conclusion that changes in gene expression were associated with different signalling pathways, in fact by AhR and CAR.
For investigating the role of the AhR in mediating biological responses, several experimental approaches were carried out, such as the analysis of blood plasma metabolites in Ahr knockout and wild-type mice. Genotype specifics and similarities were determined by HPLC-MS/MS analysis. Several plasma metabolites could be identified in both genotypes, but also differences were detected. Furthermore, an in vivo experiment was performed aiming to characterize AhR-dependent and -independent effects in female Ahr knockout and wild-type mice. For this purpose, mice received a single oral dose of TCDD and were killed 96 h later. Microarray analysis of mouse livers revealed that although the Ahr gene was knocked out in Ahr-/- mice, the quantity of affected genes were in the same order of magnitude as for Ahr+/+ mice, but the pattern of altered genes distinctly differed. In addition, the relative liver weights of TCDD-treated Ahr+/+ mice were significantly increased which led to the conclusion, that TCDD induced the development of hepatic steatosis in female Ahr wild-type.
The performed in vitro experiments aimed to characterize the effects elicited by selected DLCs and PCB 153 in human liver cell models by the use of HepG2 cells and primary human hepatocytes. In general, primary human hepatocytes were less responsive than HepG2 cells. This was not only observed in EC values derived from EROD assay, but also regarding microarray analysis in terms of differently regulated genes. In vitro REPs gained from both liver cell models widely confirmed the current TEFs, but some deviations occurred. The comparison of the TCDD-altered genes in both human cell types revealed that only a considerably small number of genes was in common up regulated by both human liver cell models, such as the established AhR-regulated highly inducible cytochrome P450s 1A1, 1A2, and 1B1 as well as other AhR target genes. Although the overlap was rather small, the TCDD-induced genes could be consistently associated with the broad spectrum of established dioxin-related biological responses. The gene expression pattern in primary human hepatocytes after treatment with selected DLCs (TCDD, 1-PnCDD, 4-PnCDF, and PCB 126) and PCB 153 was additionally characterized by microarray analysis. The highest response in terms of significantly altered genes was determined for TCDD, followed by 4-PnCDF, 1-PnCDD, and PCB 126, whereas exposure to PCB 153 did not evoke any significant changes in gene expression. The pattern of significantly altered genes was very homogenous among the four congeners. Genes associated with well-established DLC-related biological responses as well as novel dioxin-inducible target genes were identified, whereby an extensive overlap in terms of up regulated genes by all four DLCs occurred. In conclusion, the results from the in vitro experiments performed in primary human hepatocytes provided fundamental insight into the congeners' potencies and caused alterations in gene expression patterns. The obtained findings implicate that although the extent of enzyme inducibilities varied, the gene expression patterns are coincidental. Microarray analysis identified species-specific (mouse vs. human) as well as model-specific (in vitro vs. in vivo and transformed cells vs. untransformed cells) differences. In order to identify novel biomarkers for AhR activation due to treatment with dioxin-like compounds, five candidates were selected based on the microarray results i.e. ALDH3A1, TIPARP, HSD17B2, CD36, and AhRR. Eventually, ALDH3A1 turned out to be the most reliable and suitable marker for exposure to DLCs in both human liver cell models eliciting the highest mRNA inducibility among the five chosen candidates. In which way these species- and cell type-specific markers are involved in the dioxin-elicited toxic responses should be further characterized in vivo and in vitro.
In einer dreijährigen Längsschnittstudie wurde der Einfluss eines immersiven englischen Sprachangebots in der Kindertagesstätte auf die Entwicklung der englischen und deutschen Sprache bei 2- bis 6-jährigen Kindern untersucht. Darüber hinaus wurde geprüft, ob der bei bilingualen Personen nachgewiesene Vorteil in den exekutiven Kontrollfunktionen gegenüber monolingualen Personen auch bei Sprachimmersion repliziert werden kann und ob sich ein Vorteil in der phonologischen Bewusstheit durch Sprachimmersion ergibt. Dem Prinzip „Eine Person - eine Sprache“ folgend kommunizierte eine Erzieherin in der Immersionsgruppe ausschließlich in englischer Sprache mit den Kindern, während die anderen Erzieherinnen weiterhin deutsch sprachen. In der hinsichtlich Alter, Geschlecht und SES parallelisierten Kontrollgruppe fand einmal wöchentlich ein kindgerechter Englischunterricht statt. Einmal jährlich wurden verschiedene Tests zur Erfassung des sprachlichen Entwicklungsstands (Deutsch und Englisch; Sprachrezeption und Sprachproduktion), der exekutiven Kontrollfunktionen (inhibitorische Kontrolle: Day-Night-Task, Dimensional Change Card Sort Task, Fish-Flanker-Task) sowie ein Test zur Erfassung der phonologischen Bewusstheit durchgeführt. Die Kinder aus der Immersionsgruppe erreichten eine bessere englische rezeptive Sprachkompetenz als die Kinder der Kontrollgruppe. Es waren keine negativen Auswirkungen der englischen Sprachimmersion auf den Erwerb der deutschen Muttersprache nachweisbar. Die vergleichbaren Leistungen der Kinder in der Immersions- und Kontrollgruppe in den drei Aufgaben zur Erfassung der inhibitorischen Kontrolle und dem Test zur Erfassung der phonologischen Bewusstheit weisen darauf hin, dass keine positiven Effekte durch Sprachimmersion auf die Entwicklung der phonologischen Bewusstheit und der inhibitorischen Kontrolle erzielt werden konnten. Mögliche Ursachen für das Ausbleiben eines Vorteils durch Sprachimmersion im Bereich der exekutiven Kontrollfunktionen und der phonologischen Bewusstheit werden diskutiert.
Efficient time integration and nonlinear model reduction for incompressible hyperelastic materials
(2013)
This thesis deals with the time integration and nonlinear model reduction of nearly incompressible materials that have been discretized in space by mixed finite elements. We analyze the structure of the equations of motion and show that a differential-algebraic system of index 1 with a singular perturbation term needs to be solved. In the limit case the index may jump to index 3 and thus renders the time integration into a difficult problem. For the time integration we apply Rosenbrock methods and study their convergence behavior for a test problem, which highlights the importance of the well-known Scholz conditions for this problem class. Numerical tests demonstrate that such linear-implicit methods are an attractive alternative to established time integration methods in structural dynamics. In the second part we combine the simulation of nonlinear materials with a model reduction step. We use the method of proper orthogonal decomposition and apply it to the discretized system of second order. For a nonlinear model reduction to be efficient we approximate the nonlinearity by following the lookup approach. In a practical example we show that large CPU time savings can achieved. This work is in order to prepare the ground for including such finite element structures as components in complex vehicle dynamics applications.
Seit dem Beginn der Produktion und Veredelung von Nahrungsmitteln im großtechnischen
Maßstab steigen nicht nur die Mengen an den Hauptprodukten dieser Prozesse, sondern
auch die Mengen der dabei anfallenden Nebenprodukte. Die Entsorgung dieser Nebenprodukte
über Flüsse oder Kläranlagen stellte auf Grund deren BOD (biochemical oxygen
demand) zunehmend ein Problem dar, dessen Lösung unabdingbar wurde. Eines dieser
Nebenprodukte, welches in stets zunehmender Menge anfällt ist Molke, das Hauptnebenprodukt
der Käseherstellung. Die produzierte Jahresmenge betrug für das Jahr 2011 alleine in Deutschland geschätzte 11,80 Mio. Tonnen. Das einstige Abfallprodukt Molke wird seit den 1950er Jahren in zunehmendem Maß vorwiegend zu Molkekonzentrat, einer 5 bis
6-fach aufkonzentrierten Molkelösung, und Molkeproteinpulvern mit steigendem Proteinanteil
aufgearbeitet. In den 2000er Jahren kamen verstärkt Isolate einzelner Molkeproteine dieser Produktpalette hinzu. Bereits vor 15 Jahren wurde die weltweit produzierte Menge
an Molkeproteinkonzentrat auf über 140.000 Tonnen geschätzt. Molkeproteinpulver und alpha-Lactalbumin (ALA) wurden zu dieser Zeit in einer geschätzten Menge von 2.300 Tonnen bzw. 230 Tonnen jährlich hergestellt. Mit der zunehmenden Reinheit der Proteinfraktionen stieg auch deren Marktwert von etwa 1 $/kg für die ersten Molkeproteinpulver in den
1960er Jahren bis auf 600 $/kg für Fraktionen einzelner Proteine mit hoher Reinheit.
Die überwiegende Mehrheit dieser Produkte findet seinen Einsatz in der Nahrungsmittelindustrie,
wie beispielsweise bei der Produktion von Säuglingsnahrung, Sportlerernährung
oder als Texturbildner in verschiedensten Nahrungsmitteln des täglichen Konsums. Die am weitesten verbreiteten Prozesse zur großindustriellen Aufarbeitung von Molke sind
die Ultrafiltration und die Chromatographie. Andere Verfahren wie Fällungsprozesse oder
peptische Hydrolysen kommen mit steigender Prozessgröße immer seltener als alleiniges
Aufarbeitungsverfahren von Molke zum Einsatz. Viele der beschriebenen und angewendeten
Verfahren arbeiten in einem der ersten Schritte mit einer Modifikation des pH-Wertes
des Eduktes Molke. Dies ist in dem hier vorgestellten Verfahren nicht der Fall, das Edukt wird ohne Veränderungen oder Modifikationen eingesetzt. Es werden keine einzelnen Komponenten der Molke im Voraus entfernt oder durch z. B. peptische Hydrolyse zerstört. Die
eingesetzten Chemikalien sind ungiftig und müssen keinen kostenintensiven Entsorgungsverfahren
zugeführt werden. Im Gegensatz zu Verfahren mit Fällungssalzen können die
eingesetzten Chemikalien im Produkt durch Neutralisation einfach wieder entfernt werden
oder kommen in nur geringen Konzentrationen vor. Es treten im Gegensatz zu chromatographischen
Methoden nur geringe Fluidströme, z. B. Waschwasser, auf und der Prozess bedarf keiner massiven Temperaturerhöhung des Eduktes, um beispielsweise die Viskosität
zu erhöhen. Die eingesetzten Adsorbentien sind kostengünstig (unter 10 €/kg) und können im Fall von Siliziumdioxid als restproteinbeladener Tierfutterzusatz entsorgt werden. In dem vorgestellten Prozess können die Hauptkomponenten der Molke alpha-Lactalbumin
(ALA), beta-Lactoglobulin (BLG) und Lactose voneinander getrennt werden, was mit den
meisten Membranverfahren im industriellen Maßstab nicht oder nur ungenügend möglich
ist. Im Prozess werden lediglich einfache Rührkessel und Filtrationseinheiten eingesetzt. Des Weiteren ist der Prozess leicht in bestehende Aufarbeitungsverfahren integrierbar und/oder durch zusätzliche Verfahren, wie beispielsweise vor- oder nachgeschaltete Membranverfahren,
ergänzbar. Dadurch besitzt er ein hohes Potential zur Optimierung und weiteren Kostenersparnis. In dieser Arbeit werden zwei Ansätze zur Aufarbeitung verfolgt,
miteinander verglichen und ein Prozessentwurf mit Wirtschaftlichkeitsbetrachtung für den Batch-Ansatz vorgestellt. Für einen chromatographischen Ansatz wird ausgehend von Isothermen
und Adsorptions- und Desorptionsversuchen in einer Kleinsäule die Produktivität
für ein Material aus
gamma-Aluminiumoxid ermittelt. Für alle in dieser Arbeit verwendeten Materialien
aus Bentonit/Kieselsäure, Siliziumdioxid und
gamma-Aluminiumoxid werden die Permeabilität der Säulenpackung, deren maximale Bindekapazität und Stabilität angegeben. Der Einfluss einer Reduktion der Partikelgröße auf die Proteinbindekapazität daraus resultierender
Adsorbensschüttungen wird ebenfalls betrachtet. Eine gängige Betriebsweise
für viskose Fluide mit teilweise ungelöstem Feststoffanteil, wie Molkekonzentrat, stellt die
Expanded Bed Chromatographie dar. Eine rechnerische Abschätzung für das Material aus gamma-Aluminiumoxid ergänzt experimentelle Beobachtungen hinsichtlich der Eignung des Materials
für die Expanded Bed Chromatographie. Zur Trennung von ALA und BLG wird ein
Ansatz mittels selektiver Adsorption im Durchbruch mit einem Ansatz mittels selektiver Desorption in einem Stufengradienten aus Kaliumphosphat als Eluent verglichen. Für den
Batch-Ansatz wird aus den Ergebnissen von Adsorptionsisothermen und einstufigen Batchversuchen
eine Stoffstromsimulation auf Grundlage eines verfahrenstechnischen Fließbilds
erstellt. Der vorgestellte Prozess besteht aus 6 Rührkesselreaktoren, Filtrationsmodulen
zur Fest-Flüssig-Phasen Trennung und zwei Sprühtrocknungseinheiten. Eine Prüfung des
vorgestellten Prozesses auf seine Wirtschaftlichkeit wird vor dem Hintergrund möglicher
Produktpreise diskutiert.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der "Plug and Play"-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein "FMControl" demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins "FMControl" können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
Immer mehr Gebäude werden aus Gründen des Komforts, der Sicherheit und der Wirtschaftlichkeit mit fortschrittlicher Automationstechnik ausgestattet. Daher gewinnt Gebäudeautomation zunehmend an Bedeutung. Hierfür sind gebäudetechnische Anlagen in vielen Fällen über Busleitungen mit einem Leitrechner vernetzt und zentral erfasst. Sie werden mit Hilfe von Sensoren und Aktoren gesteuert.
Um Bauwerke effektiv und effizient bewirtschaften zu können, werden zunehmend CAFM-Systeme als unverzichtbares Werkzeug des Facility Managers eingesetzt. Dabei werden heute die gleichen gebäudetechnischen Anlagen ein zweites Mal erfasst, um sie im Rahmen des Anlagen- und Wartungsmanagements verwalten zu können. Eine webbasierte, datenbankgekoppelte Steuerung dieser Anlagen direkt über ein CAFM-System ist derzeit nicht verfügbar. Themenbezogene Normen und Richtlinien geben keinen Aufschluss über konkrete Kopplungsmechanismen von Gebäudeautomation und CAFM zur Steuerung gebäudetechnischer Anlagen. Es fehlt an Netzwerkmodellen und Lösungskonzepten.
Die vorliegende Arbeit setzt an dieser Problematik an. Sie prüft, in welcher Weise gebäudetechnische Einrichtungen hinsichtlich einer komfortablen und zentralen Steuerungsfunktion in CAFM-Systeme eingebunden werden können. Aspekte wie neuartige Vernetzungsvarianten, die Bereitstellung von Anlagendaten mit zugehörigen Import-funktionen sowie die Möglichkeit einer browsergestützten Bedienung stehen dabei im Fokus der Betrachtung. Der Leitgedanke dabei ist, vorhandene Technologien und Standards zu nutzen, um daraus neue Lösungen zu schaffen.
Der vorgestellte Lösungsansatz analysiert, vergleicht und bewertet unterschiedliche Netzstrukturen, dessen Ergebnis als Entscheidungshilfe für die Modellentwicklung dient. Der „Plug and Play“-Gedanke wird durch die Verwendung der bereits standardisierten Netzwerktechnologie UPnP (Universal Plug and Play), realisiert, wofür es der Ausarbeitung und Definition neuer bereitzustellender Datenformate (XML) bedarf. Für die praktische Umsetzung wird eine eigene Datenbankstruktur (MS Access) zur Simulation eines CAFM-Systems entworfen und eine mit VB.NET programmierte Benutzeroberfläche erstellt. Der entwickelte Programmbaustein „FMControl“ demonstriert das webbasierte Schnittstellen-konzept mit Importfunktion und Steuermechanismen.
Die Ergebnisse dieser Arbeit schaffen die Basis für die Optimierung im Bereich der webbasierten und datenbankgekoppelten Gebäudeautomation. Durch die Implementierung der vorgestellten Funktionen des Programmbausteins „FMControl“ können CAFM-Systeme zu leistungsstarken Steuerungsinstrumenten für Gebäude und deren Anlagen ausgebaut werden.
Gegenstand der vorliegenden Arbeit ist die Entwicklung neuartiger Anionenrezeptoren auf Basis von Cyclopeptiden und Bis(cyclopeptiden). Besonderer Augenmerk sollte hierbei auch auf der Verbesserung der synthetischen Zugänglichkeit dieser Rezeptoren liegen.
Gemeinsamer Baustein der verwendeten Cyclopeptide sind Dipeptide aus Boc-L-Hydroxy-prolin und geschützten Aminopicolinsäureuntereinheiten. Konventionell wird deren Synthese durch Einsatz von Kupplungsreagenzien realisiert. Aufgrund der Elektronenarmut der Amino-picolinsäureeinheit muss hierbei PyCloP als Kupplungsreagenz eingesetzt werden, welches vergleichsweise teuer ist. Außerdem kann es bei dieser Reaktionsführung zur Epimerisierung der chiralen Aminosäure kommen, so dass bei dieser Reaktion Optimierungsbedarf besteht. Durch Anwendung der Goldberg-Amidierung konnte ich die Effizienz der Dipeptidsynthese durch Einsatz günstiger Reagenzien sowie kommerziell erhältlicher Edukte steigern. Außerdem besteht bei dieser Reaktion keine Gefahr der Racemisierung.
In meiner Arbeit beschäftigte ich mich darüber hinaus mit der Synthese einer molekularen Kapsel auf Basis thiol-haltiger Cyclopeptide. Dieses dreifach verbrückte Bis(cyclopeptid) wird dabei mit Hilfe der dynamischen kombinatorischen Chemie unter Verwendung des Disulfidaustausches als reversibler Reaktion synthetisiert. Mir ist es gelungen, durch systematische Optimierung der Reaktionsbedingungen die Produktbildung positiv zu beeinflussen und die Aufarbeitung zu vereinfachen. Allerdings kam es bei der Isolierung des Bis(cyclopeptids) zu einer Oxidation der Disulfidbrücken, so dass das Produkt nicht analysenrein erhalten werden konnte.
Während meiner Arbeiten ist es mir ebenfalls gelungen, einen Zugang zu funktionalisierten Cyclopeptiden zu entwickeln. Dabei zeigte sich, dass die Einführung von Substituenten in den Prolineinheiten nach Aufbau des Cyclopeptids erfolgen muss. Das so erhaltene Cyclopeptid mit drei β-Alanin-Seitenketten trägt Ammoniumgruppen in der Peripherie. Mit Hilfe von pH-abhängigen potentiometrischen Titrationen konnten drei Protonierungskonstanten ermittelt werden. Diese zeigen, dass bei pH 7 immer noch 95 % der Moleküle vollständig protoniert sind. Dieses Cyclopeptid zeigte bezüglich der Anionenbindung einzigartige Eigenschaften So bindet es in gepufferten wässrigen Medien Sulfatanionen mit hoher Affinität, was mittels Massenspektrometrie, NMR-Spektroskopie und isothermer Titrationskalorimetrie nach-gewiesen werden konnte. Die Sulfatbindung konnte darüber hinaus nicht nur in Essigsäure-/Acetat-Puffer sondern auch in reinem Phosphat-Puffer bei verschiedenen pH-Werten nachgewiesen werden. Damit wurde mit diesem Cyclopeptid ein effizienter Sulfatrezeptor entwickelt, der selektiv Sulfatanionen in Wasser zu binden vermag. Es zeigte sich, dass die Kombination der Anionenbindungsstelle des Cyclopeptids mit peripheren funktionellen Gruppen, die sich spezifisch an der Gastbindung beteiligen, eine geeignete Strategie darstellt, die Löslichkeits- und Bindungseigenschaften solcher Cyclopeptide gezielt zu verbessern.