Refine
Year of publication
- 2011 (62) (remove)
Document Type
- Doctoral Thesis (62) (remove)
Has Fulltext
- yes (62)
Keywords
- Visualisierung (4)
- Simulation (3)
- CSO (2)
- Implementation (2)
- Katalyse (2)
- Metropolregion (2)
- Mischwasserbehandlung (2)
- Modellierung (2)
- N-Liganden (2)
- Raumordnung (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Chemie (15)
- Kaiserslautern - Fachbereich Mathematik (14)
- Kaiserslautern - Fachbereich ARUBI (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (8)
- Kaiserslautern - Fachbereich Biologie (7)
- Kaiserslautern - Fachbereich Informatik (4)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Physik (1)
The various uses of fiber-reinforced composites, for example in the enclosures of planes, boats and cars, generates the demand for a detailed analysis of these materials. The final goal is to optimize fibrous materials by the means of “virtual material design”. New fibrous materials are virtually created as realizations of a stochastic model and evaluated with physical simulations. In that way, materials can be optimized for specific use cases, without constructing expensive prototypes or performing mechanical experiments. In order to design a practically fabricable material, the stochastic model is first adapted to an existing material and then slightly modified. The virtual reconstruction of the existing material requires a precise knowledge of the geometry of its microstructure. The first part of this thesis describes a fiber quantification method by the means of local measurements of the fiber radius and orientation. The combination of a sparse chord length transform and inertia moments leads to an efficient and precise new algorithm. It outperforms existing approaches with the possibility to treat different fiber radii within one sample, with high precision in continuous space and comparably fast computing time. This local quantification method can be directly applied on gray value images by adapting the directional distance transforms on gray values. In this work, several approaches of this kind are developed and evaluated. Further characterization of the fiber system requires a segmentation of each single fiber. Using basic morphological operators with specific structuring elements, it is possible to derive a probability for each pixel describing if the pixel belongs to a fiber core in a region without overlapping fibers. Tracking high probabilities leads to a partly reconstruction of the fiber cores in non crossing regions. These core parts are then reconnected over critical regions, if they fulfill certain conditions ensuring the affiliation to the same fiber. In the second part of this work, we develop a new stochastic model for dense systems of non overlapping fibers with a controllable level of bending. Existing approaches in the literature have at least one weakness in either achieving high volume fractions, producing non overlapping fibers, or controlling the bending or the orientation distribution. This gap can be bridged by our stochastic model, which operates in two steps. Firstly, a random walk with the multivariate von Mises-Fisher orientation distribution defines bent fibers. Secondly, a force-biased packing approach arranges them in a non overlapping configuration. Furthermore, we provide the estimation of all parameters needed for the fitting of this model to a real microstructure. Finally, we simulate the macroscopic behavior of different microstructures to derive their mechanical and thermal properties. This part is mostly supported by existing software and serves as a summary of physical simulation applied to random fiber systems. The application on a glass fiber reinforced polymer proves the quality of the reconstruction by our stochastic model, as the effective properties match for both the real microstructure and the realizations of the fitted model. This thesis includes all steps to successfully perform virtual material design on various data sets. With novel and efficient algorithms it contributes to the science of analysis and modeling of fiber reinforced materials.
For many years real-time task models have focused the timing constraints on execution windows defined by earliest start times and deadlines for feasibility.
However, the utility of some application may vary among scenarios which yield correct behavior, and maximizing this utility improves the resource utilization.
For example, target sensitive applications have a target point where execution results in maximized utility, and an execution window for feasibility.
Execution around this point and within the execution window is allowed, albeit at lower utility.
The intensity of the utility decay accounts for the importance of the application.
Examples of such applications include multimedia and control; multimedia application are very popular nowadays and control applications are present in every automated system.
In this thesis, we present a novel real-time task model which provides for easy abstractions to express the timing constraints of target sensitive RT applications: the gravitational task model.
This model uses a simple gravity pendulum (or bob pendulum) system as a visualization model for trade-offs among target sensitive RT applications.
We consider jobs as objects in a pendulum system, and the target points as the central point.
Then, the equilibrium state of the physical problem is equivalent to the best compromise among jobs with conflicting targets.
Analogies with well-known systems are helpful to fill in the gap between application requirements and theoretical abstractions used in task models.
For instance, the so-called nature algorithms use key elements of physical processes to form the basis of an optimization algorithm.
Examples include the knapsack problem, traveling salesman problem, ant colony optimization, and simulated annealing.
We also present a few scheduling algorithms designed for the gravitational task model which fulfill the requirements for on-line adaptivity.
The scheduling of target sensitive RT applications must account for timing constraints, and the trade-off among tasks with conflicting targets.
Our proposed scheduling algorithms use the equilibrium state concept to order the execution sequence of jobs, and compute the deviation of jobs from their target points for increased system utility.
The execution sequence of jobs in the schedule has a significant impact on the equilibrium of jobs, and dominates the complexity of the problem --- the optimum solution is NP-hard.
We show the efficacy of our approach through simulations results and 3 target sensitive RT applications enhanced with the gravitational task model.
A Multi-Phase Flow Model Incorporated with Population Balance Equation in a Meshfree Framework
(2011)
This study deals with the numerical solution of a meshfree coupled model of Computational Fluid Dynamics (CFD) and Population Balance Equation (PBE) for liquid-liquid extraction columns. In modeling the coupled hydrodynamics and mass transfer in liquid extraction columns one encounters multidimensional population balance equation that could not be fully resolved numerically within a reasonable time necessary for steady state or dynamic simulations. For this reason, there is an obvious need for a new liquid extraction model that captures all the essential physical phenomena and still tractable from computational point of view. This thesis discusses a new model which focuses on discretization of the external (spatial) and internal coordinates such that the computational time is drastically reduced. For the internal coordinates, the concept of the multi-primary particle method; as a special case of the Sectional Quadrature Method of Moments (SQMOM) is used to represent the droplet internal properties. This model is capable of conserving the most important integral properties of the distribution; namely: the total number, solute and volume concentrations and reduces the computational time when compared to the classical finite difference methods, which require many grid points to conserve the desired physical quantities. On the other hand, due to the discrete nature of the dispersed phase, a meshfree Lagrangian particle method is used to discretize the spatial domain (extraction column height) using the Finite Pointset Method (FPM). This method avoids the extremely difficult convective term discretization using the classical finite volume methods, which require a lot of grid points to capture the moving fronts propagating along column height.
The interest of the exploration of new hydrocarbon fields as well as deep geothermal reservoirs is permanently growing. The analysis of seismic data specific for such exploration projects is very complex and requires the deep knowledge in geology, geophysics, petrology, etc from interpreters, as well as the ability of advanced tools that are able to recover some particular properties. There again the existing wavelet techniques have a huge success in signal processing, data compression, noise reduction, etc. They enable to break complicate functions into many simple pieces at different scales and positions that makes detection and interpretation of local events significantly easier.
In this thesis mathematical methods and tools are presented which are applicable to the seismic data postprocessing in regions with non-smooth boundaries. We provide wavelet techniques that relate to the solutions of the Helmholtz equation. As application we are interested in seismic data analysis. A similar idea to construct wavelet functions from the limit and jump relations of the layer potentials was first suggested by Freeden and his Geomathematics Group.
The particular difficulty in such approaches is the formulation of limit and
jump relations for surfaces used in seismic data processing, i.e., non-smooth
surfaces in various topologies (for example, uniform and
quadratic). The essential idea is to replace the concept of parallel surfaces known for a smooth regular surface by certain appropriate substitutes for non-smooth surfaces.
By using the jump and limit relations formulated for regular surfaces, Helmholtz wavelets can be introduced that recursively approximate functions on surfaces with edges and corners. The exceptional point is that the construction of wavelets allows the efficient implementation in form of
a tree algorithm for the fast numerical computation of functions on the boundary.
In order to demonstrate the
applicability of the Helmholtz FWT, we study a seismic image obtained by the reverse time migration which is based on a finite-difference implementation. In fact, regarding the requirements of such migration algorithms in filtering and denoising the wavelet decomposition is successfully applied to this image for the attenuation of low-frequency
artifacts and noise. Essential feature is the space localization property of
Helmholtz wavelets which numerically enables to discuss the velocity field in
pointwise dependence. Moreover, the multiscale analysis leads us to reveal additional geological information from optical features.
In the first part of the thesis we develop the theory of standard bases in free modules over (localized) polynomial rings. Given that linear equations are solvable in the coefficients of the polynomials, we introduce an algorithm to compute standard bases with respect to arbitrary (module) monomial orderings. Moreover, we take special care to principal ideal rings, allowing zero divisors. For these rings we design modified algorithms which are new and much faster than the general ones. These algorithms were motivated by current limitations in formal verification of microelectronic System-on-Chip designs. We show that our novel approach using computational algebra is able to overcome these limitations in important classes of applications coming from industrial challenges.
The second part is based on research in collaboration with Jason Morton, Bernd Sturmfels and Anne Shiu. We devise a general method to describe and compute a certain class of rank tests motivated by statistics. The class of rank tests may loosely be described as being based on computing the number of linear extensions to given partial orders. In order to apply these tests to actual data we developed two algorithms and used our implementations to apply the methodology to gene expression data created at the Stowers Institute for Medical Research. The dataset is concerned with the development of the vertebra. Our rankings proved valuable to the biologists.
TRP-Proteine sind integrale Membranproteine, die Untereinheiten von Kationenkanälen bilden, die z.B. an der Schmerz und Temperaturwahrnehmung, der Absorption von Mg2+ und Ca2+ im Darm und in der Niere oder für die Freisetzung von Entzündungsmediatoren in Immunzellen verantwortlich sind.
Das in der vorliegenden Arbeit untersuchte TRPV6-Protein stellt einen hochselektiven Ca2+¬-Kanal dar, der für den tranzellulären Ca2+-Transport in Endothelzellen des Dünndarms und der Plazenta verantwortlich ist und für den bisher noch kein hochaffiner Agonist bekannt ist. Das niedrig exprimierte, integrale Membranprotein konnte ich erstmal im Rahmen meiner Diplomarbeit aus humaner Plazenta zusammen mit Annexin A2 und Cyclophilin B (CyPB) anreichern. Diese putative Interaktion zwischen dem Ionenkanal und CyPB wird im Rahmen meiner Doktorarbeit mit Coimmunpräzipitation, Saccharosedichtegradientenzentrifugation, Peptidblotanalyse und GST-Pulldown-Analysen untersucht. Hierbei kann die TRPV6-CyPB-Interaktion in Immunpräzipitationen mit unabhängigen Antikörpern bestätigt werden. Die Ergebnisse der Dichtegradientenzentrifugation belegen die Existenz von TRPV6-Multimeren bzw. von TRPV6 enthaltenden Multiproteinkomplexen. Unter diesen Bedingungen ist allerdings keine CyPB-Assoziation mit dem TRPV6-Protein festzustellen. Das Einengen der Bindestelle von CyPB im TRPV6-Protein mittels Peptidblot- und GST-Pulldown-Analyse führt zur der potentiellen Bindungsstelle mit der minimalen Aminosäuresequenz Y66EDCKV71.
Meine Ergebnisse waren Ausgangspunkt für die funktionelle Charakterisierung der TRPV6-CyPB-Interaktion in Xenopus laevis Oozyten, die zeigt, dass CyPB den Ionenkanal aktiviert. Die Bindung zwischen beiden Proteinen ist offenbar wenig affin und scheint nur unter den gegebenen Solubilisierungsbedingungen nachweisbar.
Zur Erhaltung möglicher kalziumabhängiger Proteinbindungen wird die zuvor benutzte mehrstufige TRPV6-Affinitätschromatographie, bestehend aus einer CaM- und einer TRPV6-Antikörpersäule, durch eine einstufige Affinitätsreinigung ersetzt. Zur Solubilisierung und Isolierung des TRPV6-enthaltenden Proteinkomplexes eignen sich hierbei insbesondere die nichtionischen Detergenzien Dodecyl-β-D-maltosid (DDM) und Digitonin.
Zur Auftrennung und Untersuchung der isolierten TRPV6-Proteinkomplexe kann weiterhin eine zweidimensionale Blue Native-Gelelektrophorese (BN-PAGE) etabliert und die daraus isolierten Proteine massenspektrometrisch analysiert werden. Für die Auftrennung der TRPV6-Proteinkomplexe in der BN-PAGE eigenen sich ebenfalls am besten die nichtionischen Detergenzien DDM und Digitonin. Das TRPV6-Protein wird nach der nativen BN-PAGE als Bestandteil eines oder mehrerer Proteinkomplexe mit einem Molekulargewicht von 440 - 670 kDa detektiert.
Abschließend wird die Übertragbarkeit der für TRPV6 etablierten Vorgehensweise zur Isolierung von Membranproteinkomplexen auf andere TRP-Kanalproteine in verschiedenen Geweben gezeigt. So kann TRPV6 aus Mausplazenta und das TRPC6-Membranprotein aus murinen Mastzellen und Mauslungengewebe mittels Coimmunpräzipitation und Affinitätschromatographie isoliert und spezifisch detektiert werden.
The goal of this thesis is to find ways to improve the analysis of hyperspectral Terahertz images. Although it would be desirable to have methods that can be applied on all spectral areas, this is impossible. Depending on the spectroscopic technique, the way the data is acquired differs as well as the characteristics that are to be detected. For these reasons, methods have to be developed or adapted to be especially suitable for the THz range and its applications. Among those are particularly the security sector and the pharmaceutical industry.
Due to the fact that in many applications the volume of spectra to be organized is high, manual data processing is difficult. Especially in hyperspectral imaging, the literature is concerned with various forms of data organization such as feature reduction and classification. In all these methods, the amount of necessary influence of the user should be minimized on the one hand and on the other hand the adaption to the specific application should be maximized.
Therefore, this work aims at automatically segmenting or clustering THz-TDS data. To achieve this, we propose a course of action that makes the methods adaptable to different kinds of measurements and applications. State of the art methods will be analyzed and supplemented where necessary, improvements and new methods will be proposed. This course of action includes preprocessing methods to make the data comparable. Furthermore, feature reduction that represents chemical content in about 20 channels instead of the initial hundreds will be presented. Finally the data will be segmented by efficient hierarchical clustering schemes. Various application examples will be shown.
Further work should include a final classification of the detected segments. It is not discussed here as it strongly depends on specific applications.
Die Kopplung der Schalen mehrschichtiger Stahlbetonwandtafeln mit innenliegender
Wärmedämmung kann mit stabförmigen Verbindungsmitteln aus
glasfaserverstärktem Kunststoff (GFK) erfolgen. Diese Verankerungen weisen
gegenüber Edelstahlverankerungen Vorteile hinsichtlich der Dauerhaftigkeit und des
thermischen Verhaltens auf. Infolge der begrenzten Verformbarkeit der
Verbindungsmittel und zur Sicherstellung der Verankerung der Verbindungsmittel in
den Schalen sind für die Wandelemente neben den Nachweisen zur Tragfähigkeit
auch Nachweise im Grenzzustand der Gebrauchstauglichkeit zu führen.
Gegenstand der vorliegenden Arbeit ist die wirklichkeitsnahe Ermittlung der
Schnittgrößen in der Vorsatzschale und die Berechnung der Relativverschiebung
zwischen den Schalen als Grundlage der Nachweiseführung. Insbesondere bei
hohen, schlanken Wandelementen ist das Verbundtragverhalten unter Einbeziehung
der innenliegenden Wärmedämmschicht dieser Bauteile zu berücksichtigen.
In einem ersten Bearbeitungsschritt erfolgt ein umfangreiches Versuchsprogramm
zur Analyse des Last-Verformungsverhaltens der Verbundfuge unter
Scherbeanspruchung. Darauf basierend wird ein mechanisches Modell entwickelt,
das eine allgemeingültige Berechnung der Verbundfugensteifigkeit als Grundlage der
weiteren Untersuchungen ermöglicht.
Aufbauend auf diesen Erkenntnissen werden in einem zweiten Bearbeitungsschritt
Lösungen dargelegt, welche die Berechnung der Funktionsverläufe der Schnitt- und
Verformungsgrößen aus der Verbundtragwirkung ermöglichen. Grundlage ist das
gekoppelte Differentialgleichungssystem der Sandwichtheorie. Für relevante Lastfälle
und Lagerungsbedingungen werden geschlossene, analytische Gleichungen zur
Berechnung der Extremalwerte erarbeitet. Das Berechnungsmodell wird im Rahmen
einer Versuchsreihe an mehrschichtigen Stahlbetonplattenstreifen mit den
Versuchsergebnissen verifiziert. Zur Abgrenzung von Fällen, bei denen auf eine
aufwändige Berücksichtigung der Verbundtragwirkung verzichtet werden kann,
werden Parameterstudien durchgeführt und praxisrelevante Fälle ausgewertet.
Abschließend werden grafische Berechnungshilfsmittel zur Ermittlung der maximalen
Zustandsgrößen infolge der Verbundtragwirkung angegeben.
Im dritten Teil der Arbeit wird der spezielle Fall des Einflusses einer
Ortbetonverfüllung auf das Schnittkraft- und Verformungsverhalten mehrschichtiger
Stahlbetonwandelemente betrachtet. Im Ergebnis der Untersuchungen wird
festgestellt, dass der Betonierdruck eine dauerhafte, nicht zu vernachlässigende
Vorspannung der Verbindungsmittel zur Folge hat. Für die Bemessung der
Verbindungsmittel unter Zugbeanspruchung wird empfohlen, 40% des rechnerischen
Frischbetondrucks als Zugbeanspruchung auf die Verbindungsmittel anzusetzen.
Weiterführende Untersuchungen zum Einfluss der Fugenvorspannung auf die
Schnitt- und Verformungsgrößen infolge Verbundwirkung ergeben, dass diese nicht
signifikant ist.
Mischungen aus Aldehyden und Alkoholen sind für zahlreiche technische Prozesse von Bedeutung. Bei der Auslegung solcher Prozesse muss berücksichtigt werden, dass Aldehyde mit Alkoholen in einer Additions-Eliminierungsreaktion zu Halbacetalen reagieren. Zurzeit erhält man genaue Angaben zum Reaktionsgleichgewicht, die für technische Anwendungen ausreichend sind, fast ausschließlich aus experimentellen Untersuchungen.
Eine Vorhersage solcher Gleichgewichtskonstanten (für Reaktionen in der Gasphase) ist prinzipiell auch mit Hilfe quantenchemischer Methoden möglich. Für die interessierenden Reaktionen der untersuchten Aldehyde und Alkohole fehlen sowohl experimentelle Ergebnisse als auch mit Hilfe der Quantenchemie berechnete Zahlenwerte.
Ziel der Arbeit war es, die Reaktionsgleichgewichte einiger wichtiger Reaktionen eines Aldehyds mit einem Alkohol zu Halbacetalen experimentell zu bestimmen und mit Ergebnissen quantenchemischer Vorhersagen zu vergleichen.
Für 21 Systeme (aus sieben Aldehyden und drei Alkoholen) wurden Pseudogleichgewichtskonstanten in der flüssigen Phase im Temperaturbereich zwischen ca. 255 K und 295 K experimentell mittels \( ^{13}\)C-NMR-Spektroskopie ermittelt. Dazu wurden binäre Mischungen aus jeweils einem Aldehyd und einem Alkohol gravimetrisch hergestellt und nach Einstellung des Gleichgewichts experimentell untersucht. Die im Experiment erhaltenen Pseudogleichgewichtskonstanten wurden mit Hilfe einer Gruppenbeitragsmethode für die Gibbsche Exzessenergie der flüssigen Mischungen zu Gleichgewichtskonstanten umgerechnet.
Parallel dazu wurden für die experimentell untersuchten Reaktionen die Gleichgewichtskonstanten in der Gasphase mit quantenchemischen Methoden berechnet. Als quantenchemische Methode wurde der Dichtefunktionaltheorieansatz B3LYP gewählt, der für die Berechnungen sowohl mit dem (kleinen) Pople-Basissatz 6-31G(d) scale als auch mit dem (größeren) Dunning-Basissatz cc-pVTZ scale kombiniert wurde.
Im theoretischen Teil wurde nur die Hauptreaktion - die Bildung der Halbacetale I aus Aldehyd und Alkohol - berücksichtigt und die Folgereaktionen nicht untersucht.
Aus zeitlichen Gründen konnten für den größeren (rechenzeitintensiven) Basissatz nicht alle experimentell untersuchten Reaktionen betrachtet werden. Unter Verwendung von Dampfdrücken der beteiligten Komponenten wurden die Rechenwerte auf die flüssige Phase umgerechnet. Die dazu erforderlichen Dampfdrücke der Halbacetale wurden mit Hilfe von Korrelationsgleichungen abgeschätzt.
Der Vergleich von Messwerten mit Rechenwerten für die Gleichgewichtskonstanten der untersuchten chemischen Reaktionen zeigte, dass die verwendeten quantenchemischen Methoden i.d.R. nicht in der Lage sind, das Gleichgewicht zuverlässig vorherzusagen.
In den letzten Jahren stieg aufgrund eines zunehmenden Ernährungsbewusstseins die Nachfrage nach Lebensmitteln mit gesundheitsfördernden Inhaltsstoffen an. Dabei wird vor allem einer Ernährung reich an Obst und Gemüse protektive Eigenschaften zugesprochen. Besonders für sekundäre Pflanzenstoffe wie die Gruppe der Anthocyane werden positive gesundheitliche Eigenschaften, wie antiinflammatorische-, antioxidative- und chemo-präventive Wirkungen postuliert. Für die beschriebenen biologischen Wirkmechanismen ist jedoch die Verfügbarkeit der Anthocyane am Ort der Resorption von entscheidender Bedeutung. Im pharmazeutischen Bereich werden Verkapselungstechniken angewandt, um das Erreichen des Wirkstoffs am potentiellen Wirkort zu gewährleisten. Vorrausetzung ist jedoch, dass die Bioaktivität des Wirkstoffs dabei nicht herabgesetzt wird.
Im Rahmen der vorliegenden Arbeit wurde die Modulation der Stabilität und der Freisetzung der Anthocyane anhand von unterschiedlichen Wildheidelbeerextrakt (Vaccinium myrtillus L., HBE)-beladenen Verkapselungssystemen im Vergleich zu nicht verkapseltem HBE unter Bedingungen des Gastrointestinaltrakts untersucht. Die HBE-beladenen Kapselsysteme (Pektinamidhohl-, Molkenprotein-, multidisperse Hüll- und Apfelpektin¬kapseln) wurden von verschiedenen Projektpartnern des Clusterprojekts „Bioaktive Inhaltsstoffe aus mikrostrukturierten Multikapselsystemen: Untersuchungen zum Einfluss der Mikrostruktur und der molekularen Zusammensetzung auf die Stabilisierung und kontrollierte Freisetzung von sekundären Pflanzenstoffen und deren Auswirkung auf biologische Signalparameter“ zur Verfügung gestellt. Ein weiterer Schwerpunkt dieser Arbeit bildeten Untersuchungen, ob Kapselsysteme einen Einfluss auf die biologische Aktivität von Inhaltsstoffen des HBE ausüben.
In Kooperation mit dem Arbeitskreis von Prof. Mäder (Uni Halle) wurden in vitro Systeme zur Simulation der Magen- und Dünndarmpassage eingesetzt, um die Freisetzung der Anthocyane aus HBE-beladenen Kapselpräparaten vergleichend zum HBE zu untersuchen. Anschließend erfolgte am Beispiel der Anthocyane die Erfassung der Anthocyangehalte mittels HPLC-UV/VIS. Die Anthocyanfreisetzung fand unabhängig vom Kapseltyp während der Magensaftsimulation innerhalb von 10 min statt. Die freigesetzten Anthocyane erwiesen sich als stabil über den restlichen Inkubationszeitraum von 2 h. Anthocyane liegen beim pH-Wert des Magens (pH 1.5) als stabilisierte Flavyliumkationen vor, wodurch ihr Abbau verhindert wird. Im Gegensatz dazu wurde während der Dünndarmsimulation (pH 6.8) eine Abnahme der Anthocyankonzentration des HBE festgestellt. Durch den Einsatz von Verkapselungstechniken konnten unabhängig vom Kapseltyp die Freisetzung und Stabilität der Anthocyane signifikant erhöht werden. Zusätzlich wurde gezeigt, dass Proteine (Molkenproteine), die vom Arbeitskreis Prof. Kulozik (TU München) zur Verfügung gestellt wurden, die Anthocyane während der Dünndarmsimulation stabilisierten.
Des Weiteren wurde ein ex vivo Modell mit humanem Dünndarminhalt von Patienten mit künstlichem Darmausgang (Ileostoma) zur weiterführenden Untersuchung der Stabilität und Freisetzung von Anthocyanen des HBE etabliert. Mit steigender HBE Konzentration wurde ein verzögerter Abbau der Anthocyane beobachtet. Zusätzlich zu den Inkubationen in humanem Dünndarminhalt (pH 6.3) wurde HBE in einem Reduktionspuffer (pH 6.3) vergleichend inkubiert. Dabei ergaben sich Hinweise, dass ein Abbau der Anthocyane durch intestinale Enzyme oder mikrobielle Enzymaktivitäten erfolgte. In Inkubationen der unterschiedlichen HBE-beladenen Kapselsysteme mit humanem Dünndarminhalt wurde eine Freisetzung der Anthocyane im Zeitraum bis zu 8 h gemessen. Dabei ergab sich eine Kompensation des Anthocyanabbaus durch kontinuierliche Freisetzung.
Mittels der durchgeführten Freisetzungs- und Stabilitätsuntersuchungen konnte gezeigt werden, dass die vorliegenden Verkapselungstechniken zu einer unerwünschten Freisetzung der Anthocyane während der Magenpassage führten. Im Dünndarmmilieu trugen diese Kapselsysteme zu einer kontinuierlichen Freisetzung, einer damit einhergehenden Kompensation des Anthocyanabbaus und somit höheren Wirkstoffkonzentrationen am potentiellen Wirkort bei. Folglich ist es in Zukunft notwendig, die Kapselsysteme so zu optimieren, dass eine Anthocyanfreisetzung im Magen verhindert wird und somit die intakten Kapseln den Dünndarm erreichen.
Ein weiterer Schwerpunkt der vorliegenden Arbeit war mittels in vitro Experimenten an den humanen Darmkrebszelllinien Caco-2 und HT-29 zu prüfen, ob die verwendeten Verkapselungssysteme einen Einfluss auf die biologische Wirksamkeit der Anthocyane ausüben. Zusätzlich sollte untersucht werden, welche Subfraktionen des HBE (Anthocyan-, Polymer- und Phenolcarbonsäurefraktion), die vom Arbeitskreis Prof. Winterhalter (TU Braunschweig) zur Verfügung gestellt wurden, zu dessen biologischen Wirksamkeit beitragen.
Um eine Aussage über potentielle zytotoxische Effekte des HBE, der HBE-Subfraktionen und der HBE-beladenen Kapselsysteme auf humane Darmkrebszellen treffen zu können, wurde der Farbreaktionstest „Alamar blue Assay“, in dem die mitochondriale Aktivität als Maß für die Vitalität der Zelle bestimmt wird, durchgeführt. Die antioxidative Wirksamkeit wurde als Modulation unterschiedlicher Biomarker, wie oxidative DNA-Schäden, der Gehalt an Glutathion und die Reduktion intrazellulärer reaktiver Sauerstoffspezies (ROS), in Kurz- und Langzeitinkubationen untersucht.
Es zeigte sich, dass weder der HBE noch die eingesetzten HBE-Subfraktionen (Anthocyan-, Polymer- und Phenolcarbonsäurefraktion) zytotoxische Wirkungen an der Zelllinie Caco-2 aufwiesen. Eine antioxidative Wirksamkeit wurde in der Erhöhung des Glutathiongehalts durch Zellinkubation mit HBE und Phenolcarbonsäurefraktion im Konzentrationsbereich von 100 - 500 µg/ml nachgewiesen. Des Weiteren wurde eine Abnahme des Gehalts an induzierten intrazellulären ROS (50 - 500 µg/ml HBE), sowie eine Erniedrigung Menadion-induzierter oxidativer DNA-Schäden (5 - 50 µg/ml HBE) beobachtet. Inkubationen mit Anthocyan- und Polymerfraktion zeigten keine antioxidativen Effekte in den verwendeten Zellsystemen. Diese Ergebnisse verdeutlichen, dass nur die Phenolcarbonsäurefraktion zur antioxidativen Kapazität des HBE beiträgt.
In Inkubationen mit multidispersen Hüllkapseln stellte sich heraus, dass diese aufgrund ihrer äußeren Ölphase in dieser Formulierung nicht für die in vitro Experimente geeignet waren, da die Ölphase ein Aufschwimmen im Zellkulturmedium bewirkte. Von den eingesetzten Kapselsystemen wurde lediglich bei Inkubationen mit Molkenprotein- und Apfelpektinkapseln im Konzentrationsbereich von 50 - 500 µg/ml eine signifikante Reduktion der Zellvitalität beobachtet. Eine tendenzielle Erhöhung des Glutathiongehalts der Zelle (100 - 500 µg/ml), eine Erniedrigung der induzierten ROS (100 - 500 µg/ml) und eine Reduktion Menadion-induzierter oxidativer DNA-Schäden (5 - 10 µg/ml) wurde nach Inkubation mit den Kapselsystemen (Pektinamidhohl-, Molkenprotein- und Apfelpektinkapseln) nachgewiesen. Das antioxidative Potential des HBE wurde durch die Verkapselungstechniken nicht reduziert.
Die Ergebnisse dieser Arbeit zeigen, dass sowohl der HBE, die Phenolcarbonsäurefraktion als auch die HBE-beladenen Kapselsysteme antioxidativ wirksam (Erhöhung des GSH-Gehalts, Erniedrigung der intrazellulären ROS und Schutz vor oxidativen DNA-Schäden) sind. Welche weiteren Inhaltstoffe zur Wirksamkeit des HBE beitragen muss in weiterführenden in vitro Studien charakterisiert werden. Insgesamt führte der Einsatz von Verkapselungstechniken zu keiner Reduzierung der biologischen Wirksamkeit bei gleichzeitiger Stabilisierung der Anthocyane des HBE. Damit stellen Kapselsysteme eine gute Möglichkeit dar, die Freisetzung bioaktiver Stoffe im Körper zu steigern, ohne deren Effektivität zu beeinflussen. Die in dieser Arbeit beobachteten in vitro Effekte auf ausgewählte Biomarker des oxidativen Stresses, müssten in weiterführenden in vivo Studien verifiziert werden.