Refine
Year of publication
- 2006 (139) (remove)
Document Type
- Doctoral Thesis (69)
- Report (33)
- Periodical Part (14)
- Preprint (14)
- Working Paper (3)
- Diploma Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Moving Images (1)
- Study Thesis (1)
Keywords
- Elastic BVP (3)
- Apfelsaft (2)
- Apoptosis (2)
- Approximation (2)
- Curved viscous fibers (2)
- Elastisches RWP (2)
- Elastoplastisches RWP (2)
- Fluid dynamics (2)
- Hysterese (2)
- IMRT (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (31)
- Fraunhofer (ITWM) (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich ARUBI (10)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (2)
- Universitätsbibliothek (2)
- Universität (1)
Die Kanzerogenität von Dioxinen ist bisher am besten an der Prototyp“-Verbindung 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD) untersucht worden. TCDD wurde im Jahr 1997 von der International Agency for Research on Cancer (IARC) als Klasse I Kanzerogen eingestuft, obwohl bislang die Mechanismen der kanzerogenen Wirkung von TCDD noch nicht hinreichend geklärt werden konnten. Im Rahmen dieser Arbeit wurde von der Arbeitshypothese ausgegangen, dass TCDD über die durch den Arylhydrocarbon Rezeptor (AhR) massiv vermittelte Induktion von fremdstoffmetabolisierenden Phase I Enzymen, vor allem von CYP1A1, eine erhöhte Bildung reaktiver Sauerstoffspezies verursacht, welche die DNA schädigen können und potenziell mutagen sind. Im Rahmen der vorliegenden Arbeit wurde ein System entwickelt, das ausreichend große Mengen an CYP1A1 exprimieren sollte ohne dass zuvor eine das Studienergebnis möglicherweise verfälschende Behandlung mit einem AhR-Agonisten (z.B. TCDD) stattgefunden hat. Erstes Ziel war die Etablierung eines geeigneten in-vivo Systems, nämlich die Erzeugung einer transgenen, humanes CYP1A1 überexprimierenden Maus. Das humane CYP1A1 Transgen wurde in den generierten, transgenen Mauslinien nicht wie erwartet exprimiert, obwohl die Integration in das Genom der Mäuse zweifelsfrei nachgewiesen werden konnte. Zwar konnte eine Induktion von hCYP1A1 in verschiedenen Organen der Mäuse auf mRNA Ebene nachgewiesen werden, allerdings wurde im Vergleich zu Wildtyp Tieren weder eine Steigerung der CYP1A1 Proteinmenge noch deren katalytischer Aktivität erzielt. Im zweiten Teil der Arbeit wurden in-vivo Untersuchungen hinsichtlich oxidativem Stress und DNA-Schädigung an TCDD behandelten C57B6 Mäusen und Sprague-Dawley Ratten bzw. an deren entsprechenden Kontrollen, sowie an transgenen Mäusen mit konstitutiv aktivem AhR (CA-AhR) durchgeführt. Die CA-AhR Linie bot eine weitere Möglichkeit, die Auswirkungen der AhR-vermittelten Genexpression ohne Verwendung eines AhR-Liganden in-vivo zu untersuchen. Als Messparameter für oxidativen Stress wurde der auf Fluoreszenz basierende H2DCFDA Assay im 96 Well Format etabliert. Als Marker für oxidative DNA-Schäden wurde der Gehalt an 8-oxo dG in genomischer DNA individueller Proben mittels HPLC-MS quantifiziert. Ob evtl. erhöhte ROS Gehalte bzw. DNA Schäden nach TCDD Expostition in einen direkten Zusammenhang mit AhR-regulierten CYP1A Induktion stehen wurde durch die Analyse der katalytischen CYP1A Aktivität mittels EROD-Assay überprüft. Die gefundenen Ergebnisse wiesen darauf hin, dass die ROS Bildung möglicherweise auch im in-vivo Experiment davon abhängt, wie stark TCDD als Induktor von CYP1A Enzymen wirkt. Die Daten zeigten aber auch, dass es sich in-vivo bei der TCDD vermittelten Induktion von oxidativen DNA-Schäden vermutlich um einen chronischen Langzeiteffekt handelt, der nicht ausschließlich von TCDD Leberlast oder CYP1A Enzyminduktion abzuhängen scheint. Mit Hilfe von Mikrosomen (SupersomesTM) aus stabil transfizierten Insektenzellen wurde des weiteren das individuelle ROS-Bildungspotenzial einzelner, AhR-regulierter CYP-Enzyme mittels H2DCFDA Assay untersucht. Die SupersomesTM Experimente bestätigten generell die Hypothese, dass TCDD induzierte CYPs eine potenzielle Quelle für ROS darstellen. Generell konnte die Hypothese bestärkt werden, dass die ROS Bildung nach TCDD Exposition eine Konsequenz der AhR vermittelten CYP Induktion darstellt. Isolierte RNA aus den Lebern von Mäusen wurde mit Hilfe von Microarrays auf Veränderungen der Genexpressionsmuster untersucht, die Hinweise auf gentoxischen bzw. oxidativen Stress und andere prokarzinogene Veränderungen als Konsequenz einer TCDD Exposition bzw. der konstitutiven Aktivität des AhR geben sollten. Die (permanente) Aktivierung des AhR führte einerseits in der Leber von Mäusen generell zu einem erhöhten oxidativen Stress. Andererseits konnte gezeigt werden, dass pro- und antiapoptotische Signalwege an diesem Prozess beteiligt zu sein scheinen, möglicherweise als Konsequenz des induzierten oxidativen Stresses.
Connectedness of efficient solutions is a powerful property in multiple objective combinatorial optimization since it allows the construction of the complete efficient set using neighborhood search techniques. In this paper we show that, however, most of the classical multiple objective combinatorial optimization problems do not possess the connectedness property in general, including, among others, knapsack problems (and even several special cases of knapsack problems) and linear assignment problems. We also extend already known non-connectedness results for several optimization problems on graphs like shortest path, spanning tree and minimum cost flow problems. Different concepts of connectedness are discussed in a formal setting, and numerical tests are performed for different variants of the knapsack problem to analyze the likelihood with which non-connected adjacency graphs occur in randomly generated problem instances.
This thesis discusses methods for the classification of finite projective planes via exhaustive search. In the main part the author classifies all projective planes of order 16 admitting a large quasiregular group of collineations. This is done by a complete search using the computer algebra system GAP. Computational methods for the construction of relative difference sets are discussed. These methods are implemented in a GAP-package, which is available separately. As another result --found in cooperation with U. Dempwolff-- the projective planes defined by planar monomials are classified. Furthermore the full automorphism group of the non-translation planes defined by planar monomials are classified.
A translation contract is a binary predicate corrTransl(S,T) for source programs S and target programs T. It precisely specifies when T is considered to be a correct translation of S. A certifying compiler generates --in addittion to the target T-- a proof for corrTransl(S,T). Certifying compilers are important for the development of safety critical systems to establish the behavioral equivalence of high-level programs with their compiled assembler code. In this paper, we report on a certifying compiler, its proof techniques, and the underlying formal framework developed within the proof assistent Isabelle/HOL. The compiler uses a tiny C-like language as input, has an optimization phase, and generates MIPS code. The underlying translation contract is based on a trace semantics. We investigate design alternatives and discuss our experiences.
Web-based authentication is a popular mechanism implemented by Wireless Internet Service Providers (WISPs) because it allows a simple registration and authentication of customers, while avoiding the high resource requirements of the new IEEE 802.11i security standard and the backward compatibility issues of legacy devices. In this work we demonstrate two different and novel attacks against web-based authentication. One attack exploits operational anomalies of low- and middle-priced devices in order to hijack wireless clients, while the other exploits an already known vulnerability within wired-networks, which in dynamic wireless environments turns out to be even harder to detect and protect against.
Der Begriff ‚Risiko’ ist heutzutage durch Gesetzesänderungen, wie das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich [KonTraG] und Verordnungen wie Basel II sowie spektakuläre Unternehmenszusammenbrüche, aber auch verstärkt wahrgenommene alltägliche Gefahren, in aller Munde. In der betriebswirtschaftlichen Forschung ist der Begriff schon seit vielen Jahrzehnten bekannt und findet eine häufige Anwendung. Immer wieder wird festgestellt, dass dieser langjährige Risikodiskurs nicht zu einer Präzisierung der Begrifflichkeit geführt hat. Da die Risikodefinition Ausgangspunkt der betriebswirtschaftlichen Beschäftigung mit Risiko darstellt, Begriffsklarheit Grundlage jeder ernsten Forschung ist und Aussagen über die Realität voraussetzen, dass ein Zusammenhang zwischen Sprache und Realität gebildet wurde, bildet die Festlegung eines Risikobegriffes einen essentiellen Anfangspunkt für das weitere Vorgehen in Wissenschaft und Praxis. Bei der hier gewählten Vorgehensweise ist es nicht das Ziel, über die Sezierung jedes einzelnen Begriffes und der Ansicht der einzelnen Autoren den ‚wahren’ Risikobegriff zu finden. Dies ist darauf zurückzuführen, dass keine ‚wahren’ Definitionen existieren, sondern eine Definition immer nur mehr oder weniger zweckmäßig sein kann. Damit ist die Grundlage dieser Analyse, dass die meisten Definitionen aus dem Blickwinkel ihres Zweckes eine bestimmte Relevanz haben und folglich die Perspektive wesentlich für die Aufstellung der Risikodefinition ist. Infolgedessen liegt das Hauptziel der Ausführungen darin, die Breite der existierenden Begrifflichkeiten in strukturierter Art und Weise darzustellen und damit eine Hilfestellung beim Auffinden der adäquaten Definition für jeden Anwendungsfall zu geben. Zur Strukturierung wird auf das Hilfsmittel des semantischen Kastens zurückgegriffen. Zur Analyse der Verwendung der einzelnen Begriffsmerkmale des gebildeten semantischen Kastens wird die breite Basis an existierenden Risikodefinitionen verwendet, um eine quantitativ-deskriptive Publikationsanalyse auf Basis der Inhaltsanalyse durchzuführen.
Multileaf Collimators (MLC) consist of (currently 20-100) pairs of movable metal leaves which are used to block radiation in Intensity Modulated Radiation Therapy (IMRT). The leaves modulate a uniform source of radiation to achieve given intensity profiles. The modulation process is modeled by the decomposition of a given non-negative integer matrix into a non-negative linear combination of matrices with the (strict) consecutive ones property.
Over a period of 30 years, ITU-T’s Specification and Description Language (SDL) has matured to a sophisticated formal modelling language for distributed systems and communication protocols. The language definition of SDL-2000, the latest version of SDL, is complex and difficult to maintain. Full tool support for SDL is costly to implement. Therefore, only subsets of SDL are currently supported by tools. These SDL subsets - called SDL profiles - already cover a wide range of systems, and are often suffcient in practice. In this report, we present our approach for extracting the formal semantics for SDL profiles from the complete SDL semantics. We then formalise the approach, present our SDL-profile tool, and report on our experiences.
Die Inhalte der in zwei verschiedenen Bundesländern angebotenen Weiterbildungsveranstaltungen für Lehrer und Lehrerinnen aus dem psychologischen Themenfeld wurden den Themenbereichen des Rahmencurriculums "Psychologie in den Lehramtsstudiengängen" der Deutschen Gesellschaft für Psychologie (DGPs, 2002) zugeordnet. Sodann wurden die Angebote der Weiterbildungsinstitute mit Relevanzeinschätzungen derselben Themenbereiche durch Lehrkräfte aller Schularten verglichen. Diese Relevanzeinschätzungen waren in einer Fragebogenstudie (Dutke & Singleton, 2006a,b) von 233 Lehrkräften erhoben worden. Angebots- und Relevanzprofile waren korreliert. Im Vergleich zu den Relevanzurteilen unterrepräsentiert waren Themen wie motivationale und emotionale Bedingungen des Lernens und Lehrens, Interventionsmöglichkeiten bei Lern- und Leistungsauffälligkeiten oder der Umgang mit sozial-emotional auffälligem Verhalten. Im Angebot eher überrepräsentiert schienen Grundlagenfragen der Beratung und Intervention zu sein. Implikationen einer nachfrageorientierten Gestaltung der Weiterbildungsangebote sowie Konsequenzen für die Positionierung der Psychologie im Weiterbildungssektor für Lehrkräfte werden diskutiert.
Die Raumplanung als das Instrument der Gestaltung und Steuerung der Raumentwicklung sieht sich aufgrund gesellschaftlicher Entwicklungen in Richtung einer zunehmenden Ökonomisierung gesellschaftlicher Bereiche, einer verstärkten Individualisierung der Gesellschaft, der anhaltenden Ausdifferenzierung der Lebensstile und einer stetig zunehmende Skepsis bzw. Ablehnung staatlicher Vorgaben, einem zunehmenden Rechtfertigungsdruck gegenüber. Die Flächennutzungsplanung als örtliche Gesamtplanung steht mit ihrer Stellung zwischen zunehmend „schlankeren“ Regionalplänen und zunehmend Vorhaben- und projektorientierten Bebauungsplänen dabei in einem besonderen Spannungsfeld. Einerseits wird die Bedeutung einer zeitgemäßen städtebaulichen Gesamtplanung als Steuerungsinstrument für die Entwicklung der Gemeinde angesichts dieser Trends immer wichtiger und die Flächennutzungsplanung als Instrument in seiner Funktion vom Gesetzgeber mit den letzten zwei Baurechtsnovellen gestärkt. Andererseits kommt gerade der Flächennutzungsplanung in der Praxis nicht die vom Gesetzgeber vorgesehene strategische Bedeutung zu. Dabei fehlt es bisher an einer systematischen Erhebung der Steuerungswirkung der Flächennutzungsplanung und damit auch ihrer Leistungsfähigkeit als Steuerungsinstrument. Mit dem EAG Bau 2004 wurde eine „Überprüfungsregelung“ eingeführt, die vorsieht, dass Flächennutzungspläne spätestens alle 15 Jahre nach ihrer Aufstellung überprüft und wenn nötig an neue städtebauliche Entwicklungen angepasst werden. Diese Regelung zusammen mit der Pflicht zur Durchführung eines Monitoring im Rahmen der Umweltprüfung sollte den Gemeinden die Anregung gegeben, sich regelmäßig Rechenschaft darüber abzulegen, was aus der bisherigen Flächennutzungsplanung geworden ist, welche Planungen zwischenzeitlich realisiert wurden und wie sie sich auf die städtebauliche Gesamtordnung ausgewirkt haben. Die in dieser Arbeit entwickelten konzeptionellen und methodischen Vorschläge für eine umfassende Evaluation der Flächennutzungsplanung mit den Bausteinen „Evaluation der Formerfordernisse“, „Evaluation der Inhalte des FNPs“ und „Evaluation der Effizienz des Planverfahrens“ bedürfen weiterer praktischer Erprobungen, bevor weitergehende Folgerungen für Lernprozesse und Verbesserungsvorschläge hinsichtlich der Steuerungswirkung der Flächennutzungsplanung und der Effizienz des Planverfahrens zur Aufstellung eines FNPs gezogen werden können. Deutlich wurde anhand des ersten Praxistests aber bereits, dass mit der entwickelten Evaluationsmethode auf der einen Seite der gesetzlichen Forderung nach einer Überprüfung der Flächennutzungsplanung nachgekommen werden kann und auf der anderen Seite nützliche Bausteine für das Monitoring und die planerische Berücksichtigung der Ergebnisse des Monitoring liefern kann. Zudem ergab der Praxistest erste Hinweise auf neuralgische Punkte in den Bereichen Steuerungswirkung der Darstellungen, der Beteiligungsphasen sowie der Effizienz des Planverfahrens, auf deren Basis Verbesserungsvorschläge formuliert werden konnten.
For the last decade, optimization of beam orientations in intensitymodulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity proles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity proles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity proles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity proles for every selection of beam orientations, making the dependence between beam orientations and its intensity proles less important. We take advantage of this property to present a dynamic algorithm for beam orientation in IMRT which is based on multicriteria inverse planning. The algorithm approximates beam intensity proles iteratively instead of doing it for every selection of beam orientation, saving a considerable amount of calculation time. Every iteration goes from an N-beam plan to a plan with N + 1 beams. Beam selection criteria are based on a score function that minimizes the deviation from the prescribed dose, in addition to a reject-accept criterion. To illustrate the eciency of the algorithm it has been applied to an articial example where optimality is trivial and to three real clinical cases: a prostate carcinoma, a tumor in the head and neck region and a paraspinal tumor. In comparison to the standard equally spaced beam plans, improvements are reported in all of the three clinical examples, even, in some cases with a fewer number of beams.
Testing a new suspension based on real load data is performed on elaborate multi channel test rigs. Usually wheel forces and moments measured during driving maneuvers are reproduced on the rig. Because of the complicated interaction between rig and suspension each new rig configuration has to prove its efficiency with respect to the requirements and the configuration might be subject to optimization. This paper deals with modeling a new rig concept based on two hexapods. The real physical rig has been designed and meanwhile built by MOOG-FCS for VOLKSWAGEN. The aim of the simulation project reported here was twofold: First the simulation of the rig together with real VOLKSWAGEN suspension models at a time where the design was not yet finalized was used to verify and optimize the desired properties of the rig. Second the simulation environment was set up in a way that it can be used to prepare real tests on the rig. The model contains the geometric configuration as well as the hydraulics and the controller. It is implemented as an ADAMS/Car template and can be combined with different suspension models to get a complete assembly representing the entire test rig. Using this model, all steps required for a real test run such as controller adaptation, drive file iteration and simulation can be performed. Geometric or hydraulic parameters can be modified easily to improve the setup and adapt the system to the suspension and the load data.
In this article, we consider the quasistatic boundary value problems of linear elasticity and nonlinear elastoplasticity, with linear Hooke’s law in the elastic regime for both problems and with the linear kinematic hardening law for the plastic regime in the latter problem. We derive expressions and estimates for the difference of the solutions of both models, i.e. for the stresses, the strains and the displacements. To this end, we use the stop and play operators of nonlinear functional analysis. Further, we give an explicit example of a homotopy between the solutions of both problems.
Die Simulation von Prüfständen und insbesondere von Baugruppen und Gesamtfahrzeugen auf Prüfständen durch Kopplung von Mehrkörpersimulation mit Modellen für Regelung und Aktuatorik leistet einen wesentlichen Beitrag zur Entwicklungszeitverkürzung. In diesem Beitrag wird ein Kooperationsprojekt vorgestellt, in dem ein Co- Simulationsmodell für die beweglichen Massen sowie die Regelung und Hydraulik eines Gesamtfahrzeugprüfstands erstellt wurde. Es wird sowohl auf die Validierung des Fahrzeugmodells durch Straßenmessungen als auch auf die Identifikation und Validierung des Prüfstandsmodells einschließlich Servohydraulik und Regelung eingegangen.
Reliable methods for the analysis of tolerance-affected analog circuits are of great importance in nowadays microelectronics. It is impossible to produce circuits with exactly those parameter specifications proposed in the design process. Such component tolerances will always lead to small variations of a circuit’s properties, which may result in unexpected behaviour. If lower and upper bounds to parameter variations can be read off the manufacturing process, interval arithmetic naturally enters the circuit analysis area. This paper focuses on the frequency-response analysis of linear analog circuits, typically consisting of current and voltage sources as well as resistors, capacitances, inductances, and several variants of controlled sources. These kind of circuits are still widely used in analog circuit design as equivalent circuit diagrams for representing in certain application tasks Interval methods have been applied to analog circuits before. But yet this was restricted to circuit equations only, with no interdependencies between the matrix elements. But there also exist formulations of analog circuit equations containing dependent terms. Hence, for an efficient application of interval methods, it is crucial to regard possible dependencies in circuit equations. Part and parcel of this strategy is the handling of fill-in patterns for those parameters related to uncertain components. These patterns are used in linear circuit analysis for efficient equation setup. Such systems can efficiently be solved by successive application of the Sherman-Morrison formula. The approach can also be extended to complex-valued systems from frequency domain analysis of more general linear circuits. Complex values result here from a Laplace transform of frequency-dependent components like capacitances and inductances. In order to apply interval techniques, a real representation of the linear system of equations can be used for separate treatment of real and imaginary part of the variables. In this representation each parameter corresponds to the superposition of two fill-in patterns. Crude bounds – obtained by treating both patterns independently – can be improved by consideration of the correlations to tighter enclosures of the solution. The techniques described above have been implemented as an extension to the toolbox Analog Insydes, an add-on package to the computer algebra system Mathematica for modeling, analysis, and design of analog circuits.
A unified approach to Credit Default Swaption and Constant Maturity Credit Default Swap valuation
(2006)
In this paper we examine the pricing of arbitrary credit derivatives with the Libor Market Model with Default Risk. We show, how to setup the Monte Carlo-Simulation efficiently and investigate the accuracy of closed-form solutions for Credit Default Swaps, Credit Default Swaptions and Constant Maturity Credit Default Swaps. In addition we derive a new closed-form solution for Credit Default Swaptions which allows for time-dependent volatility and abitrary correlation structure of default intensities.1
In this paper we propose a finite volume discretization for the threedimensional Biot poroelasticity system in multilayered domains. For the stability reasons, staggered grids are used. The discretization accounts for discontinuity of the coefficients across the interfaces between layers with different physical properties. Numerical experiments, based on the proposed discretization showed second order convergence in the maximum norm for the primary as well as flux unknowns of the system. A certain application example is presented as well.
Histondeacetylase-Inhibitoren (HDACi) stehen im Mittelpunkt zahlreicher Forschungsinteressen, seit gezeigt werden konnte, dass sie Onkoprotein-vermittelte Genrepression von bedeutenden Differenzierungsgenen in Leukämiezellen, aufheben können. Es hat sich herausgestellt, dass HDACi in vielen Tumorzellen Proliferationsstopp und Apoptose sowie teilweise Differenzierung induzieren. Gesundes Gewebe ist von diesen Auswirkungen kaum betroffen. Viele strukturell verschiedene HDACi, darunter auch die auf Grund ihrer anti-epileptischen Wirkung weltweit eingesetzte Valproinsäure (VPA), werden gegenwärtig in klinischen Studien getestet. Der therapeutische Nutzen dieser Inhibitoren scheint besonders hoch zu sein, wenn man sie mit weiteren Chemotherapeutika kombiniert. Die Ergebnisse dieser Arbeit zeigen, dass VPA den anti-leukämischen Effekt von Dexamethason in vitro und in vivo synergistisch verstärkt. Glucocorticoide (GCs) werden seit Jahrzehnten für die Therapie von Krebserkrankungen mit lymphatischem Ursprung eingesetzt. Die Glucocorticoide Prednisolon bzw. Dexamethason spielen eine Schlüsselrolle bei der Induktionstherapie gegen Akute Lymphatische Leukämie (ALL). Ein Großteil der Untersuchungen wurde an Nalm-6 Zellen durchgeführt, ursprünglich etabliert aus dem Blut eines jungen Mannes mit rezidivierender ALL. An Nalm-6 Zellen konnte gezeigt werden, dass die Behandlung mit VPA, Dexamethason und der Kombination der beiden Wirkstoffe zum programmierten Zelltod führt. Weiterhin wiesen die durchflusszytometrisch durchgeführten Messungen der Zelltodraten darauf, dass VPA und Dexamethason bezüglich der Apoptose-Induktion positiv zusammenwirken. Mit Hilfe der Calcusyn Software konnte aus den gemessenen Apoptoseraten die Stärke der Wechselwirkung zwischen den zwei Wirkstoffen berechnet werden. Die Analyse ergab einen stark synergistischen Effekt, für die kombinierte Behandlung von Nalm-6 Zellen mit VPA und Dexamethason, über den gesamten untersuchten Konzentrationsbereich. Die eingesetzten VPA-Konzentrationen deckten dabei den Bereich ab, der erfahrungsgemäß im Serum von Patienten erreicht werden kann. Auch in vier weiteren prä-B-Zelllinien führte die Behandlung mit VPA und Dexamethason zur synergistischen Apoptose-Induktion. SUP-B15 und BV-173 Zellen reagierten dabei, wie Nalm-6 Zellen, sehr sensitiv auf Dexamethason-Behandlung. Die Zelllinien SD-1 und SEM zeigten eine deutlich ausgeprägte Resistenz gegenüber dem Glucocorticoid, reagierten aber sehr stark auf VPA- und Kombinationsbehandlung. Trotz intensiver Untersuchungen ist über den molekularen Mechanismus der GC-vermittelten Apoptose nur wenig bekannt. Das ausreichende Vorhandensein eines funktionierenden Glucocorticoidrezeptors (GR) wird aber als essentiell, für das Ansprechen der Zelle auf GC-Behandlung, angesehen. Da der GR ein Transkriptionsfaktor ist, werden die Ursachen für den GC-induzierten Zelltod vornehmlich in einer veränderten Genexpression gesucht. Da HDACi ebenfalls großen Einfluss auf die Genregulation ausüben, wurden im Rahmen dieser Arbeit Genexpressionsanalysen an den behandelten Nalm-6 Zellen durchgeführt, um die Ursachen für den gefundenen Synergismus zwischen VPA und Dexamethason aufzuklären. Die Ergebnisse dieser Untersuchungen zeigten eine verstärkte Hochregulation von Proteinen, die Zellzyklusstopp und Apoptose bewirken sowie eine verstärkte Repression von Faktoren, die anti-apoptotisch bzw. wachstumsfördernd wirken, in Folge der Kombinationsbehandlung. Die starke Herunterregulierung des pro-apoptotischen Proteins Aven, durch die Wirkstoffkombination, konnte in Nalm-6 Zellen auch mittels Westernblot-Analyse auf Proteinebene nachgewiesen werden. Der potentielle Nutzen einer Kombinationstherapie mit VPA und Dexamethason konnte an einem Tiermodell für ALL überprüft werden. Das Tiermodell wurde über das Einbringen von Nalm-6 Zellen in immundefiziente SCID Mäuse generiert. Die Behandlung mit der Wirkstoffkombination führte zu einer signifikant reduzierten Infiltration von Knochenmark und Milz durch die humanen Blasten, im Vergleich zur Behandlung mit Dexamethason oder PBS als Kontrolle. Weiterhin wurde für die Tiere, die mit der Wirkstoffkombination behandelt wurden, eine signifikante Erhöhung der Überlebenswahrscheinlichkeit beobachtet. Auch für Vincristin, L Asparaginase und Daunorubicin, weitere Wirkstoffe der Induktionstherapie bei pädiatrischer ALL, konnte ein synergistisches Zusammenwirken mit VPA bezüglich der Apoptose-Induktion in Nalm-6 Zellen gezeigt werden. Die Ergebnisse der vorliegenden Arbeit zeigen, dass VPA die Effektivität der Polychemotherapie gegen ALL erhöhen könnte. Auf Grund des stark synergistischen Zusammenwirkens mit Dexamethason könnte VPA möglicherweise auch eine potentielle Alternative für schlecht verträgliche bzw. risikobehaftete Chemotherapeutika der Induktionstherapie darstellen.
This thesis deals with modeling aspects of generalized Newtonian and of non-Newtonian fluids, as well as with development and validation of algorithms used in simulation of such fluids. The main contribution in the modeling part are the introduction and analysis of a new model for the generalized Newtonian fluids, where constitutive equation is of an algebraic form. Distinction between shear and extensional viscosities leads to anisotropic viscosity model. It can be considered as a natural extension of the well known (isotropic viscosity) Carreau model, which deals only with shear viscosity properties of the fluid. The proposed model takes additionally into account extensional viscosity properties. Numerical results show that the anisotropic viscosity model gives much better agreement with experimental observations than the isotropic one. Another contribution of the thesis consists of the development and analysis of robust and reliable algorithms for simulation of generalized Newtonian fluids. For such fluids the momentum equations are strongly coupled through mixed derivatives appearing in the viscous term (unlike the case of Newtonian fluids). It is shown in this thesis, that a careful treatment of those derivatives is essential in deriving robust algorithms. A modification of a standard SIMPLE-like algorithm is given, where all the viscous terms from the momentum equations are discretized in an implicit manner. Moreover, it is shown that a block diagonal preconditioner to the viscous operator is good enough to be used in simulations. Furthermore, different solution techniques, namely projection type methods (consists of solving momentum equations and pressure correction equation) and fully coupled methods (momentum and continuity equations are solved together), are compared. It is shown, that explicit discretization of the mixed derivatives lead to stability problems. Further, analytical estimates of eigenvalue distribution for three different preconditioners, applied to the transformed system arising after discretization and linearization of the momentum and continuity equations, are provided. We propose to apply a block Gauss-Seidel preconditioner to the transformed system. The analysis shows, that this preconditioner is able to cluster eigenvalues around unity independent of the transformation step. It is not the case for other preconditioners applied to the transformed system as discussed in the thesis. The block Gauss-Seidel preconditioner has also shown the best behavior (among all preconditioners discussed in the thesis) in numerical experiments. Further contribution consists of comparison and validation of numerical algorithms applied in simulations of non-Newtonian fluids modeled by time integral constitutive equations. Numerical results from simulations of dilute polymer solutions, described by the integral Oldroyd B model, have shown very good quantitative agreement with the results obtained by differential Oldroyd B counterpart in 4:1 planar contraction domain at low Weissenberg numbers. In this case, the Weissenberg number is changed by changing the relaxation time. However, contrary to the differential Oldroyd B model, the integral one allows to perform stable simulations also in the range of high Weissenberg numbers. Moreover, very good agreement with experimental observations has been achieved. Simulations of concentrated polymer solutions (polystyrene and polybutadiene solutions), modeled by the integral Doi Edwards model, supplemented by chain length fluctuations, have shown very good qualitative agreement with the results obtained by its differential approximation in 4:1:4 constriction domain. Again, much higher Weissenberg numbers can be achieved when the integral model is used. Moreover, very good quantitative results with experimental data of polystyrene solution for the first normal stress difference and shear viscosity defined here as the quotient of a shear stress and a shear rate. Finally, comparison of the two methods used for approximating the time integral constitutive equation, namely Deformation Field Method (DFM) and Backward Lagrangian Particle Method (BLPM), is performed. In BLPM the particle paths are recalculated at every time step of the simulations, what has never been tried before. The results have shown, that in the considered geometries both methods give similar results.
Selection of new projects is one of the major decision making activities in any company. Given a set of potential projects to invest, a subset which matches the company's strategy and internal resources best has to be selected. In this paper, we propose a multicriteria model for portfolio selection of projects, where we take into consideration that each of the potential projects has several - usually conflicting - values.
Die vorliegende Arbeit beschäftigt sich mit der Synthese neuer C4,C5-funktionalisierter N-heterozyklische Carbenliganden. Der Aufbau der Liganden erfolgte über einen mehrstufigen Syntheseweg ausgehend von Glyoxyl und Trimethylamin. Das erhaltene 1,2-Diamin wurde mit Allymagnesiumchlorid in einer Additionsreaktion funktionalsiert. Anschließend erfolgte ein Ringschluß durch Umsetzung mit Triethylorthoformiat und NH4X (X = Cl, BF4, I). In einer RCM mit Grubbs 1 wurde aus den eingeführten Allylgruppen ein Cyclohexenring unter Abspaltung von Ethen gebildet. Durch eine Bromaddition bzw. Oxidation an der intramolekularen Doppelbindung wurden zwei weitere funktionalisierte Derivate synthetisiert. Das durch Oxidation entstandene trans-Diol wurde mit 3-(Triethoxysilyl)propyl- isocyanat umgesetzt, so dass ein funktionalsiertes Imidazoliumsalz synthetisiert wurde, welches eine Möglichkeit zur Immobilisierung an Kieselgel bietet. Die neu synthetisierten funktionalisierten NHC-Ligandenvorstufen wurden mit geeigneten Metallkomplexen zu NHC-Metallkomplexen umgesetzt. Dafür wurden Silber-, Rhodium-, Palladium- und Rutheniumkomplexe verwendet. Die neu hergestellten NHC-Palladium- und NHC-Rutheniumkomplexe wurden in Anwendungsreaktionen auf ihre Aktivität untersucht. Der NHC-Rutheniumkomplex besitzt eine Struktur vom Typ Hoveyda. Er wurde in einer RCM mit N,N-Diallyl-4-toluolsulfonamid als Substrat eingesetzt. Die erhaltenen Umsätze wurden mit Hoveyda II verglichen. Die NHC-Palladiumkomplexe wurden zunächst in einer Standardaminierung auf ihre Aktivität getestet. Als Testreaktion wurde die Umsetzung von p-Bromtolul mit Morpholin audgewählt. Es erfolgte ein Vergleich mit anderen Palladiumkatalysatoren: SIMes*HCl/Pd2dba3/KOtBu, Pd(OAc)2/BINAP/CsCO3. Weiterhin wurden die NHC-Palladiumkatalysatoren in der Synthese von Wirkstoffkandidaten für die präklinische Forschung eingesetzt. Bei den durchgeführten Reaktionen handelt es sich an allen Fällen um Aminierungen. Die auf diesen Weg erhalötnen neuen Verbindungen wurden in Folgereaktionen zu weiteren Testkandidaten umgesetzt. Die Wirkstoffkandidaten wurden in biologischen Assays auf ihre Wirksamkeit als Kinaseinhibitoren getestet.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2005.
Katja is a tool generating order-sorted recursive data types as well as position types for Java, from specifications using an enhanced ML like notation. Katja’s main features are its conciseness of specifications, the rich interface provided by the generated code and the Java atypical immutability of types. After several stages of extending and maintaining the Katja project, it became apparent many changes had to be done. The original design of Katja wasn’t prepared for the introduction of several backends, the introduction of position sorts and constant feature enhancements and bug fixes. By supplying this report Katja reaches release status for the first time.
Im ersten Teil der vorliegenden Arbeit wurde Knochenmarksmaterial von 110 Leukämiepatienten auf das Vorliegen von p53-Gen-Deletionen untersucht. Zu diesem Zweck wurden sowohl Interphasezellkerne als auch Metaphasen der Leukämiezellen mittels der Fluoreszenz-in-situ-Hybridisierungstechnik (FISH) mit der p53-Gen-Sonde untersucht. Dabei konnte in keinem der 55 untersuchten Patienten mit lymphatischer Leukämie eine Alleldeletion des p53-Gens nachgewiesen werden. Da die p53-Gen-Deletion nach den Literaturangaben bei etwa 7% der Patienten mit lymphatischer Leukämie vorkommt, widersprechen die eigenen Ergebnisse diesen Angaben. Als Grund kann die zu geringe Anzahl der untersuchten Fälle genannt werden. Bei den 55 hier untersuchten Patienten, die an myeloischer Leukämie erkrankt waren, konnte in 7 Fällen (13%) eine Deletion im p53-Gen mittels FISH nachgewiesen werden. Der Anteil der gefundenen p53-Gen-Deletionen war deutlich höher als aufgrund der Literaturangaben erwartet. Die sieben Patienten, bei denen eine p53-Gen-Deletion nachgewiesen wurde, waren alle an akuter myeloischer Leukämie (AML) erkrankt. Alle Patienten, die eine p53-Gen-Deletion aufwiesen, zeigten auch einen numerisch und strukturell aberranten Karyotyp. Im zweiten Arbeitsabschnitt wurden Knochenmarkszellen von 21 Patienten mit hämatologischen Erkrankungen mittels spektraler Karyotypisierung (SKY) untersucht und mit dem zytogenetischen Routinebefund verglichen. Ziel der Untersuchung war die Identifizierung von numerischen und strukturellen Chromosomenaberrationen, die durch die konventionelle zytogenetische Untersuchung nicht identifiziert werden konnten. Bei 17 (81%) der Fälle wurden durch SKY zusätzliche Chromosomenaberrationen festgestellt. Nur bei 4 (19%) der Fälle wurde der zytogenetische Befund bestätigt. Im dritten Arbeitsabschnitt wurden Meningeome untersucht. Bei 22 Meningeomen (17 benigne und 5 atypische Meningeomen) wurde mittels Interphase-FISH nach einer Alleldeletion des p53-Gens gesucht. Es konnte jedoch in keinem Fall eine solche Deletion nachgewiesen werden. Weiterhin wurden bei 24 Meningeomen 96 frische Biopsieproben von verschiedenen Tumorarealen mit G-Bänderungstechnik zytogenetisch analysiert. Zur besseren Aufklärung komplex aberranter Karyotypen wurden zwei Fälle (Nr. 1 und Nr. 7) auch mittels SKY-Analyse untersucht. Ziel der vorliegenden Arbeit war es festzustellen, ob zytogenetische Unterschiede zwischen den unterschiedlichen Arealen innerhalb eines Tumors vorliegen. Es gab bei 13 von 24 Meningeomen (54%) zytogenetische Unterschiede zwischen den verschiedenen Arealen innerhalb eines Tumors. 24 (83%) von 29 Meningeomen wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft und 5 (17%) von 29 Meningeomen in den Tumorgrad II. Die Tumorgradverteilung in dieser Arbeit entspricht den Literaturangaben. 13 von 24 Tumoren wiesen entweder einen normalen Karyotyp oder nur eine Monosomie 22 auf. Alle 13 Tumoren wurden nach der WHO-Klassifikation von Meningeomen in den Tumorgrad I eingestuft. Vier Meningeome wiesen stark aberrante Karyotypen auf, was vermutlich ein Zeichen für die Tumorprogression darstellt. Es wurde auch untersucht, ob eine Korrelation zwischen dem zytogenetischen und histologischen Befunden vorliegt. In der vorliegenden Arbeit hat bei sechs Fällen der histologische Befund nicht mit dem zytogenetischen Befund übereingestimmt, da die Tumore in den Tumorgrad I eingestuft wurden, der zytogenetische Befund aber einen aberranten Chromosomensatz aufwies, der normalerweise nicht bei niedriggradigen Meningeomen, sondern bei atypischen und anaplastischen Meningeomen vorkommt. Die Untersuchungsergebnisse deuten darauf hin, dass die Kombination verschiedener zytogenetischer und molekularzytogenetischer Methoden zur Charakterisierung Chromosomaler Aberrationen bei Meningeomen sinnvoll ist.
For the last decade, optimization of beam orientations in intensity-modulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity profiles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity profiles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity profiles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity profiles for every selection of beam orientations, making the dependence between beam orientations and its intensity profiles less important. This thesis takes advantage of this property to accelerate the optimization process through an approximation of the intensity profiles that are used for multiple selections of beam orientations, saving a considerable amount of calculation time. A dynamic algorithm (DA) and evolutionary algorithm (EA), for beam orientations in IMRT planning will be presented. The DA mimics, automatically, the methods of beam's eye view and observer's view which are recognized in conventional conformal radiation therapy. The EA is based on a dose-volume histogram evaluation function introduced as an attempt to minimize the deviation between the mathematical and clinical optima. To illustrate the efficiency of the algorithms they have been applied to different clinical examples. In comparison to the standard equally spaced beams plans, improvements are reported for both algorithms in all the clinical examples even when, for some cases, fewer beams are used. A smaller number of beams is always desirable without compromising the quality of the treatment plan. It results in a shorter treatment delivery time, which reduces potential errors in terms of patient movements and decreases discomfort.
With the UML 2.0 standard, the Unified Modeling Language took a big step towards SDL, incorporating many features of the language. SDL is a mature and complete language with formal semantics. The Z.109 standard defines a UML Profile for SDL, mapping UML constructs to corresponding counterparts in SDL, giving them a precise semantics. In this report, we present a case study for the formalisation of the Z.109 standard. The formal definition makes the mapping precise and can be used to derive tool support.
Die am Fraunhofer-Institut für Experimentelles Software Engineering entwickelte MARMOT-Methode beschreibt einen Ansatz für die komponentenbasierte Entwicklung eingebetteter Systeme. Sie baut auf der ebenfalls am IESE entwickelten KobrA-Methode auf und erweitert diese um spezielle Anforderungen für eingebettete Systeme. Die Idee dahinter ist es, einzelne Komponenten zu modellieren, implementieren und zu testen um später auf vorhandene qualitätsgesicherte Komponenten zurückgreifen zu können, und zu Applikationen zu komponieren ohne diese immer wieder neu entwickeln und testen zu müssen. Im Rahmen dieser Projektarbeit sollte mit Hilfe der MARMOT-Methode ein Antikollisionssystem für ein Modellauto entwickelt werden. Nach Auswahl der hierfür geeigneten Hardware wurde zunächst ein Grundkonzept für die Sensorik entwickelt. Die vom verwendeten RADAR-Sensor gelieferten Signale müssen für die weitere Verwendung durch einen Mikrocontroller aufbereitet werden. Vor der eigentlichen Systemmodellierung musste deshalb zu diesem Zweck eine Sensorplatine entwickelt werden. Anschließend folgte die Modellierung des Antikollisionssystems in UML 2.0 und die Implementierung in C. Zum Abschluss wurde das Zusammenspiel der Hard- und Software getestet.
This paper presents a method for approximating spherical functions from discrete data of a block-wise grid structure. The essential ingredients of the approach are scaling and wavelet functions within a biorthogonalisation process generated by locally supported zonal kernel functions. In consequence, geophysically and geodetically relevant problems involving rotation-invariant pseudodifferential operators become attackable. A multiresolution analysis is formulated enabling a fast wavelet transform similar to the algorithms known from one-dimensional Euclidean theory.
The stationary heat equation is solved with periodic boundary conditions in geometrically complex composite materials with high contrast in the thermal conductivities of the individual phases. This is achieved by harmonic averaging and explicitly introducing the jumps across the material interfaces as additional variables. The continuity of the heat flux yields the needed extra equations for these variables. A Schur-complent formulation for the new variables is derived that is solved using the FFT and BiCGStab methods. The EJ-HEAT solver is given as a 3-page Matlab program in the Appendix. The C++ implementation is used for material design studies. It solves 3-dimensional problems with around 190 Mio variables on a 64-bit AMD Opteron desktop system in less than 6 GB memory and in minutes to hours, depending on the contrast and required accuracy. The approach may also be used to compute effective electric conductivities because they are governed by the stationary heat equation.
* naive examples which show drawbacks of discrete wavelet transform and windowed Fourier transform; * adaptive partition (with a 'best basis' approach) of speech-like signals by means of local trigonometric bases with orthonormal windows. * extraction of formant-like features from the cosine transform; * further proceedingings for classification of vowels or voiced speech are suggested at the end.
Die vorliegende Arbeit befasst sich mit dem Tragverhalten eines belasteten quadratischen Fundamentes, das durch nachträglich oder gleichzeitig hergestellte Bohrpfähle unterfangen wird. Die Auswirkungen nachträglich unter Fundamenten hergestellter Pfähle auf das Tragverhalten des Gesamtsystems Fundament und Pfähle werden untersucht. Es sind sowohl numerische Untersuchungen als auch Versuche an einem großmaßstäblichen Labor-Modell durchgeführt worden. Die Einflüsse einer nachträglichen Herstellung von Bohrpfählen auf das Fundamenttragverhalten sowie Herstellungseinflüsse werden numerisch simuliert und mit Hilfe der Methode der Finiten Elemente (FEM) untersucht. Als Untergrund ist Sand angenommen. Es sind sowohl die unterfangenen Fundamente als auch zum Vergleich eine Fundamentplatte untersucht. Für die Fundamentplatte sowie die Pfähle wird ein linear elastisches Materialverhalten angenommen. Das Materialverhalten des Sandes ist durch ein elasto-plastisches Stoffmodell beschrieben. Die numerische Berechnungen sind mit dem 3D-Finite Elemente Programm NONSAP durchgeführt, in das das Stoffmodell für trockenen Sand implementiert wurde. Zur Überprüfung der Güte des verwendeten numerischen Rechenverfahrens einschließlich Stoffgesetz sind die Ergebnisse aus Modellversuche herangezogen. In den Parameterstudien wird das Tragverhalten des Pfahl-Fundamentes in Abhängigkeit verschiedener Parameter, z.B. Pfahllänge, Pfahldurchmesser, Porenzahl des Sands sowie Überlagerungsdruck numerisch berechnet. Anhand dieser Ergebnisse werden geschlossene analytische Beziehungen hergeleitet, mit denen das Tragverhalten des untersuchten Modells prognostiziert werden kann. Weiter sind die Widerstände des Fundamentes und der Pfähle getrennt ermittelt und es ist das Interaktionsverhalten beider Gründungselemente aufgezeigt worden.
Das antioxidative Potenzial eines roten Mehrfruchtsaftes mit hohem Anthocyan-/Polyphenolanteil wurde in zwei humanen Interventionsstudien mit Biomarkern oxidativer Zellschädigung und Zellantwort charakterisiert. Ergänzend wurden ein Mehrfruchtsaftextrakt (ME) und ausgewählte potentiell antioxidativ wirksame Mehrfruchtsaftinhaltsstoffe (Anthocyane) in in vitro-Experimenten untersucht. In einer Interventionsstudie nahmen 18 männliche Probanden nach einer 3-wöchigen Run-in-Phase über vier Wochen täglich 700 mL eines anthocyanreichen Mischfruchtsaftes (TEAC 19,1 mmol/L Trolox) auf. Anschließend folgte eine 3-wöchige Wash-out-Phase ohne Saftaufnahme. Neun der 18 Probanden nahmen zusätzlich an einer zweiten Interventionsstudie mit identischem Design teil, jedoch unter Verwendung eines Kontrollsaftes, in dem die phenolische Fraktion weitgehend technologisch entfernt wurde. Wöchentliche wurde Blut entnommen zur Bestimmung der Biomarker (oxidative) DNA-Schädigung, Lipidperoxidationsprodukte Malondialdehyd, Thiobarbitursäure-reaktive Substanzen und Isoprostane (Urin), Glutathionspiegel/-status und DNA-Bindungsaktivität des Transkriptionsfaktors NFkappaB. Ergänzend wurden die Konzentrationen der Carotinoide und des alpha-Tocopherols in Plasma bestimmt. In den in vitro-Experimenten kam ein zweistufiges Inkubationsprotokoll in humanen Blut- bzw. Kolonzelllinien (Jurkat, Caco-2) zur Anwendung: basierend auf einer 24 h bzw. 1 h Behandlung mit phenolischem Antioxidans, gefolgt von einer Induktion von oxidativem Stress (durch Menadion, 1 h bzw. tert-Butylhydroperoxid, 40 min), um eine pathologische in vivo Situation nachzustellen. Untersucht wurde neben der zellfreien Bestimmung der antioxidativen Kapazität (TEAC), die Modulation (oxidativer) DNA-Schädigung und des ROS-Levels in der Zelle. Die Ergebnisse der Interventionsstudie mit Mehrfruchtsaft zeigten eine signifikante Abnahme oxidativer DNA-Schäden (p< 0,0005), Zunahme des tGSH-Spiegels (p< 0,0005) und Anstieg des Glutathionstatus (p< 0,05) während der 4-wöchigen Saftaufnahme im Vergleich zu den 3-wöchigen Run-in-/Wash-out-Phasen. Eine signifikante Abnahme der Lipidperoxidation dagegen wurde nicht beobachtet. Es zeigte sich lediglich eine deutliche Tendenz zu einer Abnahme der Isoprostangehalte während der Saftaufnahme. Eine Verringerung der DNA-Bindungsaktivität von NFkappaB durch Saft war nicht nachweisbar. Die Plasmagehalte der Carotinoide und des alpha-Tocopherols, als mögliche und bekanntermaßen antioxidativ wirksame Substanzen, blieben während aller Interventionsphasen unverändert. Für die beobachteten protektiven Effekte scheinen die phenolischen Substanzen des Mehrfruchtsaftes verantwortlich zu sein, da in der Studie mit Kontrollsaft keine Reduktion von oxidativen Schäden nachgewiesen werden konnte. Der ME zeigte eine ausgeprägte antioxidative Kapazität (4,64 mM Trolox) im zellfreien Testsystem. Der zelluläre ROS-Level wurde in vitro durch den Extrakt (bei 100-250 µg/mL) signifikant verringert (p< 0,05). Oxidative DNA-Schäden in Jurkat-/Caco-2-Zellen wurden durch den Extrakt nicht signifikant vermindert; es zeigte sich lediglich die Tendenz einer protektiven Wirkung (bei 10 µg/mL). Von den vergleichend in Jurkat-Zellen getesteten Anthocyanidinen zeigten Malvidin und Delphinidin nach 24 h Inkubation kein Potenzial zur Verringerung von DNA-Schäden. Bei einstündiger Antioxidansbehandlung dagegen, konnte ein einheitlicher Trend einer protektiven Modulation (bei 10-100 µM) beobachtet werden. Zusammenfassend besitzt der flavonoid/polyphenolreiche rote Mischfruchtsaft ein eindeutiges Potential zur Verringerung oxidativer Zellschädigung in gesunden Probanden. Dieses geht, begründet aus den Ergebnissen der Saft-/Kontrollsaftstudie, vermutlich auf die phenolische Fraktion des Saftes zurück. Aufgrund der in vitro erhaltenen Daten kann die antioxidative Wirksamkeit jedoch nicht maßgeblich auf die untersuchte Substanzgruppe der Anthocyane zurückgeführt werden. Dies legt nahe, dass auch bisher nicht charakterisierte Substanzen/Stoffgruppen einen Beitrag zu der antioxidativen Wirksamkeit leisten.
Molekulare Analyse der Aktivierung des Kalium-Chlorid-Cotransporters KCC2 in reifenden Neuronen
(2006)
Das Ziel dieser Arbeit lag in der Aufklärung zellulärer Wirkmechanismen von Apfelpolyphenolen und deren möglicher Relevanz im Hinblick auf die Chemoprävention, insbesondere des kolorektalen Karzinoms. Die Untersuchungen haben gezeigt, dass polyphenolreiche Apfelextrakte in vitro das Wachstum der humanen Kolonkarzinomzelllinie HT29 hemmen, wobei die Induktion von Apoptose eine Rolle zu spielen scheint. Die Ergebnisse dieser Arbeit deuten darauf hin, dass polyphenolreiche Apfelsaftextrakte modulierend in Signalübertragungswege eingreifen, die wesentlich sind für die Regulation von Zellwachstum und Differenzierung. In erster Linie zeichnen sich dabei Effekte auf wachstumsfaktorvermittelte Signalwege ab. Als herausragende Wirkqualität des polyphenolreichen Apfelsaftextraktes AE02 bzw. des Apfeltresterextraktes AE03B ist ihre hocheffektive Hemmung der Proteintyrosinkinase (PTK)-Aktivität des epidermalen Wachstumsfaktorrezeptors (EGFR) zu nennen. Anhand von Untersuchungen zur Modulation des Phosphorylierungsstatus (als ein Maß für die Aktivität des EGFR) konnte gezeigt werden, dass die Hemmwirkung des AE02 nicht limitiert ist auf den isolierten EGFR, sondern auch in intakten Zellen zum Tragen kommt. Insgesamt zeigte sich allerdings, dass die bislang in Apfelextrakten identifizierten Inhaltsstoffe alleine bzw. in der Summe nur marginal sowohl zur Wachstumshemmung als auch zur Hemmung des EGFR beitragen. Oligomere Procyanidine dagegen erwiesen sich als hoch potente Hemmstoffe der PTK-Aktivität des isolierten EGFR. Die Proteinkinase C (PKC)-Isoenzymfamilie spielt ebenfalls eine Schlüsselrolle bei der Regulation von Wachstumsprozessen. In dieser Arbeit wurde der Frage nachgegangen, ob Apfelpolyphenole die PKC-Aktivität im Kolon beeinflussen. Dafür wurden humane Kolonkarzinomzellen im Vergleich zu primären humanen Enterozyten (Biopsie) untersucht. Die Ergebnisse zeigen, dass sowohl die PKC-Aktivität nicht transformierter humaner Enterozyten als auch humaner Kolonkarzinomzellen durch Apfelpolyphenole gehemmt wird. Der Apfelsaftextrakt AE02 konnte als Hemmstoff der isolierten zytosolischen PKC-Aktivität von HT29-Zellen charakterisiert werden. Eine 24-stündige serumfreie Inkubation von HT29-Zellen mit AE02 führt zu einer Hemmung der zytosolischen PKC-Aktivität; sogar in geringeren Konzentrationen im Vergleich zur Hemmwirkung an isolierter PKC. Dies könnte auf einer Hemmung PKC-vorgeschalteter Signalelemente beruhen, die so den hemmenden Effekt von AE02 auf die PKC-Aktivität verstärken könnten. Jedoch zeigte sich nach 24-stündiger Inkubation von HT29-Zellen ein U-förmiger Kurvenverlauf mit einem Anstieg der PKC-Aktivität in hohen Konzentrationen. Nachdem keine PKC-Aktivierung bei Zugabe von Apfelpolyphenolen zu isolierten Enzympräparationen zu beobachten war, kann eine direkte substanzvermittelte Aktivierung ausgeschlossen werden. Die Caspase-3-Aktivierung und die DNA-Fragmentierung, als Merkmale apoptotischer Prozesse; sowie der gezeigte Wiederanstieg des Gesamtproteingehaltes an proapoptotischer PKCdelta nach 24-stündiger Zellinkubation mit AE02 deuten darauf hin, dass die PKC-Aktivierung intermediär als Teil des apoptotischen Prozesses auftritt. Des Weiteren konnte gezeigt werden, dass der polyphenolreiche Apfelsaftextrakt AE02 potent die isolierte, aus humanen Kolonkarzinomzellen immunopräzipitierte, GSK3beta, einem Schlüsselenzym des Wnt-Signalweges, in seiner Aktivität hemmt. Auch in intakten Zellen führt die Inkubation (24 h) von HT29-Zellen mit Apfelpolyphenolen zu einer signifikanten konzentrationsabhängigen Hemmung der zellulären GSK3beta-Aktivität. Damit einher geht die signifikante Abnahme an phosphoryliertem beta-Catenin. Gleichzeitig nimmt unerwarteterweise der Gehalt an Gesamt-beta-Catenin ebenfalls ab. Die Ergebnisse weisen somit darauf hin, dass der polyphenolreiche Apfelsaftextrakt AE02 in humanen Kolonkarzinomzellen keinen Wachstumsstimulus über den Wnt-Signalweg induziert und aufgrund der Reduktion der Expression von beta-Catenin eher antiproliferative Effekte des AE02 zu erwarten sind. Zusammenfassend ist festzustellen, dass Apfelpolyphenole in/unterhalb von Polyphenolkonzentrationen polyphenolreicher Apfelsäfte (z. B. 500 mg/l im Projektsaft AS02), in vitro in Signaltransduktionskaskaden eingreifen, die mit der Entstehung kolorektaler Karzinome assoziiert werden.
The new international capital standard for credit institutions (“Basel II”) allows banks to use internal rating systems in order to determine the risk weights that are relevant for the calculation of capital charge. Therefore, it is necessary to develop a system that enfolds the main practices and methods existing in the context of credit rating. The aim of this thesis is to give a suggestion of setting up a credit rating system, where the main techniques used in practice are analyzed, presenting some alternatives and considering the problems that can arise from a statistical point of view. Finally, we will set up some guidelines on how to accomplish the challenge of credit scoring. The judgement of the quality of a credit with respect to the probability of default is called credit rating. A method based on a multi-dimensional criterion seems to be natural, due to the numerous effects that can influence this rating. However, owing to governmental rules, the tendency is that typically one-dimensional criteria will be required in the future as a measure for the credit worthiness or for the quality of a credit. The problem as described above can be resolved via transformation of a multi-dimensional data set into a one-dimensional one while keeping some monotonicity properties and also keeping the loss of information (due to the loss of dimensionality) at a minimum level.
We consider optimal design problems for semiconductor devices which are simulated using the energy transport model. We develop a descent algorithm based on the adjoint calculus and present numerical results for a ballistic diode. Further, we compare the optimal doping profile with results computed on basis of the drift diffusion model. Finally, we exploit the model hierarchy and test the space mapping approach, especially the aggressive space mapping algorithm, for the design problem. This yields a significant reduction of numerical costs and programming effort.
Die vorliegende Arbeit befasst sich mit dem signaltransduzierenden Zwei-Komponenten- System CiaRH aus Streptococcus pneumoniae. Zwei-Komponenten-Systeme sind an der Adaptation der Bakterien an Umweltbedingungen entscheidend beteiligt. Sie bestehen in der Regel aus einer Histidinkinase (hier CiaH) und einem Responseregulator (hier CiaR). Die Histidinkinase dient der Signaldetektion und Aktivierung des Responseregulators, welcher die zelluläre Antwort vermittelt. Das Cia-System wurde als Resistenzdeterminante in spontanresistenten Labormutanten gegen Cefotaxim identifiziert. Weiterhin hat dieses Zwei-Komponenten-System Einfluss auf die Zelllyse, die Virulenz und ist an der Regulation der genetischen Kompetenz beteiligt. Es wird für die Lebensfähigkeit von Zellen mit PBP2x-Punktmutationen benötigt. Inhaltlicher Schwerpunkt der vorliegenden Arbeit war neben der Etablierung der Mikroarray-Technik und globalen Transkriptionsanalysen die funktionelle Charakterisierung des Cia-Systems mit phänotypischen Analysen. Die Etablierung der Mikroarray-Technik befasste sich mit allen Schritten des Mikroarray-Prozesses inklusive Biochip-Herstellung, Datenauswertung und der Validierung des Oligo-Sets. Nach erfolgreicher Etablierung wurde diese Technik benutzt, um Cia-regulierte Gene zu identifizieren. Durch Vergleich des Transkriptoms von verschiedenen Cia-Mutanten mit dem Wildtyp R6 wurden insgesamt 158 Gene unterschiedlich transkribiert. Davon gehörten 73 Gene zum minimalen Cia- und zum Kompetenz-Regulon, welche schon als Cia-reguliert bekannt waren (Sebert et al., 2002; Mascher et al., 2003; Dagkessamanskaia et al., 2004). Überraschenderweise wurden weitere 85 Gene Cia-abhängig transkribiert, deren Genprodukte funktionell in Zucker- und Stickstoffmetabolismus sowie Transport gruppiert werden konnten. Wahrscheinlich wurden die meisten dieser 85 Gene indirekt als Folge der veränderten Zuckerverwertung reguliert. Ähnliche funktionelle Gengruppen konnten in den globalen Transkriptionsanalysen der spontanresistenten Laborfamilie C103 bis C503 aufgestellt werden. In dieser Mutantenfamilie sind Mutationen in CiaH, PBP2x und PBP2a gefunden worden. Besonders auffällig war bei diesen Untersuchungen die kontinuierliche Verstärkung der Transkription der Gene des minimalen Cia-Regulons von C103 bis C503. Deshalb ist von einer Aktivierung des Cia-Systems durch PBP-Mutationen auszugehen. Diese Aktivierung konnte auch in RT-PCR-Versuchen am Beispiel einzelner Gene des minimalen Cia-Regulons bestätigt werden. Da das Cia-System durch PBP-Mutationen aktiviert wird und ein funktionelles Cia-System bei Anwesenheit von bestimmten PBP2x-Mutationen benötigt wird, wurde in dieser Arbeit diese Notwendigkeit des Cia-Systems auch bei anderen PBP-Mutationen durch phänotypische Analysen überprüft. Dabei wurde durch Inaktivierung des Cia-Systems in verschiedenen Stämmen festgestellt, dass nicht nur Zellen mit einzelnen, im Labor selektierten PBP2x-Mutationen, sondern auch ohne ein PBP2a- und ohne ein PBP1a-Protein auf ein Cia-System angewiesen sind. Klinische PBP2x-Allele benötigten ebenfalls – aber in geringeren Maßen – das Cia-System. Wahrscheinlich haben in diesen kompensatorische Mutationen durch Evolution in der freien Natur stattgefunden. Damit wurde auch zum ersten Mal gezeigt, dass PBP-Mutationen nicht neutral sind und verschiedene PBP-Mutationen unterschiedliche Auswirkungen haben. Weiterhin wurde untersucht, welche Gene tatsächlich die durch das Cia-System verursachten Phänotypen auslösen. Dazu wurden 6 Cia-regulierte Genregionen bzw. Einzelgene mit einer Erythromycin-Resistenzkassette inaktiviert und auf das Vorhandensein von Cia „OFF“-phänotypischem Verhalten analysiert. Kein Gen konnte für das Resistenz- oder das Lyseverhalten ausfindig gemacht werden. Hingegen waren die Proteine HtrA und Spr0782 an der Reprimierung der Kompetenz durch das Cia-System beteiligt. Bei beiden Proteinen konnte nur eine Reprimierung in CpH8- und nicht in THB-Medium nachgewiesen werden, so dass eventuell noch von weiteren Faktoren ausgegangen werden muss. Die hier vorgelegten Ergebnisse haben die bisher vorliegenden Daten über das Cia-System bestätigt und entscheidende Einblicke nicht nur in die mögliche Funktion, sondern vor allem in das komplexe vernetzte Regulationssystem gegeben. Diese stellen eine wichtige Grundlage für weitere Experimente dar.
In this article, we give an explicit homotopy between the solutions (i.e. stress, strain, displacement) of the quasistatic linear elastic and nonlinear elastoplastic boundary value problem, where we assume a linear kinematic hardening material law. We give error estimates with respect to the homotopy parameter.
Error estimates for quasistatic global elastic correction and linear kinematic hardening material
(2006)
We consider in this paper the quasistatic boundary value problems of linear elasticity and nonlinear elastoplasticity with linear kinematic hardening material. We derive expressions and estimates for the difference of solutions (i.e. stress, strain and displacement) of both models. Further, we study the error between the elastoplastic solution and the solution of a postprocessing method, that corrects the solution of the linear elastic problem in order to approximate the elastoplastic model.
In this article, we give some generalisations of existing Lipschitz estimates for the stop and the play operator with respect to an arbitrary convex and closed characteristic a separable Hilbert space. We are especially concerned with the dependency of their outputs with respect to different scalar products.
Traffic flow on road networks has been a continuous source of challenging mathematical problems. Mathematical modelling can provide an understanding of dynamics of traffic flow and hence helpful in organizing the flow through the network. In this dissertation macroscopic models for the traffic flow in road networks are presented. The primary interest is the extension of the existing macroscopic road network models based on partial differential equations (PDE model). In order to overcome the difficulty of high computational costs of PDE model an ODE model has been introduced. In addition, steady state traffic flow model named as RSA model on road networks has been dicsussed. To obtain the optimal flow through the network cost functionals and corresponding optimal control problems are defined. The solution of these optimization problems provides an information of shortest path through the network subject to road conditions. The resulting constrained optimization problem is solved approximately by solving unconstrained problem invovling exact penalty functions and the penalty parameter. A good estimate of the threshold of the penalty parameter is defined. A well defined algorithm for solving a nonlinear, nonconvex equality and bound constrained optimization problem is introduced. The numerical results on the convergence history of the algorithm support the theoretical results. In addition to this, bottleneck situations in the traffic flow have been treated using a domain decomposition method (DDM). In particular this method could be used to solve the scalar conservation laws with the discontinuous flux functions corresponding to other physical problems too. This method is effective even when the flux function presents more than one discontinuity within the same spatial domain. It is found in the numerical results that the DDM is superior to other schemes and demonstrates good shock resolution.
Ein typisches Mittelklassefahrzeug hat mittlerweile 100 Computerprozessoren,die miteinander kommunizieren, und bildet damit ein komplexes Softwaresystem. Die steigende Anzahl der miteinander kommunzierenden Funktionen trägt dazu bei, dass die Komplexität der Steurungssoftware immer schwerer zu beherrschen ist. Trotz eines enormen Kostenaufwands zur Entwicklung der entsprechenden Softwarekomponenten sind Softwarefehler bei Fahrzeugen der automobilen Oberklasse eine der am häufigsten angeführten Ursachen in der Pannenstatistik. Die Tatsache, dass die angeführten Funktionalitäten verteilt und parallel auf einer steigenden Anzahl unterschiedlicher Mikrokontroller abgearbeitet werden, birgt zusätzliche Probleme. Es ist jedoch Fakt, dass der Markt nach Funktionalitäten wie ABS, ASR und ESP verlangt, die zu einem wesentlichen Teil aus Software bestehen. Es ist also notwendig, einen alternativen Softwareansatz zu finden, der die Komplexität der Steuerungssoftware beherrschbar werden lässt und dennoch den Anforderungen des automobilen Umfelds, wie zum Beispiel der Verlässlichkeit gerecht wird. Dies wird in dieser Arbeit mit hilfe einer verhaltensbasierten steuerung erreicht.
Wetting of a solid surface with liquids is an important parameter in the chemical engineering process such as distillation, absorption and desorption. The degree of wetting in packed columns mainly contributes in the generating of the effective interfacial area and then enhancing of the heat and mass transfer process. In this work the wetting of solid surfaces was studied in real experimental work and virtually through three dimensional CFD simulations using the multiphase flow VOF model implemented in the commercial software FLUENT. That can be used to simulate the stratified flows [1]. The liquid rivulet flow which is a special case of the film flow and mostly found in packed columns has been discussed. Wetting of a solid flat and wavy metal plate with rivulet liquid flow was simulated and experimentally validated. The local rivulet thickness was measured using an optically assisted mechanical sensor using a needle which is moved perpendicular to the plate surface with a step motor and in the other two directions using two micrometers. The measured and simulated rivulet profiles were compared to some selected theoretical models founded in the literature such as Duffy & Muffatt [2], Towell & Rothfeld [3] and Al-Khalil et al. [4]. The velocity field in a cross section of a rivulet flow and the non-dimensional maximum and mean velocity values for the vertical flat plate was also compared with models from Al-Khalil et al. [4] and Allen & Biggin [5]. Few CFD simulations for the wavy plate case were compared to the experimental findings, and the Towel model for a flat plate [3]. In the second stage of this work 3-D CFD simulations and experimental study has been performed for wetting of a structured packing element and packing sheet consisting of three elements from the type Rombopak 4M, which is a product of the company Kuhni, Switzerland. The hydrodynamics parameters of a packed column, e. i. the degree of wetting, the interfacial area and liquid hold-up have been depicted from the CFD simulations for different liquid systems and liquid loads. Flow patterns on the degree of wetting have been compared to that of the experiments, where the experimental values for the degree of wetting were estimated from the snap shooting of the flow on the packing sheet in a test rig. A new model to describe the hydrodynamics of packed columns equipped with Rombopak 4M was derived with help of the CFD–simulation results. The model predicts the degree of wetting, the specific or interfacial area and liquid hold-up at different flow conditions. This model was compared to Billet & Schultes [6], the SRP model Rocha et al. [7-9], to Shi & Mersmann [10] and others. Since the pressure drop is one of the most important parameter in packed columns especially for vacuum operating columns, few CFD simulations were performed to estimate the dry pressure drop in a structured and flat packing element and were compared to the experimental results. It was found a good agreement from one side, between the experimental and the CFD simulation results, and from the other side between the simulations and theoretical models for the rivulet flow on an inclined plate. The flow patterns and liquid spreading behaviour on the packing element agrees well with the experimental results. The VOF (Volume of Fluid) was found very sensitive to different liquid properties and can be used in optimization of the packing geometries and revealing critical details of wetting and film flow. An extension of this work to perform CFD simulations for the flow inside a block of the packing to get a detailed picture about the interaction between the liquid and packing surfaces is recommended as further perspective.
Uncoupling protein1 (UCP1) in brown adipose tissue was discovered earlier as the main uncoupling source of respiration. We describe the basic facts and a modest contribution of our group to the area of research on mitochondrial uncoupling proteins. After defining the terms uncoupling, leak, proton-mediated uncoupling, we discuss the assumption that due to its low abundance, uncoupling protein 2 (UCP2) can provide only mild uncoupling, i.e. can decrease the proton motive force by several mV only. A fatty acid cycling mechanism is described as a plausible explanation for the protonophoretic function of all uncoupling proteins together with our experiments supporting it. A speculation for the phylogenesis of all uncoupling proteins can be deduced by estimated UCP2 content in several tissues, and details of its activation are explained on the basis of our experiments. In the present study a solubilization and refolding method for UCP2 from inclusion bodies was developed and characterized. As it was known and also demonstrated from previous experiments on UCP1 that fatty acids are substrates, we used the same procedure to study the function of UCP2. Utilizing spin-labelled fatty acids (SLFA) for our experiments we demonstrated the binding of fatty acids to UCP2, and the competition of other natural fatty acids like oleic acid, palmitic acid, arachidonic acid and eicosatrienoic acid to the preformed complex emphasizes the presence of a fatty acid binding site for mitochondrial UCP2. The findings were observed by EPR spectroscopy where the highly immobilized spectra with presence of spin-labelled fatty acid eventually end up as free spin label spectra with a particular concentration of the natural fatty acid added to the UCP2 bound with spin-labelled fatty acid. This fits in significantly with the earlier findings of UCP1 and also leads to assumption of functional explanation about the physiological relevance between the uncoupling proteins functions. The present study, in which representative and sensitive parameters for EPR spectroscopy were established, at the same time describes the concentration effects of fatty acids upon the protein bound with spin-labelled fatty acids which are much of importance in comparison to physiological levels, being in the micromolar range (µM) as compared with milli molar (mM) as for UCP1 previously. In appropriate examples, different fatty acids are used and compared with competitors like alkylsulfonates also emphasizing the function of the protein. And the studies with the effect of nucleotides inhibition demonstrate that there exists a putative binding site for fatty acids. Much significance lies in demonstration with the spin-labelled-ATP studies where competition of ATP to the protein bound to spin-labelled ATP explains about the inhibition effect of nucleotides on the UCP2. So the present study applies different methods for the functional characterization of UCP2. The studies of natural fatty acids and alkylsulfonates with UCP2 bound to spin-labelled fatty acid, and study of nucleotide inhibition on UCP2 are closely related and give the much awaited answer to the question of functional similarities between UCP1 and UCP2. This supports the discussion of many groups which predict the functional similarity between these two proteins based upon sequence homology. Also many attempts have been reported in literature to explain the physiological functional relevance where by this present study can also be added to as we now suppose from the present conclusions of our experiments.
In this paper a known orthonormal system of time- and space-dependent functions, that were derived out of the Cauchy-Navier equation for elastodynamic phenomena, is used to construct reproducing kernel Hilbert spaces. After choosing one of the spaces the corresponding kernel is used to define a function system that serves as a basis for a spline space. We show that under certain conditions there exists a unique interpolating or approximating, respectively, spline in this space with respect to given samples of an unknown function. The name "spline" here refers to its property of minimising a norm among all interpolating functions. Moreover, a convergence theorem and an error estimate relative to the point grid density are derived. As numerical example we investigate the propagation of seismic waves.
Mit zunehmender Integration von immermehr Funktionalität in zukünftigen SoC-Designs erhöht sich die Bedeutung der funktionalen Verifikation auf der Blockebene. Nur Blockentwürfe mit extrem niedriger Fehlerrate erlauben eine schnelle Integration in einen SoC-Entwurf. Diese hohen Qualitätsansprüche können durch simulationsbasierte Verifikation nicht erreicht werden. Aus diesem Grund rücken Methoden zur formalen Entwurfsverifikation in den Fokus. Auf der Blockebene hat sich die Eigenschaftsprüfung basierend auf dem iterativen Schaltungsmodell als erfolgreiche Technologie herausgestellt. Trotzdem gibt es immer noch einige Design-Klassen, die für BIMC schwer zu handhaben sind. Hierzu gehören Schaltungen mit hoher sequentieller Tiefe sowie arithmetische Blöcke. Die fortlaufende Verbesserung der verwendeten Beweismethoden, z.B. der verwendeten SAT-Solver, wird der zunehmenden Komplexität immer größer werdender Blöcke alleine nicht gewachsen sein. Aus diesem Grund zeigt diese Arbeit auf, wie bereits in der Problemaufbereitung des Front-Ends eines Werkzeugs zur formalen Verifikation Maßnahmen zur Vereinfachung der entstehenden Beweisprobleme ergriffen werden können. In den beiden angesprochenen Problemfeldern werden dazu exemplarisch geeignete Freiheitsgrade bei der Modellgenerierung im Front-End identifiziert und zur Vereinfachung der Beweisaufgaben für das Back-End ausgenutzt.
Die Transportproteine AtER-ANT1 und OsER-ANT1 sind Vertreter der MCF (mitochondrial carrier family) und werden phylogenetisch in die Gruppe der klassischen mitochondrialen ADP/ATP-Transporter (AACs) eingegliedert. Unter Verwendung des heterologen E. coli-Expressionssystems konnte gezeigt werden, dass es sich bei AtER-ANT1 und OsER-ANT1 um spezifische ADP/ATP-Transporter handelt. Der Transport dieser Substrate verläuft in Form eines Gegentausches, entsprechend den klassischen mitochondrialen AACs. Sowohl AtER-ANT1 als auch OsER-ANT1 sind hochgradig insensitiv gegen die Hemmstoffe BKA und CAT der klassischen mitochondrialen AACs. Dagegen konnte für diese Transportproteine NEM (N-ethylmaleimid) als spezifischer Hemmstoff identifiziert werden, der interessanterweise auch eine inhibierende Wirkung auf den Nukleotidtransport ber die ER-Membran besitzt. Der Transport der klassischen mitochondrialen AACs wird dagegen nicht beeinflusst. Untersuchungen zur subzellulären Lokalisierung von AtER-ANT1 mittels GFP-Fusion ergaben, dass dieses Protein in der Membran des Endoplasmatischen Retikulums lokalisiert ist. Weiter wurde eine Methode etabliert, die Lokalisierung des AtER-ANT1 in planta zu untersuchen. Durch Saccharosedichtegradienten-Zentrifugation in Abhängigkeit der An- bzw. Abwesenheit von Mg2+ konnte die Lokalisierung des AtER-ANT1 im ER bestätigt werden. Weiter konnte mit diesem Gradienten auch eine Kolokalisierung des AtER-ANT1 mit dem ER-spezifischen Marker-Protein Calretikulin gezeigt werden. Eine Analyse der gewebespezifischen Expression offenbarte eine starke Expression des AtERANT1 in Geweben, die eine hohe ER-Aktivität aufweisen, u.a. die Wurzelspitze, die Leitgefäße, die Samen und die Pollengewebe. Desweiteren wurde die physiologische Rolle des AtER-ANT1 anhand von zwei unabhängigen Knockout-Linien bezüglich dieses Gens umfassend untersucht. Es konnte dabei gezeigt werden, dass der dramatisch im Wachstum retardierte Phänotyp der Knockout-Pflanzen unter ambienten Wachstumsbedingungen mit einer enormen Veränderung des gesamten Stoffwechsels einhergeht. Detaillierte Metabolit-Analysen zeigten außerdem, dass die Deletion des AtER-ANT1 Gens besonders starke pleiotrope Effekte auf den Photorespirationsstoffwechsel hat. Diese Beobachtungen wurden durch Analysen der Knockout-Pflanzen unter hoch CO2-Bedingungen bestätigt. Die hoch CO2-Bedingungen bewirkten sowohl eine Verbesserung des gesamten Stoffwechsels als auch der morphologischen phänotypischen Erscheinung der Knockout-Pflanzen. Der zweite Teil der vorliegenden Arbeit beschäftigte sich mit der Redundanz verschiedener AACIsoformen in Arabidopsis thaliana, die auf biochemischer Ebene sehr ähnliche Eigenschaften besitzen. Knockout-Analysen zeigten, dass AtAAC1 für den pflanzlichen Stoffwechsel essentiell ist, da das Ausschalten eine Letalität der Pflanzen hervorruft. Für AtAAC2 und AtAAC3 kann dahingegen eine physiologische Bedeutung in späten Entwicklungsstadien der Pflanze angenommen werden. Neben der Charakterisierung pflanzlicher Transportproteine wurde zudem ein mitosomaler Adeninnukleotid-Transporter aus dem Protisten Entamoeba histolytica biochemisch unter Verwendung des heterologen E. coli-Expressionssystems charakterisiert. Die Analysen ergaben, dass es sich bei diesem Adeninnukleotid-Transporter um ein zu den klassischen mitochondrialen AACs alternatives Transportprotein handelt, das sich sowohl im Substratspektrum als auch in Inhibitorstudien von bereits charakterisierten mitochondrialen und hydrogenosomalen ATP/ADP-Transportern unterscheidet. Mitosomen benötigen Energie u.a. zur Bildung von Fe-S-Clustern. Da diese Organellform im Gegensatz zu Mitochondrien und Hydrogenosomen nicht zu einer ATP-Synthese fähig sind, indizieren die ermittelten Daten eine physiologische Funktion dieses Proteins in der Versorgung der Mitosomen mit ATP.
Die vorliegende Arbeit beschäftigt sich mit der Löslichkeit von Gasen in chemisch reagierenden wässrigen Lösungen. Dabei werden zwei Beispiele näher betrachtet: Die simultane Löslichkeit von Ammoniak und Schwefeldioxid in wässrigen salzhaltigen Lösungen und die Löslichkeit von Kohlendioxid in wässrigen Lösungen von N-Methyldiethanolamin (MDEA), Piperazin und deren Mischungen. Die Phasengleichgewichte in solchen Systemen werden wesentlich durch die in der flüssigen Phase auftretenden chemischen Reaktionen und die dabei entstehenden ionischen Spezies beeinflusst. Die Lösungen weisen auch aufgrund der weitreichenden Coulombschen Wechselwirkungen ein stark reales Verhalten auf. Die Untersuchungen der vorliegenden Arbeit bauen auf früheren Arbeiten am Lehrstuhl für Technische Thermodynamik der Technischen Universität Kaiserslautern auf. In diesen Arbeiten wurden u.a. Modelle zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes in den Systemen NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser und CO2+MDEA+Piperazin+Wasser entwickelt. Diese Modelle wurden hier weiterentwickelt und verbessert. Beim System Ammoniak+Schwefeldioxid+Wasser wurde mittels ATR-IR-spektroskopischer Untersuchungen festgestellt, dass Pyrosulfit in den wässrigen Lösungen in nicht zu vernachlässigbarem Umfang auftritt. Deshalb muss die chemische Reaktion der Pyrosulfitbildung berücksichtigt werden, wenn die thermodynamischen Eigenschaften solcher Lösungen zuverlässig beschrieben werden sollen. Die chemische Gleichgewichtskonstante für die Pyrosulfitbildungsreaktion wurde aus IR-spektroskopischen und kalorimetrischen Untersuchungen des Systems Na2S2O5+H2O ermittelt. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes und der Enthalpieänderung beim Verdünnen des Systems NH3+SO2+((NH4)2SO4 oder Na2SO4)+Wasser wurde zur Berücksichtigung sowohl der Pyrosulfitbildungsreaktion als auch der neuen experimentellen Daten für die Verdünnungsenthalpie von Meyer [70] erweitert. Das Modell ermöglicht Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht und Enthalpieänderungen der quaternären Systeme. Während die Gaslöslichkeit im System NH3+SO2+Na2SO4+Wasser zuverlässig beschrieben wird, sind die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems NH3+SO2+(NH4)2SO4+Wasser nicht so gut. Ein Grund dafür mag darin liegen, dass bei den Untersuchungen an diesem System die Ionenstärke deutlich größer war (I=20 molal) als bei den Untersuchungen am System NH3+SO2+Na2SO4+Wasser (I=10 molal). Die Verdünnungsenthalpie wird für beide quaternäre Systeme gut vorhergesagt. Mithilfe NMR-spektroskopischer Untersuchungen am System CO2+Piperazin+D2O wurden die chemischen Gleichgewichtskonstanten der drei in diesem System auftretenden Carbamatbildungsreaktionen ermittelt. Außerdem wurde der Partialdruck von Kohlendioxid in den wässrigen Lösungen von MDEA oder Piperazin bzw. deren Mischungen bei 313 und 353 K gemessen. Das Modell zur Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes wurde unter Einbeziehung der neuen experimentellen Daten überarbeitet. Das überarbeitete Modell ermöglicht die zuverlässige Beschreibung des Dampf-Flüssigkeits-Gleichgewichtes der Systeme CO2+MDEA+Wasser und CO2+Piperazin+Wasser sowohl im Hochdruck- als auch im Niederdruckbereich. Das Modell ermöglicht auch Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht des Systems CO2+MDEA+Piperazin+Wasser. Die Vorhersagen für das Dampf-Flüssigkeits-Gleichgewicht sind nicht so gut. Der Grund liegt vermutlich in der Vernachlässigung der Wechselwirkungen zwischen Piperazin- und MDEA- Spezies.
Tropical geometry is a rather new field of algebraic geometry. The main idea is to replace algebraic varieties by certain piece-wise linear objects in R^n, which can be studied with the aid of combinatorics. There is hope that many algebraically difficult operations become easier in the tropical setting, as the structure of the objects seems to be simpler. In particular, tropical geometry shows promise for application in enumerative geometry. Enumerative geometry deals with the counting of geometric objects that are determined by certain incidence conditions. Until around 1990, not many enumerative questions had been answered and there was not much prospect of solving more. But then Kontsevich introduced the moduli space of stable maps which turned out to be a very useful concept for the study of enumerative geometry. A well-known problem of enumerative geometry is to determine the numbers N_cplx(d,g) of complex genus g plane curves of degree d passing through 3d+g-1 points in general position. Mikhalkin has defined the analogous number N_trop(d,g) for tropical curves and shown that these two numbers coincide (Mikhalkin's Correspondence Theorem). Tropical geometry supplies many new ideas and concepts that could be helpful to answer enumerative problems. However, as a rather new field, tropical geometry has to be studied more thoroughly. This thesis is concerned with the ``translation'' of well-known facts of enumerative geometry to tropical geometry. More precisely, the main results of this thesis are: - a tropical proof of the invariance of N_trop(d,g) of the position of the 3d+g-1 points, - a tropical proof for Kontsevich's recursive formula to compute N_trop(d,0) and - a tropical proof of Caporaso's and Harris' algorithm to compute N_trop(d,g). All results were derived in joint work with my advisor Andreas Gathmann. (Note that tropical research is not restricted to the translation of classically well-known facts, there are actually new results shown by means of tropical geometry that have not been known before. For example, Mikhalkin gave a tropical algorithm to compute the Welschinger invariant for real curves. This shows that tropical geometry can indeed be a tool for a better understanding of classical geometry.)
The study provides insights into the dynamic processes of vascular epiphyte vegetation in two host tree species of lowland forest in Panama. Further, a novel approach is presented to examine the possible role of host tree identity in the structuring of vascular epiphyte communities: For three locally common host tree species (Socratea exorrhiza, Marila laxiflora, Perebea xanthochyma) we created null models of the expected epiphyte assemblages assuming that epiphyte colonization reflected random distribution of epiphytes in the forest. In all three tree species, abundances of the majority of epiphyte species (69 – 81 %) were indistinguishable from random, while the remaining species were about equally over- or underrepresented compared to their occurrence in the entire forest plot. Permutations based on the number of colonized trees (reflecting observed spatial patchiness) yielded similar results. Finally, a Canonical Correspondence Analysis also confirmed host-specific differences in epiphyte assemblages. In spite of pronounced preferences of some epiphytes for particular host trees, no epiphyte species was restricted to a single host. We conclude that the epiphytes on a given tree species are not simply a random sample of the local species pool, but there are no indications of host specificity either. To determine the qualitative and quantitative long-term changes in the vascular epiphyte assemblage of the host tree Socratea exorrhiza, in the lowland forest of the San Lorenzo Crane Plot, we followed the fate of the vascular epiphyte assemblage on 99 individuals of this palm species, in three censuses over the course of five years. The composition of the epiphyte assemblage changed little during the course of the study. While the similarity of epiphyte vegetation decreased on single palm individuals through time, the similarity analyzed over all palms increased. Even well-established epiphyte individuals experienced high mortality with only 46 % of the originally mapped individuals surviving the following five years. We found a positive correlation between host tree size and epiphyte richness and detected higher colonization rates of epiphytes per surface area on larger trees. Epiphyte assemblages on single Socratea exorrhiza trees were highly dynamic while the overall composition of the epiphyte vegetation on the host tree species in the study plot was rather stable. We suggest that higher recruitment rates due to localized seed dispersal by already established epiphytes on larger palms promote the colonization of epiphytes on larger palms. Given the known growth rates and mortality rates of the host tree species, the maximum time available for colonization and reproduction of epiphytes on a given Socratea exorrhiza tree is estimated to be about 60 years. Changes in the epiphyte vegetation of c. 1000 individuals of the host tree species Annona glabra at Barro Colorado Island over the course of eight year were documented by means of repeated censuses. Considerable increase in the abundance of the dominating epiphyte species and ongoing colonization of the host tree species suggests that the epiphyte vegetation has not reached a steady state in the maximal 80 years since the establishment of the host tree. Epiphyte species composition as a whole was rather stable. We disentangled the relationship between epiphyte colonization and tree size/available time for colonization with the finding that tree size explained only a low proportion of colonization while other factors like connectivity to dispersal source and time explain may explain a larger part. Epiphyte populations are patchily distributed and examined species exhibit properties of a metapopulation with asynchronous local population growth, high local population turnover, a positive relationship between regional occurrence and patch population size, and negatively correlated relationship between extinction and patch occupancy. The documented metapopulation processes highlight the importance of not colonized suitable habitat for the conservation of epiphytes.