Refine
Year of publication
- 2006 (139) (remove)
Document Type
- Doctoral Thesis (69)
- Report (33)
- Periodical Part (14)
- Preprint (14)
- Working Paper (3)
- Diploma Thesis (2)
- Conference Proceeding (1)
- Master's Thesis (1)
- Moving Images (1)
- Study Thesis (1)
Keywords
- Elastic BVP (3)
- Apfelsaft (2)
- Apoptosis (2)
- Approximation (2)
- Curved viscous fibers (2)
- Elastisches RWP (2)
- Elastoplastisches RWP (2)
- Fluid dynamics (2)
- Hysterese (2)
- IMRT (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (31)
- Fraunhofer (ITWM) (21)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (18)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Biologie (12)
- Kaiserslautern - Fachbereich Chemie (12)
- Kaiserslautern - Fachbereich Informatik (11)
- Kaiserslautern - Fachbereich ARUBI (10)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (2)
For the last decade, optimization of beam orientations in intensitymodulated radiation therapy (IMRT) has been shown to be successful in improving the treatment plan. Unfortunately, the quality of a set of beam orientations depends heavily on its corresponding beam intensity proles. Usually, a stochastic selector is used for optimizing beam orientation, and then a single objective inverse treatment planning algorithm is used for the optimization of beam intensity proles. The overall time needed to solve the inverse planning for every random selection of beam orientations becomes excessive. Recently, considerable improvement has been made in optimizing beam intensity proles by using multiple objective inverse treatment planning. Such an approach results in a variety of beam intensity proles for every selection of beam orientations, making the dependence between beam orientations and its intensity proles less important. We take advantage of this property to present a dynamic algorithm for beam orientation in IMRT which is based on multicriteria inverse planning. The algorithm approximates beam intensity proles iteratively instead of doing it for every selection of beam orientation, saving a considerable amount of calculation time. Every iteration goes from an N-beam plan to a plan with N + 1 beams. Beam selection criteria are based on a score function that minimizes the deviation from the prescribed dose, in addition to a reject-accept criterion. To illustrate the eciency of the algorithm it has been applied to an articial example where optimality is trivial and to three real clinical cases: a prostate carcinoma, a tumor in the head and neck region and a paraspinal tumor. In comparison to the standard equally spaced beam plans, improvements are reported in all of the three clinical examples, even, in some cases with a fewer number of beams.
In this article, we give an explicit homotopy between the solutions (i.e. stress, strain, displacement) of the quasistatic linear elastic and nonlinear elastoplastic boundary value problem, where we assume a linear kinematic hardening material law. We give error estimates with respect to the homotopy parameter.
We present the application of a meshfree method for simulations of interaction between fluids and flexible structures. As a flexible structure we consider a sheet of paper. In a two-dimensional framework this sheet can be modeled as curve by the dynamical Kirchhoff-Love theory. The external forces taken into account are gravitation and the pressure difference between upper and lower surface of the sheet. This pressure difference is computed using the Finite Pointset Method (FPM) for the incompressible Navier-Stokes equations. FPM is a meshfree, Lagrangian particle method. The dynamics of the sheet are computed by a finite difference method. We show the suitability of the meshfree method for simulations of fluid-structure interaction in several applications.
In this paper we present and investigate a stochastic model for the lay-down of fibers on a conveyor belt in the production process of nonwovens. The model is based on a stochastic differential equation taking into account the motion of the ber under the influence of turbulence. A reformulation as a stochastic Hamiltonian system and an application of the stochastic averaging theorem lead to further simplications of the model. Finally, the model is used to compute the distribution of functionals of the process that might be helpful for the quality assessment of industrial fabrics.
A unified approach to Credit Default Swaption and Constant Maturity Credit Default Swap valuation
(2006)
In this paper we examine the pricing of arbitrary credit derivatives with the Libor Market Model with Default Risk. We show, how to setup the Monte Carlo-Simulation efficiently and investigate the accuracy of closed-form solutions for Credit Default Swaps, Credit Default Swaptions and Constant Maturity Credit Default Swaps. In addition we derive a new closed-form solution for Credit Default Swaptions which allows for time-dependent volatility and abitrary correlation structure of default intensities.1
Selection of new projects is one of the major decision making activities in any company. Given a set of potential projects to invest, a subset which matches the company's strategy and internal resources best has to be selected. In this paper, we propose a multicriteria model for portfolio selection of projects, where we take into consideration that each of the potential projects has several - usually conflicting - values.
Adaptive Strukturoptimierung von Faserkunststoffverbunden unter Berücksichtigung bionischer Aspekte
(2006)
Es finden immer häufiger Faserverbundmaterialien in Strukturbauteilen Anwendung,
da bei konventionellen Materialien die Zielkriterien, wie definierte Festigkeit, Steifigkeit,
etc. nicht mehr bzw. nicht mit hinreichend geringem Bauteilgewicht erreicht werden
können. Angesichts der hohen Kosten ist es verständlich, dass Faserkunststoffverbunde
(FKV) vorzugsweise in den Bereichen eingesetzt werden, wo die eingangs
erwähnten Optimierungsziele hohe Priorität haben. Besonders hervorzuheben ist
hierbei die Luft- und Raumfahrt. Zunehmende Bedeutung gewinnt der Einsatz von
Faserverbundwerkstoffen aber auch in der Automobil- bzw. Maschinenbauindustrie.
Mit fortschreitender Verbesserung der Optimierungsmethoden sowie der Fertigungstechnologien
und der damit verbundenen Kostenreduktion, werden heute bereits
komplexe Module hergestellt. Das zieht wiederum eine lastgerechte und werkstoffspezifische
Konstruktion nach sich. Gegenstand der Arbeit ist die Entwicklung eines
Topologieoptimierungswerkzeuges zur werkstoffgerechten Auslegung von FKVStrukturen.
Ziel ist, FKV - eine Klasse von Hochleistungswerkstoffen, deren Potenzial
sich nur mit geeigneten Modellen zur Nutzung ihrer anisotropen Eigenschaften ausschöpfen
lässt - unter Berücksichtigung der technischen Realisierbarkeit zu optimieren.
Dabei werden natürliche Wachstumsprinzipien in einen iterativen Prozess überführt.
Als Ziel dieses Algorithmus kann entweder eine gezielte Steifigkeit oder eine
gewichtsoptimale Lösung bei hinreichender Festigkeit mit möglichst gleichmäßiger
Spannungsverteilung im Bauteil definiert werden. Erreicht wird dies durch eine effektive
Lastverteilung von hoch belasteten auf geringer belastete Bereiche und somit
auch die Optimierung der Materialverteilung. In diesem Designvorschlag wird die
Grundorientierung der Basisschicht, die kraftflussgerechte Orientierung der Laminateinzellagen
sowie die Topologie von Zulagenschichten bzw. des Gesamtlaminates
optimiert. Besonders interessant ist die adaptive Strukturoptimierung von FKVStrukturen
bei lokalen Zulagen an hoch belasteten Krafteinleitungsstellen bzw. allgemein
in Bereichen hoher Spannungen. Wie weiterhin gezeigt wird, ist die entwickelte
adaptive Topologie- und Faserwinkeloptimierung in Kombination aus technologischer,werkstoffmechanischer sowie wirtschaftlicher Sicht vorteilhaft und kann
problemlos in der Praxis angewandt werden.
More and more fibre-reinforced composite materials are being used in structural building
components because with conventional materials, the target criteria, such as
defined strength, rigidity etc. can no longer be achieved with a sufficiently low weight
of the structural components, if at all. In view of the high costs, it is understandable
that fibre-reinforced plastic composites tend to be used in technical areas where the
optimization goals mentioned above have a high priority. The aviation and aerospace
industry deserves special mention here. The use of fibre composite materials is also
gaining significance in the automotive and mechanical engineering industry. Thanks
to increasing improvements in optimization methods and manufacturing technologies
and the reduction in costs that this brings with it, complex modules are being produced
even today. This in turn ensures specific-material construction with the necessary
load-bearing properties. The objective of the presentation is the development of
a topology optimization tool for designing Fibre-plastic-composite (FPC)-structures
which is appropriate for each material involved. The objective is to optimize FPC – a
class of high-performance materials the potential of which can only be exploited with
suitable models for the utilization of their anisotropic properties – under consideration
of their capability for technical realization. In doing so, natural growth principles are
implemented into an iterative process, thereby enabling computer simulation. The
main goal of this algorithm is maximum rigidity with as even a distribution of tension
as possible throughout the component, which is achieved by distributing the load
from high-load to lower load bearing areas, thereby optimizing the material distribution.
The weight optimization of specific components is possible in this way. The basic
orientation of the base layer, the orientation of the individual laminate layers in a
manner appropriate to the power flux, as well as the topology of bonding layers
and/or the entire laminate are optimized in this design recommendation. Of particular
interest here is the adaptive structural optimization of FPC structures with localized
bonding to high-load bearing load introduction points or generally, in areas with high
stresses. As continues to be shown, the developed adaptive topology and fibre angle optimization is beneficial from a technological, material-mechanical and economical
point of view, and can be applied in everyday practice without any problems.
Die vorliegende Arbeit stellt die Ergebnisse vor, die unter Einsatz von optischer Molekülspektroskopie und quantenchemischen Berechnungen von Merocyanin-Dimeraggregaten erzielt wurden. Mit Hilfe der UV/Vis-Spektroskopie konnten aus der Vielzahl der zur Verfügung stehenden Farbstoffe diejenigen mit ausgeprägter Aggregationsneigung identifiziert werden. Für neun positiv getestete Verbindungen wurden konzentrations- und temperaturabhängige UV/Vis-Spektren aufgenommen. Die Auswertung gelang dabei mit einem selbst entwickelten Algorithmus, der neben der Aggregationskonstante auch die reinen Spektren von Monomer und Dimer berechnet. Für eine Serie von acht neuen Merocyaninen wurde eine umfassende Charakterisierung der elektrooptischen Eigenschaften vorgestellt und die Ergebnisse im Hinblick auf deren Anwendung diskutiert. Für zwei weitere Farbstoffe konnte eine Beeinflussung der Dimerisierung durch ein äußeres elektrisches Feld frei von Diskrepanzen bestätigt werden. Implikationen der beobachteten Befunde auf das Design photonischer Materialien mit exzitonisch gekoppelten Dimeren wurden besprochen. Durch die stationären und dynamischen Fluoreszenzmessungen konnte das bislang nur für einen Farbstoff bekannte Phänomen der Emission von H-Typ Dimeren an drei weiteren Merocyaninen nachgewiesen werden. Es gelang eine präzise spektrale Trennung der Teilbeiträge von Monomer und Dimer in Absorption sowie Emission vorzunehmen und damit erstmals den von Kasha[1] 1965 vorhergesagten Relaxationskanal für H-Typ Aggregate in allen Details quantitativ zu belegen. Durch quantenchemische Berechnungen auf MP2-Niveau konnte die Geometrie von sechs Monomeren und Dimeren optimiert und mit Hilfe experimenteller Strukturinformationen verifiziert werden. Auf Basis dieser Geometrien wurden essentielle Eigenschaften vom elektronischen Grund- und Anregungszustand berechnet und damit Übereinstimmungen und Unterschiede zu den Experimenten aufgezeigt. Weiterhin wurde eine Möglichkeit zur Vorhersage der Aggregationsneigung für einen gegebenen Strukturtyp alleine auf Grundlage von quantenchemischen Ergebnissen vorgestellt. Im Hinblick auf die grundlegenden Triebkräfte der Aggregation ergab die Analyse, dass die Dimerisierung im Wesentlichen auf elektrostatischen Dipol-Dipol- und Dispersionswechselwirkungen beruht, daneben aber auch von der Topologie der Chromophore abhängige lokale Wechselwirkungen einen Beitrag leisten.
Regenüberlaufbecken (RÜB) sind wichtige Bauwerke in Entwässerungsnetzen nach dem Mischverfahren. Sie tragen durch ihre Rückhaltewirkung dazu bei, den Schmutzaustrag in die Gewässer zu vermindern und die nachfolgende Kläranlage während der Niederschlagsereignisse zu entlasten. Obwohl nach einheitlichen Richtlinien bemessene Regenüberlaufbecken in großer An-zahl in Deutschland in Betrieb sind, ist über die Wirkung dieser recht teuren Bauwerke noch sehr wenig bekannt. Das gilt auch für alternative Anlagen wie hydrodynamische Abscheider und Kombinationsbauwerke, die in den letzten Jahren gebaut worden sind. Hier knüpft die vorliegende Arbeit an, deren Ziel es war, die Wirkung eines Kombinati-onsbauwerks in Bexbach/Rothmühle, bestehend aus Durchlaufbecken im Nebenschluss und zwei parallel beschickten hydrodynamischen Abscheidern als Trennbauwerke, zu untersuchen und modelltechnisch nachzubilden. Am Anfang der Arbeit steht ein Exkurs über Anlagen der Regenwasserbehandlung im Mischsystem und Faktoren, die für deren Reinigungswirkung maßgebend sind. Es wer-den die Grundlagen der Sedimentation und Ansätze zur Bilanzierung von Wirkungsgrad und Effektivität behandelt. Die Bedeutung des Bilanzierungszeitraums wird herausgestellt. Anschließend werden die Randbedingungen für die Untersuchungen des RÜB Bex-bach/Rothmühle sowie die Konzeption und der Betrieb des Bauwerks erläutert. Um die Wirkungsweise des Bauwerks zu ermitteln, wurden umfangreiche Messungen der Abflussquantität und -qualität an verschiedenen Punkten des Bauwerks durchgeführt. Die gemessenen Daten dienten dann als Grundlage zur Bestimmung der Wir-kungsgrade und Effektivitäten der einzelnen Anlagenteile sowie der Gesamtanlage für einige Entlastungsereignisse. Die Ergebnisse der Auswertungen über die Reinigungswirkung wurden mit den Resultaten ähnlicher Untersuchungen an anderen Anlagen verglichen und es wurde eine qualitative Wertung des untersuchten Bauwerks vorgenom-men. Im nächsten Schritt wurden sowohl die Ergebnisse der Untersuchungen als auch eines Tracerversuchs dazu genutzt, ein MATLAB/SIMULINK-Modell zur Nachbildung der Reinigungsvorgänge zu entwickeln. Durch die Verknüpfung dieses Modells mit dem Schmutzfrachtmodell WKosmoCOM gelang es, das Langzeitverhalten des Kombinati-onsbauwerks zu untersuchen. In einer vergleichenden Betrachtung der langfristigen Entlastungstätigkeit der unter-suchten Anlage mit der eines fiktiven Durchlaufbeckens im Nebenschluss herkömmli-cher Bauart wurde abgeschätzt, ob Speichervolumen durch den Einsatz der Kombinati-on von Wirbelabscheider und Durchlaufbecken eingespart werden kann. Die angesetzte Reinigungswirkung des fiktiven Durchlaufbeckens orientierte sich dabei an derjenigen, die für die Durchlaufbeckenstufe des untersuchten Bauwerks festgestellt wurde zuzüglich eines Aufschlags zur Verbesserung der Rückhaltewirkung. In mehreren Simulationsläufen auf der Basis des MATLAB/SIMULINK-Modells, gekoppelt mit dem Schmutzfrachtmodell WKosmoCOM, wurde das Volumen des fiktiven Beckens variiert, bis die Rückhaltewirkung der des realen Beckens entsprach. Der aus dem Vergleich resultierende Volumenunterschied ist ein Maß für das Einsparpotenzial. Die Simulationen erga-ben, dass die Reinigungswirkung des untersuchten Kombinationsbauwerks durch ein herkömmliches Durchlaufbecken erreicht wird, dessen Speichervolumen um etwa 17% größer ist.
Annual Report 2005
(2006)
Annual Report, Jahrbuch AG Magnetismus
Die Phagozytose apoptotischer Zellen ist ein essentieller Schritt bei der Embryogenese und dem Erhalt der Gewebehomöostase. Phagozyten beseitigen dabei nicht nur die sterbenden Zellen und verhindern damit eine Freisetzung immunogener zellulärer Bestandteile ins umliegende Gewebe, sondern unterdrücken aktiv pro-inflammatorische Antworten, wie die Sekretion von TNFalpha oder die Produktion von NO. Das Wissen über die zugrunde liegenden Prozesse und Mechanismen ist noch lückenhaft. Auch wenn bereits eine Vielzahl von beteiligten Rezeptoren und Reaktionen der Phagozytenzellen auf apoptotische Zellen (AZ) bekannt sind, sind die verantwortlichen und vermutlich sehr komplexen Signalwege noch relativ wenig erforscht. Die Produktion von kleinen reaktiven Molekülen wie NO oder Sauerstoffradikale (ROS) durch Makrophagen ist ein initialer Schritt zur Bekämpfung von Pathogenen. Zu Beginn meiner Promotion lagen noch keinerlei Daten bezüglich eines Einflusses apoptotischen Materials auf die ROS-Produktion aktivierter Makrophagen vor. Der grundlegende anti-inflammatorische Makrophagenphänotyp nach der Phagozytose von AZ führte zur Hypothese, dass auch diese durch AZ beeinflusst würde. Diese Überlegung bildete den Ausgangspunkt für meine Studien: Zunächst gelang es mir, ein Testsystem zur Untersuchung anti-inflammatorischer Effekte in Makrophagen nach der Phagozytose von AZ zu etablieren. Dabei konnte ich zeigen, dass die von mir verwendeten apoptotischen Jurkat-Zellen von murinen RAW264.7-Makrophagen aufgenommen werden und deren pro-inflammatorische Antwort, gemäß der Literatur, zu hemmen vermögen. In durchflusszytometrischen Untersuchungen konnte ich mittels eines Redox-sensitiven Farbstoffs zeigen, dass AZ im Gegensatz zu nekrotischen oder vitalen Zellen die TPA-vermittelte ROS-Produktion in Makrophagen inhibieren. Sowohl durch EMSA und Western Blot-Analysen, als auch durch die Verwendung von d/n PPARgamma und PKCalpha-überexprimierenden Makrophagen, konnte ich nachweisen, dass die initiale Hemmung des ‚oxidative burst’ (innerhalb 1 Stunde) über eine PPARgamma-induzierte Inhibition der PKCalpha-vermittelt wird. Für diese reicht eine Bindung von AZ an die Makrophagen aus, während zu späteren Zeitpunkten andere, noch unbekannte Faktoren involviert scheinen. Dieser Mechanismus scheint auch in primären humanen Makrophagen von Bedeutung zu sein. Die Beobachtung, dass es nach der Behandlung aktivierter Makrophagen mit AZ zu einer verminderten IFNgamma-vermittelten NO-Produktion bei stark exprimierter iNOS kommt, ließ die Theorie zu, dass nicht - wie bisher vermutet - TGFbeta für diesen Effekt verantwortlich ist. Auch hier gelang es mir, neue Erkenntnisse über den zugrunde liegenden Mechanismus der AZ-vermittelten NO-Inhibition zu erlangen: Mittels eines Aktivitäts-Assays und durch Einsatz des spezifischen Arginaseinhibitors nor-NOHA konnte ich zeigen, dass der Einfluss von AZ auf aktivierte Makrophagen nicht etwa deren iNOS-Aktivität verringert, sondern vielmehr aus einer erhöhten Arginaseaktivität resultiert. Diese führt scheinbar zu einer verminderten Substratverfügbarkeit für die iNOS und hemmt so die NO-Produktion. Western Blot- und quantitative PCR-Versuche zeigten eine erhöhte Arginase II-Expression nach Stimulation mit AZ, welches ebenfalls meine Theorie unterstützt. Ferner konnte ich durch den Einsatz von AZ-konditioniertem Medium zeigen, dass ein noch unbekannter, von AZ sekretierter löslicher Faktor für die Hemmung der NO-Produktion verantwortlich ist. Die Beobachtung einer sehr frühen COX-2-Expression nach der Inkubation von Makrophagen mit AZ und das Nichtvorhandensein entsprechender Beobachtungen in der Literatur führten dazu, dass ich mich im letzten Teil meiner Arbeit mit dem hierfür verantwortlichen Mechanismus befasste: Unter Verwendung eines Luziferase-Assays, bei dem das Luziferasegen mit der 3´-UTR oder AREs des COX-2-Gens gekoppelt war, konnte ich zeigen, dass - wie schon bei der Inhibition der NO-Produktion durch die Arginase II - ein von AZ sekretierter löslicher Faktor für eine schnelle, AZ-spezifische und höchstwahrscheinlich durch COX-2-mRNA-Stabilisierung vermittelte Proteinexpression verantwortlich war. Eine schnelle Erhöhung der COX-2-mRNA nach AZ-Stimulus sowie jüngste Untersuchungen unserer Arbeitsgruppe, welche eine erhöhte COX-2-mRNA-Halbwertszeit zeigen, unterstützen diese Hypothese. Die von mir gewonnenen neuen Erkenntnisse über die Makrophagenreprogrammierung nach der Erkennung von AZ tragen zu einem tieferen Verständnis der zugrunde liegenden Signalwege und Mechanismen bei. Es besteht die hoffnungsvolle Aussicht, dass das Verstehen und die Manipulation der ablaufenden Prozesse bei der Phagozytose von AZ eines Tages einerseits neue Therapiemöglichkeiten zur Behandlung von Infektions- und Autoimmunkrankheiten und andererseits verbesserte Strategien zur Bekämpfung von Krebs ermöglichen werden.
Ein typisches Mittelklassefahrzeug hat mittlerweile 100 Computerprozessoren,die miteinander kommunizieren, und bildet damit ein komplexes Softwaresystem. Die steigende Anzahl der miteinander kommunzierenden Funktionen trägt dazu bei, dass die Komplexität der Steurungssoftware immer schwerer zu beherrschen ist. Trotz eines enormen Kostenaufwands zur Entwicklung der entsprechenden Softwarekomponenten sind Softwarefehler bei Fahrzeugen der automobilen Oberklasse eine der am häufigsten angeführten Ursachen in der Pannenstatistik. Die Tatsache, dass die angeführten Funktionalitäten verteilt und parallel auf einer steigenden Anzahl unterschiedlicher Mikrokontroller abgearbeitet werden, birgt zusätzliche Probleme. Es ist jedoch Fakt, dass der Markt nach Funktionalitäten wie ABS, ASR und ESP verlangt, die zu einem wesentlichen Teil aus Software bestehen. Es ist also notwendig, einen alternativen Softwareansatz zu finden, der die Komplexität der Steuerungssoftware beherrschbar werden lässt und dennoch den Anforderungen des automobilen Umfelds, wie zum Beispiel der Verlässlichkeit gerecht wird. Dies wird in dieser Arbeit mit hilfe einer verhaltensbasierten steuerung erreicht.
We consider a volume maximization problem arising in gemstone cutting industry. The problem is formulated as a general semi-infinite program (GSIP) and solved using an interiorpoint method developed by Stein. It is shown, that the convexity assumption needed for the convergence of the algorithm can be satisfied by appropriate modelling. Clustering techniques are used to reduce the number of container constraints, which is necessary to make the subproblems practically tractable. An iterative process consisting of GSIP optimization and adaptive refinement steps is then employed to obtain an optimal solution which is also feasible for the original problem. Some numerical results based on realworld data are also presented.
During the recent years, multiobjective evolutionary algorithms have matured as a flexible optimization tool which can be used in various areas of reallife applications. Practical experiences showed that typically the algorithms need an essential adaptation to the specific problem for a successful application. Considering these requirements, we discuss various issues of the design and application of multiobjective evolutionary algorithms to real-life optimization problems. In particular, questions on problem-specific data structures and evolutionary operators and the determination of method parameters are treated. As a major issue, the handling of infeasible intermediate solutions is pointed out. Three application examples in the areas of constrained global optimization (electronic circuit design), semi-infinite programming (design centering problems), and discrete optimization (project scheduling) are discussed.
Arealweite Phylogeografie und Populationsgenetik der temperat-montanen Meum athamanticum (Apiaceae)
(2006)
Die vorliegende Arbeit befasst sich mit der molekularen Biogeografie und der Populationsgenetik von Meum athamanticum (Apiaceae). Die Untersuchung stellt dabei die erste arealweite Phylogeografie einer europäischen temperat-montanen Pflanzenart dar. Neben der biogeografischen Struktur lag ein Schwerpunkt dieser Arbeit auf der Untersuchung der M. athamanticum-Populationen des mitteleuropäischen Periglazialgebietes. Dadurch sollte ein Beitrag zur aktuell geführten Debatte und Theoriebildung der postglazialen Arealentwicklung temperater Arten geleistet und die Rolle des mitteleuropäischen Mittelgebirgsraums für die historische Entwicklung der Art beleuchtet werden. Auf der Basis populationsgenetischer Analysen sollten außerdem Aussagen zum Schutz der gefährdeten Art M. athamanticum getroffen werden. Für die Arbeit wurden AFLP-Untersuchungen an 173 Individuen aus 23 Populationen aus dem gesamten Verbreitungsgebiet von M. athamanticum durchgeführt. Außerdem wurden von 24 Individuen ITS- und ETS-Sequenzen erzeugt und analysiert, um Hinweise auf die ursprünglichen Evolutionsvorgänge innerhalb der Art zu erhalten. Für die feinere Auflösung des mitteleuropäischen Teilareals wurde in einem zweiten AFLP-Datensatz 210 Individuen aus 14 Populationen untersucht. Innerhalb der Art ist eine deutliche Nord-Süd-Differenzierung nachweisbar, die durch eine intermediäre Populationsgruppe in den Südwest-Alpen, die vermutlich eine sekundäre Kontaktzone repräsentiert, getrennt wird. Die starke genetische Separierung südlicher Populationen und die Existenz distinkter ITS/ETS-Haplotypen liefern Hinweise darauf, dass die Auftrennung innerhalb M. athamanticum relativ alt ist. Das wird gestützt durch die Tatsache, dass in allen drei großen geografischen Regionen Populationen mit hoher genetischer Diversität und genetisch alte Reliktpopulationen, die durch eine hohe Zahl eigener Fragmente gekennzeichnet sind, existieren. Die Ergebnisse der individuellen und populationsbezogenen Diversitätsanalysen zeigen, dass M. athamanticum sich nicht an den großräumigen Rekolonisationsvorgängen der europäischen Flora beteiligte, sondern zumindest das letzte glaziale Maximum im periglazialen Mitteleuropa überdauerte. Ein Refugialgebiet bestand wahrscheinlich im Umfeld des französischen Zentralmassivs, ein weiteres vermutlich im Randbereich von Ardennen/Eifel. Weiter gibt es Hinweise darauf, dass rund um den Gebirgsbogen des Erzgebirges und im Umfeld des Schwarzwaldes Refugien der Art gelegen haben. Und schließlich wird eine glaziale Persistenz im Bereich der Britischen Inseln postuliert. Eine Gruppe mit Populationen aus dem Thüringer Wald und dem Bayerischen Alpenvorland sind als Übergangsgruppe und sekundäre Kontaktzone zwischen den mitteleuropäischen Refugien zu deuten. Die Ergebnisse weisen auf unterschiedliche Migrationsmuster von M. athamanticum hin, die durch die topografischen Gegebenheiten in den geografischen Teilräumen geprägt sind. Im nördlichen Teilareal von M. athamanticum kam es bei einem vergleichbar wenig ausgeprägten Relief (heutige Vorkommen zwischen 200 und 1020 m ü. NN) zu geografisch weiträumigen longitudinalen und latitudinalen Migrationen, was die Bildung intramontaner Populationen und den genetischen Austausch mit benachbarten Populationen ermöglichte. Demgegenüber kam es in Südeuropa während kalter Perioden im Zuge der klimabedingten Absenkung der Vegetationszonen zu geografisch eng begrenzten, altitudinalen Wanderungsbewegungen (heutige Vorkommen zwischen 1400 und 2900 m ü. NN), womit ein genetischer Austausch zwischen benachbarten Populationen auch in den Kaltphasen eingeschränkt war. Die genetischen Merkmale (AMOVA: Differenzierung zwischen den Populationen; NJ: längere Äste; modellbasiertes Clusterverfahren: höhere Likelihood für Differenzierung; hohe Anzahl privater und fixierter privater Fragmente und isolation-by-distance der Populationen des südlichen Arealrandes (rear edge) reflektieren insgesamt Isolationsereignisse, die vermutlich bis in das Tertiär zurückreichen. Aus den Ergebnissen der arealweiten phylogeografischen Studie als auch der mitteleuropäischen populationsgenetischen Studie können Schlussfolgerungen für den Schutz von M. athamanticum gezogen werden können. Dabei werden die rear-edge-Populationen der südeuropäischen Hochgebirge, genetisch rezent verarmte Kleinpopulationen in Mitteleuropa und die genetisch diversen Populationen in allen Teilarealen als prioritär für den Erhalt der Art eingestuft.
In this thesis, we have dealt with two modeling approaches of the credit risk, namely the structural (firm value) and the reduced form. In the former one, the firm value is modeled by a stochastic process and the first hitting time of this stochastic process to a given boundary defines the default time of the firm. In the existing literature, the stochastic process, triggering the firm value, has been generally chosen as a diffusion process. Therefore, on one hand it is possible to obtain closed form solutions for the pricing problems of credit derivatives and on the other hand the optimal capital structure of a firm can be analysed by obtaining closed form solutions of firm's corporate securities such as; equity value, debt value and total firm value, see Leland(1994). We have extended this approach by modeling the firm value as a jump-diffusion process. The choice of the jump-diffusion process was a crucial step to obtain closed form solutions for corporate securities. As a result, we have chosen a jump-diffusion process with double exponentially distributed jump heights, which enabled us to analyse the effects of jump on the optimal capital structure of a firm. In the second part of the thesis, by following the reduced form models, we have assumed that the default is triggered by the first jump of a Cox process. Further, by following Schönbucher(2005), we have modeled the forward default intensity of a firm as a geometric Brownian motion and derived pricing formulas for credit default swap options in a more general setup than the ones in Schönbucher(2005).
It is commonly believed that not all degrees of freedom are needed to produce good solutions for the treatment planning problem in intensity modulated radiotherapy treatment (IMRT). However, typical methods to exploit this fact have either increased the complexity of the optimization problem or were heuristic in nature. In this work we introduce a technique based on adaptively refining variable clusters to successively attain better treatment plans. The approach creates approximate solutions based on smaller models that may get arbitrarily close to the optimal solution. Although the method is illustrated using a specific treatment planning model, the components constituting the variable clustering and the adaptive refinement are independent of the particular optimization problem.
Die Kanzerogenität von Dioxinen ist bisher am besten an der Prototyp“-Verbindung 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD) untersucht worden. TCDD wurde im Jahr 1997 von der International Agency for Research on Cancer (IARC) als Klasse I Kanzerogen eingestuft, obwohl bislang die Mechanismen der kanzerogenen Wirkung von TCDD noch nicht hinreichend geklärt werden konnten. Im Rahmen dieser Arbeit wurde von der Arbeitshypothese ausgegangen, dass TCDD über die durch den Arylhydrocarbon Rezeptor (AhR) massiv vermittelte Induktion von fremdstoffmetabolisierenden Phase I Enzymen, vor allem von CYP1A1, eine erhöhte Bildung reaktiver Sauerstoffspezies verursacht, welche die DNA schädigen können und potenziell mutagen sind. Im Rahmen der vorliegenden Arbeit wurde ein System entwickelt, das ausreichend große Mengen an CYP1A1 exprimieren sollte ohne dass zuvor eine das Studienergebnis möglicherweise verfälschende Behandlung mit einem AhR-Agonisten (z.B. TCDD) stattgefunden hat. Erstes Ziel war die Etablierung eines geeigneten in-vivo Systems, nämlich die Erzeugung einer transgenen, humanes CYP1A1 überexprimierenden Maus. Das humane CYP1A1 Transgen wurde in den generierten, transgenen Mauslinien nicht wie erwartet exprimiert, obwohl die Integration in das Genom der Mäuse zweifelsfrei nachgewiesen werden konnte. Zwar konnte eine Induktion von hCYP1A1 in verschiedenen Organen der Mäuse auf mRNA Ebene nachgewiesen werden, allerdings wurde im Vergleich zu Wildtyp Tieren weder eine Steigerung der CYP1A1 Proteinmenge noch deren katalytischer Aktivität erzielt. Im zweiten Teil der Arbeit wurden in-vivo Untersuchungen hinsichtlich oxidativem Stress und DNA-Schädigung an TCDD behandelten C57B6 Mäusen und Sprague-Dawley Ratten bzw. an deren entsprechenden Kontrollen, sowie an transgenen Mäusen mit konstitutiv aktivem AhR (CA-AhR) durchgeführt. Die CA-AhR Linie bot eine weitere Möglichkeit, die Auswirkungen der AhR-vermittelten Genexpression ohne Verwendung eines AhR-Liganden in-vivo zu untersuchen. Als Messparameter für oxidativen Stress wurde der auf Fluoreszenz basierende H2DCFDA Assay im 96 Well Format etabliert. Als Marker für oxidative DNA-Schäden wurde der Gehalt an 8-oxo dG in genomischer DNA individueller Proben mittels HPLC-MS quantifiziert. Ob evtl. erhöhte ROS Gehalte bzw. DNA Schäden nach TCDD Expostition in einen direkten Zusammenhang mit AhR-regulierten CYP1A Induktion stehen wurde durch die Analyse der katalytischen CYP1A Aktivität mittels EROD-Assay überprüft. Die gefundenen Ergebnisse wiesen darauf hin, dass die ROS Bildung möglicherweise auch im in-vivo Experiment davon abhängt, wie stark TCDD als Induktor von CYP1A Enzymen wirkt. Die Daten zeigten aber auch, dass es sich in-vivo bei der TCDD vermittelten Induktion von oxidativen DNA-Schäden vermutlich um einen chronischen Langzeiteffekt handelt, der nicht ausschließlich von TCDD Leberlast oder CYP1A Enzyminduktion abzuhängen scheint. Mit Hilfe von Mikrosomen (SupersomesTM) aus stabil transfizierten Insektenzellen wurde des weiteren das individuelle ROS-Bildungspotenzial einzelner, AhR-regulierter CYP-Enzyme mittels H2DCFDA Assay untersucht. Die SupersomesTM Experimente bestätigten generell die Hypothese, dass TCDD induzierte CYPs eine potenzielle Quelle für ROS darstellen. Generell konnte die Hypothese bestärkt werden, dass die ROS Bildung nach TCDD Exposition eine Konsequenz der AhR vermittelten CYP Induktion darstellt. Isolierte RNA aus den Lebern von Mäusen wurde mit Hilfe von Microarrays auf Veränderungen der Genexpressionsmuster untersucht, die Hinweise auf gentoxischen bzw. oxidativen Stress und andere prokarzinogene Veränderungen als Konsequenz einer TCDD Exposition bzw. der konstitutiven Aktivität des AhR geben sollten. Die (permanente) Aktivierung des AhR führte einerseits in der Leber von Mäusen generell zu einem erhöhten oxidativen Stress. Andererseits konnte gezeigt werden, dass pro- und antiapoptotische Signalwege an diesem Prozess beteiligt zu sein scheinen, möglicherweise als Konsequenz des induzierten oxidativen Stresses.
Das Ziel dieser Arbeit lag in der Aufklärung zellulärer Wirkmechanismen von Apfelpolyphenolen und deren möglicher Relevanz im Hinblick auf die Chemoprävention, insbesondere des kolorektalen Karzinoms. Die Untersuchungen haben gezeigt, dass polyphenolreiche Apfelextrakte in vitro das Wachstum der humanen Kolonkarzinomzelllinie HT29 hemmen, wobei die Induktion von Apoptose eine Rolle zu spielen scheint. Die Ergebnisse dieser Arbeit deuten darauf hin, dass polyphenolreiche Apfelsaftextrakte modulierend in Signalübertragungswege eingreifen, die wesentlich sind für die Regulation von Zellwachstum und Differenzierung. In erster Linie zeichnen sich dabei Effekte auf wachstumsfaktorvermittelte Signalwege ab. Als herausragende Wirkqualität des polyphenolreichen Apfelsaftextraktes AE02 bzw. des Apfeltresterextraktes AE03B ist ihre hocheffektive Hemmung der Proteintyrosinkinase (PTK)-Aktivität des epidermalen Wachstumsfaktorrezeptors (EGFR) zu nennen. Anhand von Untersuchungen zur Modulation des Phosphorylierungsstatus (als ein Maß für die Aktivität des EGFR) konnte gezeigt werden, dass die Hemmwirkung des AE02 nicht limitiert ist auf den isolierten EGFR, sondern auch in intakten Zellen zum Tragen kommt. Insgesamt zeigte sich allerdings, dass die bislang in Apfelextrakten identifizierten Inhaltsstoffe alleine bzw. in der Summe nur marginal sowohl zur Wachstumshemmung als auch zur Hemmung des EGFR beitragen. Oligomere Procyanidine dagegen erwiesen sich als hoch potente Hemmstoffe der PTK-Aktivität des isolierten EGFR. Die Proteinkinase C (PKC)-Isoenzymfamilie spielt ebenfalls eine Schlüsselrolle bei der Regulation von Wachstumsprozessen. In dieser Arbeit wurde der Frage nachgegangen, ob Apfelpolyphenole die PKC-Aktivität im Kolon beeinflussen. Dafür wurden humane Kolonkarzinomzellen im Vergleich zu primären humanen Enterozyten (Biopsie) untersucht. Die Ergebnisse zeigen, dass sowohl die PKC-Aktivität nicht transformierter humaner Enterozyten als auch humaner Kolonkarzinomzellen durch Apfelpolyphenole gehemmt wird. Der Apfelsaftextrakt AE02 konnte als Hemmstoff der isolierten zytosolischen PKC-Aktivität von HT29-Zellen charakterisiert werden. Eine 24-stündige serumfreie Inkubation von HT29-Zellen mit AE02 führt zu einer Hemmung der zytosolischen PKC-Aktivität; sogar in geringeren Konzentrationen im Vergleich zur Hemmwirkung an isolierter PKC. Dies könnte auf einer Hemmung PKC-vorgeschalteter Signalelemente beruhen, die so den hemmenden Effekt von AE02 auf die PKC-Aktivität verstärken könnten. Jedoch zeigte sich nach 24-stündiger Inkubation von HT29-Zellen ein U-förmiger Kurvenverlauf mit einem Anstieg der PKC-Aktivität in hohen Konzentrationen. Nachdem keine PKC-Aktivierung bei Zugabe von Apfelpolyphenolen zu isolierten Enzympräparationen zu beobachten war, kann eine direkte substanzvermittelte Aktivierung ausgeschlossen werden. Die Caspase-3-Aktivierung und die DNA-Fragmentierung, als Merkmale apoptotischer Prozesse; sowie der gezeigte Wiederanstieg des Gesamtproteingehaltes an proapoptotischer PKCdelta nach 24-stündiger Zellinkubation mit AE02 deuten darauf hin, dass die PKC-Aktivierung intermediär als Teil des apoptotischen Prozesses auftritt. Des Weiteren konnte gezeigt werden, dass der polyphenolreiche Apfelsaftextrakt AE02 potent die isolierte, aus humanen Kolonkarzinomzellen immunopräzipitierte, GSK3beta, einem Schlüsselenzym des Wnt-Signalweges, in seiner Aktivität hemmt. Auch in intakten Zellen führt die Inkubation (24 h) von HT29-Zellen mit Apfelpolyphenolen zu einer signifikanten konzentrationsabhängigen Hemmung der zellulären GSK3beta-Aktivität. Damit einher geht die signifikante Abnahme an phosphoryliertem beta-Catenin. Gleichzeitig nimmt unerwarteterweise der Gehalt an Gesamt-beta-Catenin ebenfalls ab. Die Ergebnisse weisen somit darauf hin, dass der polyphenolreiche Apfelsaftextrakt AE02 in humanen Kolonkarzinomzellen keinen Wachstumsstimulus über den Wnt-Signalweg induziert und aufgrund der Reduktion der Expression von beta-Catenin eher antiproliferative Effekte des AE02 zu erwarten sind. Zusammenfassend ist festzustellen, dass Apfelpolyphenole in/unterhalb von Polyphenolkonzentrationen polyphenolreicher Apfelsäfte (z. B. 500 mg/l im Projektsaft AS02), in vitro in Signaltransduktionskaskaden eingreifen, die mit der Entstehung kolorektaler Karzinome assoziiert werden.
Der Bericht beinhaltet schwerpunktmäßig die Punkte "Informationstechnik und digitale Bibliotheksdienste", "Informationsportal Internet", Online-Fachdatenbanken", "Elektronische Hochschulschriften, Lernmaterialien und Zeitschriften", "Literatur- und Sachmittel", "Literaturerwerbung, Bestand, Bestanderschließung", "Benutzung", "Öffentlichkeitsarbeit/Ausstellungen" und "Personelle Änderungen" innerhalb der Universitätsbibliothek Kaiserslautern für das Jahr 2005.
Um die in der Automatisierung zunehmenden Anforderungen an Vorschubachsen hinsichtlich Dynamik, Präzision und Wartungsaufwand bei niedriger Bauhöhe und kleiner werdendem Bauvolumen gerecht zu werden, kommen immer mehr Synchron-Linearmotoren in Zahnspulentechnik mit Permanentmagneterregung in Werkzeugmaschinen zum Einsatz. Als hauptsächlicher Vorteil gegenüber der rotierenden Antriebslösung mit Getriebeübersetzung und Kugelrollspindel wird die direkte Kraftübertragung ohne Bewegungswandler genannt. Der Übergang vom konventionellen linearen Antriebssystem zum Direktantriebssystem eröffnet dem Werkzeugmaschinenherstellern und den Industrieanwendungen eine Vielzahl neuer Möglichkeiten durch beeindruckende Verfahrgeschwindigkeit und hohes Beschleunigungsvermögen sowie Positionier- und Wiederholgenauigkeit und bietet darüber hinaus die Chance zu einer weiteren Produktivitäts- und Qualitätssteigerung. Um alle dieser Vorteile ausnutzen zu können, muss der Antrieb zuerst hinsichtlich der für Linearmotoren typisch Kraftwelligkeit optimiert werden. Die Suche nach wirtschaftlichen und praxistauglichen Gegenmaßnahmen ist ein aktuelles Forschungsthema in der Antriebstechnik. In der vorliegenden Arbeit werden die Kraftschwankungen infolge Nutung, Endeffekt und elektrischer Durchflutung in PM-Synchron-Linearmotor rechnerisch und messtechnisch untersucht. Ursachen und Eigenschaften der Kraftwelligkeit werden beschrieben und Einflussparameter aufgezeigt. Es besteht die Möglichkeit, die Kraftwelligkeit durch bestimmte Maßnahmen zu beeinflussen, z. B. mit Hilfe des Kraftwelligkeitsausgleichs bestehend aus ferromagnetischem Material oder durch gegenseitigen Ausgleich mehrerer zusammengekoppelter Primärteile. Wie die Untersuchungen gezeigt haben, ist eine Abstimmung der Einflussparameter auf analytischem Weg kaum möglich, in der Praxis führt das auf eine experimentell-iterative Optimierung mit FEM-Unterstützung. Die gute Übereinstimmung zwischen Messung und Simulation bietet einen klaren Hinweis, dass die hier vorgestellten Maßnahmen als geeignet angesehen werden können, sie ermöglichen eine Kraftwelligkeitsreduzierung von ursprünglichen 3-5% bis auf 1%, wobei eine leichte Herabsetzung der Kraftdichte in Kauf genommen werden muss. Beim Maschinenentwurf muss rechtzeitig ermittelt werden, welches Kompensationsverfahren günstig ist bezüglich der vorgesehenen Anwendungen.
This paper presents a method for approximating spherical functions from discrete data of a block-wise grid structure. The essential ingredients of the approach are scaling and wavelet functions within a biorthogonalisation process generated by locally supported zonal kernel functions. In consequence, geophysically and geodetically relevant problems involving rotation-invariant pseudodifferential operators become attackable. A multiresolution analysis is formulated enabling a fast wavelet transform similar to the algorithms known from one-dimensional Euclidean theory.
A translation contract is a binary predicate corrTransl(S,T) for source programs S and target programs T. It precisely specifies when T is considered to be a correct translation of S. A certifying compiler generates --in addittion to the target T-- a proof for corrTransl(S,T). Certifying compilers are important for the development of safety critical systems to establish the behavioral equivalence of high-level programs with their compiled assembler code. In this paper, we report on a certifying compiler, its proof techniques, and the underlying formal framework developed within the proof assistent Isabelle/HOL. The compiler uses a tiny C-like language as input, has an optimization phase, and generates MIPS code. The underlying translation contract is based on a trace semantics. We investigate design alternatives and discuss our experiences.
Durch vorangegangene Arbeiten wurden transgene Kartoffelpflanzen erzeugt, die eine verringerte Aktivität des plastidären ATP/ADP Transporters aufweisen (NTT-antisense). Die Knollen dieser Pflanzen zeigen nicht nur veränderte Gehalte an Primärmetaboliten sondern auch eine erhöhte Pathogen-Resistenz, zum Beispiel gegen den bakteriellen Krankheitserreger Erwinia carotovora ssp. atroseptica (Eca). In diesem Zusammenhang deuten neuere Veröffentlichungen auf eine Bedeutung von Transportproteinen für Wirt-Pathogen Wechselwirkungen hin. Im Zuge dieser Arbeit konnte durch die Herstellung eines Systems zur gezielten Erzeugung von Eca „K.O.“-Mutanten die Bedeutung von ausgewählten Sequenzen, welche für Transportproteine kodieren, analysiert werden. Hierbei zeigte sich, dass im Bezug auf die Virulenz von Eca, sowohl der Prolin- als auch der d-Galaktonattransport nur von untergeordneter Bedeutung ist. In weiteren Untersuchungen wurde allerdings der Karbonsäuremetabolismus und -transport von Eca als zentrales Element in der Entfaltung maximaler bakterieller Virulenz erkannt. Hierbei wurde das Cit1-Protein als hoch-affiner Citrattransporter, welcher über die bakterielle pmf energetisiert wird, identifiziert. Dieses Protein ist für ein Wachstum von Eca auf Citrat als einziger Kohlenstoffquelle notwendig und essentiell zur Etablierung einer vollständigen Pathogenese auf Kartoffelknollenscheibchen. So weisen Eca cit1 „K.O.“-Mutanten im Vergleich zu Wildtyp Zellen nicht nur eine geringere pektolytische Aktivität und Gewebemazeration, sondern auch ein reduziertes in planta Wachstum, auf. Des Weiteren wurde ermittelt, dass sich NTT-antisense Gewebe nicht nur durch eine erhöhte Pathogen-Resistenz auszeichnet, sondern auch erniedrigte Citratgehalte aufweist. Analog führte eine artifizielle Erhöhung des Citratgehaltes durch Infiltration von Knollengewebe zu einer deutlich erhöhten Gewebemazeration durch Eca sowie einer verringerten Akkumulation von Abwehrrelevanten pflanzlichen Gentranskripten (PR-Gene). Weitere untersuchte Eca-Mutanten belegten, dass im gemeinsamen Wirken mit anderen enzymatischen Komponenten, Citrat ein ambivalentes Molekül für pflanzliche Resistenz und bakterielle Virulenz ist. Weiterhin konnte gezeigt werden, dass Transportproteine nicht nur für die Virulenz von Eca, sondern auch für phytopathogene Pilze wie Magnaporthe grisea, von Bedeutung sind. So konnte durch die Kooperation mit der AG Thines (IBWF) das Genprodukt eines bei Pathogenese induzierten Genes (rig2), biochemisch charakterisiert werden. Hierbei wurde mittels Komplementation einer Hefemutante (22∆8AA) nachgewiesen, dass es sich bei diesem Protein um einen Prolin-Transporter handelt. Diese Arbeit zeigt, dass Transportproteine als ein wichtiges Element in Wirt-Pathogen Beziehungen wirken können und eine Charakterisierung solcher Proteine zum Verständnis dieser Wechselwirkungen unerlässlich ist.
In this article, we consider the quasistatic boundary value problems of linear elasticity and nonlinear elastoplasticity, with linear Hooke’s law in the elastic regime for both problems and with the linear kinematic hardening law for the plastic regime in the latter problem. We derive expressions and estimates for the difference of the solutions of both models, i.e. for the stresses, the strains and the displacements. To this end, we use the stop and play operators of nonlinear functional analysis. Further, we give an explicit example of a homotopy between the solutions of both problems.
In this thesis we present the implementation of libraries center.lib and perron.lib for the non-commutative extension Plural of the Computer Algebra System Singular. The library center.lib was designed for the computation of elements of the centralizer of a set of elements and the center of a non-commutative polynomial algebra. It also provides solutions to related problems. The library perron.lib contains a procedure for the computation of relations between a set of pairwise commuting polynomials. The thesis comprises the theory behind the libraries, aspects of the implementation and some applications of the developed algorithms. Moreover, we provide extensive benchmarks for the computation of elements of the center. Some of our examples were never computed before.
In contrast to the spatial motion setting, the material motion setting of continuum mechanics is concerned with the response to variations of material placements of particles with respect to the ambient material. The material motion point of view is thus extremely prominent when dealing with defect mechanics to which it has originally been introduced by Eshelby more than half a century ago. Its primary unknown, the material deformation map is governed by the material motion balance of momentum, i.e. the balance of material forces on the material manifold in the sense of Eshelby. Material (configurational) forces are concerned with the response to variations of material placements of 'physical particles' with respect to the ambient material. Opposed to that, the common spatial (mechanical) forces in the sense of Newton are considered as the response to variations of spatial placements of 'physical particles' with respect to the ambient space. Material forces as advocated by Maugin are especially suited for the assessment of general defects as inhomogeneities, interfaces, dislocations and cracks, where the material forces are directly related to the classical J-Integral in fracture mechanics, see also Gross & Seelig. Another classical example of a material - or rather configurational - force is emblematized by the celebrated Peach-Koehler force, see e.g. the discussion in Steinmann. The present work is mainly divided in four parts. In the first part we will introduce the basic notions of the mechanics and numerics of material forces for a quasi-static conservative mechanical system. In this case the internal potential energy density per unit volume characterizes a hyperelastic material behaviour. In the first numerical example we discuss the reliability of the material force method to calculate the vectorial J-integral of a crack in a Ramberg-Osgood type material under mode I loading and superimposed T-stresses. Secondly, we study the direction of the single material force acting as the driving force of a kinked crack in a geometrically nonlinear hyperelastic Neo-Hooke material. In the second part we focus on material forces in the case of geometrically nonlinear thermo-hyperelastic material behaviour. Therefore we adapt the theory and numerics to a transient coupled problem, and elaborate the format of the Eshelby stress tensor as well as the internal material volume forces induced by the gradient of the temperature field. We study numerically the material forces in a bimaterial bar under tension load and the time dependent evolution of material forces in a cracked specimen. The third part discusses the material force method in the case of geometrically nonlinear isotropic continuum damage. The basic equations are similar to those of the thermo-hyperelastic problem but we introduce an alternative numerical scheme, namely an active set search algorithm, to calculate the damage field as an additional degree of freedom. With this at hand, it is an easy task to obtain the gradient of the damage field which induces the internal material volume forces. Numeric examples in this part are a specimen with an elliptic hole with different semi-axis, a center cracked specimen and a cracked disc under pure mode I loading. In the fourth part of this work we elaborate the format of the Eshelby stress tensor and the internal material volume forces for geometrically nonlinear multiplicative elasto-plasticity. Concerning the numerical implementation we restrict ourselves to the case of geometrically linear single slip crystal plasticity and compare here two different numerical methods to calculate the gradient of the internal variable which enters the format of the internal material volume forces. The two numerical methods are firstly, a node point based approach, where the internal variable is addressed as an additional degree of freedom, and secondly, a standard approach where the internal variable is only available at the integration points level. Here a least square projection scheme is enforced to calculate the necessary gradients of this internal variable. As numerical examples we discuss a specimen with an elliptic inclusion and an elliptic hole respectively and, in addition, a crack under pure mode I loading in a material with different slip angles. Here we focus on the comparison of the two different methods to calculate the gradient of the internal variable. As a second class of numerical problems we elaborate and implement a geometrically linear von Mises plasticity with isotropic hardening. Here the necessary gradients of the internal variables are calculated by the already mentioned projection scheme. The results of a crack in a material with different hardening behaviour under various additional T-stresses are given.
Discontinuities can appear in different fields of mechanics. Some examples where discontinuities arise are more obvious such as the formation of cracks. Other sources of discontinuities are less apparent such as interfaces between different materials. Furthermore continuous fields with steep gradients can also be considered as discontinuous fields. This work aims at the inclusion of arbitrary discontinuities within the finite element method. Although the finite element method is the most sophisticated numerical tool in modern engineering, the inclusion of discontinuities is still a challenging task. Traditionally within finite the framework of FE methods discontinuities are modeled explicitely by the construction of the mesh. Thus, when a fixed mesh is used, the position of the discontinuity is prescribed by the location of interelement boundaries and not by the physical situation. The simulation of crack growth requires a frequent adaption of the mesh and that can be a difficult and computationally expensive task. Thus a more flexible numerical approach is needed which leads to the mesh-independent representation of the discontinuity. A challenging field where the accurate description of discontinuities is of vital importance is the modeling of failure in engineering materials. The load capacity of a structure is limited by the material strength. If the load limit is exceeded failure zones arise and increase. Representative examples of failure mechanisms are are cracks in brittle materials or shear bands in metals or soils. Failure processes are often accompanied by a strain softening material behaviour (decreasing load carrying capacity with increasing strain at a material point). It is known that the inclusion of strain softening material behaviour within a continuum description requires regularization techniques to preserve the well- posedness of the governing equations. One possibility is the consideration of non-local or gradient terms in the constitutive equations but these approaches require a sufficiently fine discretization in the localization zone, which leads to a high numerical effort. If the extent of the failure zone and the failure process to the point of the development of discrete cracks is considered it seems reasonable to include strong discontinuities. In the framework of fracture mechanics the inclusion of displacement jumps is intuitively comprehensible. However, the modeling of localized failure processes demands the consideration of inelastic material behaviour. Cohesive zone models represent an approach which is especially suited for the incorporation within the finite element framework. It is supposed that cohesive tractions are transmitted between the discontinuity surfaces. These tractions are constitutively prescribed by a phenomenological traction separation law and thus allow for the modeling of different inelastic mechanisms, like micro-crack evolution, initiation of voids, plastic flow or crack bridging. The incorporation of a displacement discontinuity in combination with a cohesive traction separation law leads to a sound model to describe failure processes and crack propagation. Another area where the existence of discontinuities is not as obvious is the occurence of material interfaces, inclusions or holes. The accurate modeling of such internal interfaces is important to predict the mechanical behaviour of components. The present discontinuity is of different nature: the displacement field is continuous but there is a jump in the strains, which is denoted by the expression weak discontinuity. Usually in FE methods material interfaces are taken into account by the mesh construction. But if the structure exhibits multiple inclusions of complex geometry it can be advantageous if the interface does not have to be meshed. And when we look at at problems where the interface moves with time, e. g. phase transformation, the mesh-independent modeling of the weak discontinuities naturally holds major advantages. The greatest challenge in the modeling of discontinuities is their incorporation into numerical methods. The focus of the present work is the development, analysis and application of a finite element approach to model mesh-independent discontinuities. The method shall be robust and flexible to be applicable to both, strong and weak discontinuities.
Congress Report 2006.01
(2006)
Congress Report 2006.02
(2006)
Congress Report 2006.03
(2006)
Congress Report 2006.04
(2006)
Congress Report 2006.05
(2006)
Congress Report 2006.06
(2006)
Congress Report 2006.07-08
(2006)
Congress Report 2006.09-10
(2006)
Congress Report 2006.11-12
(2006)
Congress Report 2006.PersReg
(2006)
Connectedness of efficient solutions is a powerful property in multiple objective combinatorial optimization since it allows the construction of the complete efficient set using neighborhood search techniques. In this paper we show that, however, most of the classical multiple objective combinatorial optimization problems do not possess the connectedness property in general, including, among others, knapsack problems (and even several special cases of knapsack problems) and linear assignment problems. We also extend already known non-connectedness results for several optimization problems on graphs like shortest path, spanning tree and minimum cost flow problems. Different concepts of connectedness are discussed in a formal setting, and numerical tests are performed for different variants of the knapsack problem to analyze the likelihood with which non-connected adjacency graphs occur in randomly generated problem instances.
The topic of this thesis is the coupling of an atomistic and a coarse scale region in molecular dynamics simulations with the focus on the reflection of waves at the interface between the two scales and the velocity of waves in the coarse scale region for a non-equilibrium process. First, two models from the literature for such a coupling, the concurrent coupling of length scales and the bridging scales method are investigated for a one dimensional system with harmonic interaction. It turns out that the concurrent coupling of length scales method leads to the reflection of fine scale waves at the interface, while the bridging scales method gives an approximated system that is not energy conserving. The velocity of waves in the coarse scale region is in both models not correct. To circumvent this problems, we present a coupling based on the displacement splitting of the bridging scales method together with choosing appropriate variables in orthogonal subspaces. This coupling allows the derivation of evolution equations of fine and coarse scale degrees of freedom together with a reflectionless boundary condition at the interface directly from the Lagrangian of the system. This leads to an energy conserving approximated system with a clear separation between modeling errors an errors due to the numerical solution. Possible approximations in the Lagrangian and the numerical computation of the memory integral and other numerical errors are discussed. We further present a method to choose the interpolation from coarse to atomistic scale in such a way, that the fine scale degrees of freedom in the coarse scale region can be neglected. The interpolation weights are computed by comparing the dispersion relations of the coarse scale equations and the fully atomistic system. With this new interpolation weights, the number of degrees of freedom can be drastically reduced without creating an error in the velocity of the waves in the coarse scale region. We give an alternative derivation of the new coupling with the Mori-Zwanzig projection operator formalism, and explain how the method can be extended to non-zero temperature simulations. For the comparison of the results of the approximated with the fully atomistic system, we use a local stress tensor and the energy in the atomistic region. Examples for the numerical solution of the approximated system for harmonic potentials are given in one and two dimensions.
Die vorliegende Arbeit befasst sich mit dem signaltransduzierenden Zwei-Komponenten- System CiaRH aus Streptococcus pneumoniae. Zwei-Komponenten-Systeme sind an der Adaptation der Bakterien an Umweltbedingungen entscheidend beteiligt. Sie bestehen in der Regel aus einer Histidinkinase (hier CiaH) und einem Responseregulator (hier CiaR). Die Histidinkinase dient der Signaldetektion und Aktivierung des Responseregulators, welcher die zelluläre Antwort vermittelt. Das Cia-System wurde als Resistenzdeterminante in spontanresistenten Labormutanten gegen Cefotaxim identifiziert. Weiterhin hat dieses Zwei-Komponenten-System Einfluss auf die Zelllyse, die Virulenz und ist an der Regulation der genetischen Kompetenz beteiligt. Es wird für die Lebensfähigkeit von Zellen mit PBP2x-Punktmutationen benötigt. Inhaltlicher Schwerpunkt der vorliegenden Arbeit war neben der Etablierung der Mikroarray-Technik und globalen Transkriptionsanalysen die funktionelle Charakterisierung des Cia-Systems mit phänotypischen Analysen. Die Etablierung der Mikroarray-Technik befasste sich mit allen Schritten des Mikroarray-Prozesses inklusive Biochip-Herstellung, Datenauswertung und der Validierung des Oligo-Sets. Nach erfolgreicher Etablierung wurde diese Technik benutzt, um Cia-regulierte Gene zu identifizieren. Durch Vergleich des Transkriptoms von verschiedenen Cia-Mutanten mit dem Wildtyp R6 wurden insgesamt 158 Gene unterschiedlich transkribiert. Davon gehörten 73 Gene zum minimalen Cia- und zum Kompetenz-Regulon, welche schon als Cia-reguliert bekannt waren (Sebert et al., 2002; Mascher et al., 2003; Dagkessamanskaia et al., 2004). Überraschenderweise wurden weitere 85 Gene Cia-abhängig transkribiert, deren Genprodukte funktionell in Zucker- und Stickstoffmetabolismus sowie Transport gruppiert werden konnten. Wahrscheinlich wurden die meisten dieser 85 Gene indirekt als Folge der veränderten Zuckerverwertung reguliert. Ähnliche funktionelle Gengruppen konnten in den globalen Transkriptionsanalysen der spontanresistenten Laborfamilie C103 bis C503 aufgestellt werden. In dieser Mutantenfamilie sind Mutationen in CiaH, PBP2x und PBP2a gefunden worden. Besonders auffällig war bei diesen Untersuchungen die kontinuierliche Verstärkung der Transkription der Gene des minimalen Cia-Regulons von C103 bis C503. Deshalb ist von einer Aktivierung des Cia-Systems durch PBP-Mutationen auszugehen. Diese Aktivierung konnte auch in RT-PCR-Versuchen am Beispiel einzelner Gene des minimalen Cia-Regulons bestätigt werden. Da das Cia-System durch PBP-Mutationen aktiviert wird und ein funktionelles Cia-System bei Anwesenheit von bestimmten PBP2x-Mutationen benötigt wird, wurde in dieser Arbeit diese Notwendigkeit des Cia-Systems auch bei anderen PBP-Mutationen durch phänotypische Analysen überprüft. Dabei wurde durch Inaktivierung des Cia-Systems in verschiedenen Stämmen festgestellt, dass nicht nur Zellen mit einzelnen, im Labor selektierten PBP2x-Mutationen, sondern auch ohne ein PBP2a- und ohne ein PBP1a-Protein auf ein Cia-System angewiesen sind. Klinische PBP2x-Allele benötigten ebenfalls – aber in geringeren Maßen – das Cia-System. Wahrscheinlich haben in diesen kompensatorische Mutationen durch Evolution in der freien Natur stattgefunden. Damit wurde auch zum ersten Mal gezeigt, dass PBP-Mutationen nicht neutral sind und verschiedene PBP-Mutationen unterschiedliche Auswirkungen haben. Weiterhin wurde untersucht, welche Gene tatsächlich die durch das Cia-System verursachten Phänotypen auslösen. Dazu wurden 6 Cia-regulierte Genregionen bzw. Einzelgene mit einer Erythromycin-Resistenzkassette inaktiviert und auf das Vorhandensein von Cia „OFF“-phänotypischem Verhalten analysiert. Kein Gen konnte für das Resistenz- oder das Lyseverhalten ausfindig gemacht werden. Hingegen waren die Proteine HtrA und Spr0782 an der Reprimierung der Kompetenz durch das Cia-System beteiligt. Bei beiden Proteinen konnte nur eine Reprimierung in CpH8- und nicht in THB-Medium nachgewiesen werden, so dass eventuell noch von weiteren Faktoren ausgegangen werden muss. Die hier vorgelegten Ergebnisse haben die bisher vorliegenden Daten über das Cia-System bestätigt und entscheidende Einblicke nicht nur in die mögliche Funktion, sondern vor allem in das komplexe vernetzte Regulationssystem gegeben. Diese stellen eine wichtige Grundlage für weitere Experimente dar.
Multileaf Collimators (MLC) consist of (currently 20-100) pairs of movable metal leaves which are used to block radiation in Intensity Modulated Radiation Therapy (IMRT). The leaves modulate a uniform source of radiation to achieve given intensity profiles. The modulation process is modeled by the decomposition of a given non-negative integer matrix into a non-negative linear combination of matrices with the (strict) consecutive ones property.
Die Gestaltungslehre setzt sich häufig das Ziel, die Wahrnehmung von Lernenden zu sensibilisieren, um deren Wahrnehmungsfähigkeit zu verbessern. Dabei steht vornehmlich der visuelle Aspekt von Wahrnehmung im Mittelpunkt. Nun stellt sich die Frage, ob und in welchem Maße die Gestaltungslehre dem Ziel einer solchen Wahrnehmungssensibilisierung überhaupt gerecht werden kann. Die vorliegende Arbeit untersuchte deshalb, in wieweit die visuelle Wahrnehmung durch eine fachspezifische Trainingssituation innerhalb einer Ausbildung zu beeinflussen ist. Dabei wurde die Veränderung der Wahrnehmungsfähigkeit differenziert betrachtet, geleitet von der Annahme, dass diese Veränderung sich sowohl in Bezug auf fachspezifische, als auch auf nicht fachspezifische Inhalte vollziehen könnte. Um also diese Frage nach der Beeinflussung von Wahrnehmung durch Training zu klären, wurden an der Fachhochschule Weihenstephan in den Studiengängen Landschaftsarchitektur und Landschaftsbau und -Management vergleichende Untersuchungen angestellt. Das Ziel: eventuelle Auswirkungen der Teilnahme von Studierenden am Gestaltungsfach Schrift abzubilden. In der Vorgehensweise orientierte sich die Untersuchung an den Erkenntnissen zum Wahrnehmungslernen. Weil Wahrnehmungslernen nach Gibson und Gibson bedeutet, dass die Differenzierungsleistung zunimmt, wurde in der Studie nach Unterschieden und Veränderungen im Differenzierungsvermögen bei den Untersuchungsteilnehmern gefahndet. Weil Wahrnehmungslernen nur in Folge eines entsprechenden Trainings einsetzt, lässt sich aus dem Nachweis einer Steigerung der Differenzierungsleistung schließen, dass eine vorweggegangene Trainingssituation – also in diesem Fall im Unterricht des Gestaltungsfaches Schrift – stattgefunden haben muss. Um die Differenzierungsleistung beim Wahrnehmen abzubilden, wurden Sortierungsaufgaben gestellt. Karten mit Schriftarten waren zu sortieren, um festzustellen ob sich die Differenzierungsleistung bezüglich fachspezifischer Inhalte verändert hat. Karten mit Abdrucken von Handflächen waren zu sortieren, um festzustellen ob sich auch die Differenzierungsleistung bezüglich allgemeiner nicht fachbezogener Inhalte verändert hat. Quantitative und qualitative Unterschiede in der Kategorienbildung der Sortierungen stehen für die Differenzierungsleistung. Im Ergebnis sprechen verschiedene Indizien dafür, dass die Differenzierungsleistung bezüglich fachspezifischer Inhalte bei den Teilnehmern am Unterricht zum Fach Schrift zugenommen hat – die Wahrnehmungsfähigkeit hat sich demzufolge zumindest fachbezogen steigern lassen. Eine Steigerung bezüglich allgemeiner Inhalte ließ sich hingegen nicht verzeichnen. Die Ergebnisse einer weiteren Gruppe von Studierenden zeigte, dass aber die Möglichkeit, Wahrnehmungsfähigkeit auch allgemein zu beeinflussen, nicht grundsätzlich auszuschließen ist. Der Nachweis scheint aber nur dann gelingen zu können, wenn die Testobjekte des Verfahrens entsprechend wissenschaftlicher Erkenntnisse in ihrer Struktur in ganz besonderer Weise den Objekten der Trainingssituation gleichen. Die Ergebnisse dieser weiteren Gruppe lassen außerdem vermuten, dass sich auch eine einmalig angewandte Sensibilisierung auf die Wahrnehmungsfähigkeit trainierend auswirken kann, dass aber ein solcher Trainingseffekt nicht zwingend anhält. Der Zeitrahmen des Trainings hat also offenbar Auswirkungen auf die Nachhaltigkeit des Effekts, Übung und Wiederholung ist – und so haben es auch Gibson und Gibson bestätigt – für das Eintreten von Wahrnehmungslernen von Bedeutung. Aus den Ergebnissen lässt sich folgern, dass die Wahrnehmungsfähigkeit im Sinne des Ziels der Gestaltungslehre hinsichtlich fachlicher Inhalte gesteigert werden kann.
Die Arbeit beschäftigt sich mit den Charakteren des Normalisators und des Zentralisators eines Sylowtorus. Dabei wird jede Gruppe G vom Lie-Typ als Fixpunktgruppe einer einfach-zusammenhängenden einfachen Gruppe unter einer Frobeniusabbildung aufgefaßt. Für jeden Sylowtorus S der algebraischen Gruppe wird gezeigt, dass die irreduziblen Charaktere des Zentralisators von S in G sich auf ihre Trägheitsgruppe im Normalisator von S fortsetzen. Diese Fragestellung entsteht aus dem Studium der Höhe 0 Charaktere bei endlichen reduktiven Gruppen vom Lie-Typ im Zusammenhang mit der McKay-Vermutung. Neuere Resultate von Isaacs, Malle und Navarro führen diese Vermutung auf eine Eigenschaft von einfachen Gruppen zurück, die sie dann für eine Primzahl gut nennen. Bei Gruppen vom Lie-Typ zeigt das obige Resultat zusammen mit einer aktuellen Arbeit von Malle einige dabei wichtige und notwendige Eigenschaften. Anhand der Steinberg-Präsentation werden vor allem bei den klassischen Gruppen genauere Aussagen über die Struktur des Zentralisators und des Normalisators eines Sylowtorus bewiesen. Wichtig dabei ist die von Tits eingeführte erweiterte Weylgruppe, die starke Verbindungen zu Zopfgruppen besitzt. Das Resultat wird in zahlreichen Einzelfallbetrachtungen gezeigt, bei denen in dieser Arbeit bewiesene Vererbungsregeln von Fortsetzbarkeitseigenschaften benutzt werden.
Der Bedarf an Spenderlebern für die Behandlung akuter und chronischer Lebererkrankungen kann zurzeit nicht gedeckt werden. Insbesondere für metabolische Lebererkrankungen hat sich die Transplantation von Hepatozyten als Alternative zur Lebertransplantation erwiesen. Diese Therapie wird wegen Mangel an Hepatozyten ausreichender Qualität nicht flächendeckend eingesetzt. Falls es möglich wäre, Stammzellen zu Hepatozyten zu differen-zieren, könnte dies für die Behandlung von Lebererkrankungen einen erheblichen Fortschritt bedeuten. Eine von vielen Arbeitsgruppen verfolgte Strategie zur Beurteilung des Differenzie-rungspotentials hepatischer Vorläuferzellen ist die Transplantation in die Leber immundefi-zienter Mäuse. Die in der vorliegenden Arbeit verfolgte Strategie bestand darin, zunächst 750.000 zu beurteilende Zellen entweder direkt in das Parenchym des linken Leberlappens oder in die Milz zu injizieren. Die anschließende Analytik verfolgte folgende Ziele: i) Identi-fikation der transplantierten Zellen. Dies wurde durch den kombinierten Einsatz von CM-DiI und Sonden gegen humane Alu-Sequenzen erreicht. Hierbei markierte CM-DiI lediglich grob die Areale, in die transplantiert wurde. Die in situ Hybridisierung mit Alu-Sonden ermöglichte die konkrete Identifikation humaner Kerne. ii) Analyse der Expression hepatischer Faktoren, die von den ursprünglichen Stammzellen nicht gebildet wurden. Hierzu wurde ein für huma-nes Albumin spezifischer Antikörper eingesetzt. iii) Überprüfung, ob die human Albumin-positiven Zellen menschlichen Ursprungs sind. Hierzu wurde eine Kombination aus in situ Hybridisierung mit Alu-Sonden und Immunhistochemie gegen humanes Albumin etabliert. Als Positivkontrolle dienten in der vorliegenden Arbeit primäre humane Hepatozyten. Das Ergebnis nach Transplantation humaner Hepatozyten wurde mit dem Ergebnis nach Trans-plantation adhärent proliferierender Nabelschnurblutzellen, hepatopankreatischen Vorläufer-zellen und aus peripheren humanen Blutmonozyten in vitro ausdifferenzierten Neohepatozy-ten verglichen. Anhand positiver Rotfluoreszenz wurden bereits im paraffinisierten Schnitt die Be-reiche der transplantierten CM-DiI-markierten Stammzellen identifiziert. Durch die in situ Hybridisierung mit Mensch-spezifischen Alu-Sonden wurden in den CM-DiI-positiven Area-len Menschkerne nachgewiesen. Immunhistochemisch wurde in diesen Bereichen eine Ex-pression humanen Albumins gezeigt. Vom umgebenden Gewebe waren die identifizierten Zellen durch einen kleinen dezentral gelegenen Zellkern, geringe Zellgröße und einer Hepato-zyten unähnlichen Morphologie zu unterschieden. Diese Zellen traten in der Regel als kleine-re Zellagglomerate auf, die entweder in Gefäßen oder ohne Endothelabgrenzung im Gewebe zu finden waren. Bei der Auswertung weiterer auf humanes Albumin untersuchter Gewebe-schnitte wurde ein zweiter morphologisch unterschiedlicher Typ humanes Albumin-exprimierender Zellen gefunden. Dieser war durch eine perfekte Hepatozytenmorphologie mit großem, zentral gelegenem Kern und polygonaler Form der Zelle charakterisiert. Im Gewebe lagen diese Zellen vereinzelt, ohne immunhistochemische Detektion wäre eine Unterschei-dung von Maushepatozyten nicht möglich gewesen. Mit der in situ Hybridisierung wurde für diese Zellen ein Mauskern nachgewiesen. Der seltener auftretende Zelltyp mit perfekter He-patozytenmorphologie wurde als Typ I und der kleinzellige Zelltyp als Typ II bezeichnet. Bemerkenswert hierbei ist, dass die beobachteten Typen human Albumin-positiver Zellen nach Transplantation aller drei miteinander verglichenen Zelltypen nachweisbar waren. Eine mögliche Erklärung des Befundes der Typ II-Zellen besteht in einer teilweisen Differenzie-rung in Richtung Hepatozyte. Die menschlichen Zellen exprimieren zwar Albumin, nicht aber andere Faktoren wie CYP3A4, und nehmen keine hepatozelluläre Morphologie an. Ein über-raschender Befund war die Typ I-Zelle. Der Mechanismus, der in diesen Zellen zur Expressi-on humanen Albumins führt, ist zurzeit ungeklärt. Mithilfe des EROD-Assays wurde die metabolische Aktivität der CYP1A-Isoenzyme bei in vitro differenzierten Neohepatozyten bestimmt. Hierbei wurde ein zeitabhängiger Um-satz von EROD zu Resorufin beobachtet, der aber nicht durch 3-Methylcholanthren induzier-bar war. Damit fehlt den Neohepatozyten in diesem Punkt eine wichtige Eigenschaft primärer Hepatozyten. Allerdings sind durch publizierte Untersuchungen an Neohepatozyten weitere Hepatozyten-spezifische Parameter wie Harnstoffzyklus und Albuminproduktion belegt. Zusammenfassend kann festgestellt werden, dass nach Transplantation humaner Vor-läuferzellen verschiedenen Ursprungs ein qualitativ ähnliches Ergebnis mit zwei unterschied-lichen Typen human Albumin-positiver Zellen beobachtet wurde. Ob diese Zelltypen thera-peutisch nutzbar sind, bedarf weiterer Untersuchungen, beispielsweise mit Tiermodellen für menschliche Lebererkrankungen.
The desire to simulate more and more geometrical and physical features of technical structures and the availability of parallel computers and parallel numerical solvers which can exploit the power of these machines have lead to a steady increase in the number of grid elements used. Memory requirements and computational time are too large for usual serial PCs. An a priori partitioning algorithm for the parallel generation of 3D nonoverlapping compatible unstructured meshes based on a CAD surface description is presented in this paper. Emphasis is given to practical issues and implementation rather than to theoretical complexity. To achieve robustness of the algorithm with respect to the geometrical shape of the structure authors propose to have several or many but relatively simple algorithmic steps. The geometrical domain decomposition approach has been applied. It allows us to use classic 2D and 3D high-quality Delaunay mesh generators for independent and simultaneous volume meshing. Different aspects of load balancing methods are also explored in the paper. The MPI library and SPMD model are used for parallel grid generator implementation. Several 3D examples are shown.
This paper analyzes and solves a patient transportation problem arising in several large hospitals. The aim is to provide an efficient and timely transport service to patients between several locations on a hospital campus. Transportation requests arrive in a dynamic fashion and the solution methodology must therefore be capable of quickly inserting new requests in the current vehicle routes. Contrary to standard dial-a-ride problems, the problem under study contains several complicating constraints which are specific to a hospital context. The paper provides a detailed description of the problem and proposes a two-phase heuristic procedure capable of handling its many features. In the first phase a simple insertion scheme is used to generate a feasible solution, which is improved in the second phase with a tabu search algorithm. The heuristic procedure was extensively tested on real data provided by a German hospital. Results show that the algorithm is capable of handling the dynamic aspect of the problem and of providing high quality solutions. In particular, it succeeded in reducing waiting times for patients while using fewer vehicles.
Long fiber reinforced plastics with thermoplastic resin were steadily growing with an
ongoing success over many industries mainly automotive. Even during economically
difficult periods, they increased their output and their market share.
In addition to flow compression molding, semi-finished LFRT in form of granules were
introduced to new processes like injection molding.
This work covers two major topics to enlarge the performance of LFRTs. Firstly, it
shows a material development, which leads to flame retarded LFRT. Secondly, it
presents a new process method to improve especially dynamic mechanical properties
by laminating two compression molded sheets with no additional equipment.
One major restriction for further applications is represented by flammability of thermoplastics.
This thesis gains for a new potential. Encountering future legislative restrictions
a combination of halogen-free flame retardant and LFRT based on polypropylene
has been developed. Test results match the requirements in accordance to
flammability test UL 94 V0 (2.6 mm). Furthermore the mechanical properties
achieved a similar performance as standard-LFRTs. The polymer flow in compression
molding provokes a fiber orientation parallel to the direction of the flow front development.
A x-ray analysis in combination with a fiber orientation analysis show, that
rheology has a strong influence on the flow front development, fiber orientation and
compression work needed.
One advantage of flow compression molding is the free option in placing the polymer
melts in the cavity. The common mold design with male and female mold without slides
allows changing part thickness by different polymer melt volumes charged in the
cavity. This allows to proceed the compression molding process twice without demolding the first part. On a flat panel, the process of laminating two sheets by compression
molding is demonstrated. A first panel gets over molded by a second polymer
melt. This laminate provides a better performance than a singular molded panel
of the same thickness.
The higher substrate’s temperature the better is the adhesion of the first to the second
layer. Additionally, the best adhesion is achieved in the area of the second polymer
melt cavity placement. Furthermore an optimum in mechanical properties can be
obtained utilizing the same resin for the first and the second layer. A more advanced
material is shown with the combination of a standard-LFRT layer and a flame retarded
layer.
Calculations show, that the flame retardancy of LFRT on polypropylene can be economically
advantageous in comparison to the utilization of higher flame resistant polymer
for large parts. Nevertheless for each specific geometry as well as for certain
mechanical demands an evaluation on the best material to fit has to be carried out.
This work shows economically reasonable options either to improve the mechanical
performance and to enlarge materials properties by flame retardancy or to combine
both.
Selbstorganisation ist eine interessante und vielversprechende Möglichkeit, um die Komplexität verteilter Systeme beherrschbar zu machen. In diesem Beitrag schlagen wir ein leistungsfähiges Rechnersystem auf Basis von rekonfigurierbarer Hardware vor, welches aufgrund seiner Flexibilität in vielen Bereichen eingesetzt werden kann. Es wird die geplante Systemarchitektur und Systemsoftware beschrieben und ein intelligentes, verteiltes Kamerasystem vorgestellt, welches wir als Anwendung mit dem vorgeschlagenen System realisieren wollen, um Selbstorganisation in verteilten Systemen näher zu untersuchen.