Refine
Year of publication
- 2004 (121) (remove)
Document Type
- Doctoral Thesis (55)
- Report (25)
- Periodical Part (13)
- Preprint (11)
- Working Paper (8)
- Book (2)
- Habilitation (2)
- Master's Thesis (2)
- Article (1)
- Diploma Thesis (1)
Keywords
- Controlling (4)
- Inverses Problem (4)
- Regularisierung (4)
- Simulation (4)
- Wavelet (4)
- Flüssig-Flüssig-Extraktion (3)
- Gravitationsfeld (3)
- Mehrskalenanalyse (3)
- Finite-Elemente-Methode (2)
- Harnstoff (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (26)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (19)
- Kaiserslautern - Fachbereich Informatik (12)
- Fraunhofer (ITWM) (11)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Biologie (10)
- Kaiserslautern - Fachbereich Chemie (10)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (6)
- Kaiserslautern - Fachbereich ARUBI (5)
- Kaiserslautern - Fachbereich Physik (4)
The polydispersive nature of the turbulent droplet swarm in agitated liquid-liquid contacting equipment makes its mathematical modelling and the solution methodologies a rather sophisticated process. This polydispersion could be modelled as a population of droplets randomly distributed with respect to some internal properties at a specific location in space using the population balance equation as a mathematical tool. However, the analytical solution of such a mathematical model is hardly to obtain except for particular idealized cases, and hence numerical solutions are resorted to in general. This is due to the inherent nonlinearities in the convective and diffusive terms as well as the appearance of many integrals in the source term. In this work two conservative discretization methodologies for both internal (droplet state) and external (spatial) coordinates are extended and efficiently implemented to solve the population balance equation (PBE) describing the hydrodynamics of liquid-liquid contacting equipment. The internal coordinate conservative discretization techniques of Kumar and Ramkrishna (1996a, b) originally developed for the solution of PBE in simple batch systems are extended to continuous flow systems and validated against analytical solutions as well as published experimental droplet interaction functions and hydrodynamic data. In addition to these methodologies, we presented a conservative discretization approach for droplet breakage in batch and continuous flow systems, where it is found to have identical convergence characteristics when compared to the method of Kumar and Ramkrishna (1996a). Apart from the specific discretization schemes, the numerical solution of droplet population balance equations by discretization is known to suffer from inherent finite domain errors (FDE). Two approaches that minimize the total FDE during the solution of the discrete PBEs using an approximate optimal moving (for batch) and fixed (for continuous systems) grids are introduced (Attarakih, Bart & Faqir, 2003a). As a result, significant improvements are achieved in predicting the number densities, zero and first moments of the population. For spatially distributed populations (such as extraction columns) the resulting system of partial differential equations is spatially discretized in conservative form using a simplified first order upwind scheme as well as first and second order nonoscillatory central differencing schemes (Kurganov & Tadmor, 2000). This spatial discretization avoids the characteristic decomposition of the convective flux based on the approximate Riemann Solvers and the operator splitting technique required by classical upwind schemes (Karlsen et al., 2001). The time variable is discretized using an implicit strongly stable approach that is formulated by careful lagging of the nonlinear parts of the convective and source terms. The present algorithms are tested against analytical solutions of the simplified PBE through many case studies. In all these case studies the discrete models converges successfully to the available analytical solutions and to solutions on relatively fine grids when the analytical solution is not available. This is accomplished by deriving five analytical solutions of the PBE in continuous stirred tank and liquid-liquid extraction column for especial cases of breakage and coalescence functions. As an especial case, these algorithms are implemented via a windows computer code called LLECMOD (Liquid-Liquid Extraction Column Module) to simulate the hydrodynamics of general liquid-liquid extraction columns (LLEC). The user input dialog makes the LLECMOD a user-friendly program that enables the user to select grids, column dimensions, flow rates, velocity models, simulation parameters, dispersed and continuous phases chemical components, and droplet phase space-time solvers. The graphical output within the windows environment adds to the program a distinctive feature and makes it very easy to examine and interpret the results very quickly. Moreover, the dynamic model of the dispersed phase is carefully treated to correctly predict the oscillatory behavior of the LLEC hold up. In this context, a continuous velocity model corresponding to the manipulation of the inlet continuous flow rate through the control of the dispersed phase level is derived to get rid of this behavior.
Compared to our current knowledge of neuronal excitation, little is known about the development and maturation of inhibitory circuits. Recent studies show that inhibitory circuits develop and mature in a similar way like excitatory circuit. One such similarity is the development through excitation, irrespective of its inhibitory nature. Here in this current study, I used the inhibitory projection between the medial nucleus of the trapezoid body (MNTB) and the lateral superior olive (LSO) as a model system to unravel some aspects of the development of inhibitory synapses. In LSO neurons of the rat auditory brainstem, glycine receptor-mediated responses change from depolarizing to hyperpolarizing during the first two postnatal weeks (Kandler and Friauf 1995, J. Neurosci. 15:6890-6904). The depolarizing effect of glycine is due to a high intracellular chloride concentration ([Cl-]i), which induces a reversal potential of glycine (EGly) more positive than the resting membrane potential (Vrest). In older LSO neurons, the hyperpolarizing effect is due to a low [Cl-]i (Ehrlich et al., 1999, J. Physiol. 520:121-137). Aim of the present study was to elucidate the molecular mechanism behind Clhomeostasis in LSO neurons which determines polarity of glycine response. To do so, the role and developmental expression of Cl-cotransporters, such as NKCC1 and KCC2 were investigated. Molecular biological and gramicidin perforated patchclamp experiments revealed, the role of KCC2 as an outward Cl-cotransporter in mature LSO neurons (Balakrishnan et al., 2003, J Neurosci. 23:4134-4145). But, NKCC1 does not appear to be involved in accumulating chloride in immature LSO neurons. Further experiments, indicated the role of GABA and glycine transporters (GAT1 and GLYT2) in accumulating Cl- in immature LSO neurons. Finally, the experiments with hypothyroid animals suggest the possible role of thyroid hormone in the maturation of inhibitory synapse. Altogether, this thesis addressed the molecular mechanism underlying the Cl- regulation in LSO neurons and deciphered it to some extent.
Piezoelectric filters are used in telecommunication to filter electrical signals. This report deals with the problem of calculating passing and damped frequency intervals for a filter with given geometrical configurations and materials. Only periodic filters, which are widely used in practice, were considered. These filters consist of periodically arranged cells. For a small amount of cells a numerical procedure to visualise the wave propagation in the filter was developed. For a big number of cells another model of the filter was obtained. In this model it is assumed that the filter occupies an infinite domain. This leads to a differential equation, with periodic coefficients, that describes propagation of the wave with a given frequency in the filter. To analyse this equation the Spectral Theory for Periodic Operators had to be employed. Different ways -- analytical and numerical -- to apply the theory were proposed and analysed.
Nowadays one of the major objectives in geosciences is the determination of the gravitational field of our planet, the Earth. A precise knowledge of this quantity is not just interesting on its own but it is indeed a key point for a vast number of applications. The important question is how to obtain a good model for the gravitational field on a global scale. The only applicable solution - both in costs and data coverage - is the usage of satellite data. We concentrate on highly precise measurements which will be obtained by GOCE (Gravity Field and Steady State Ocean Circulation Explorer, launch expected 2006). This satellite has a gradiometer onboard which returns the second derivatives of the gravitational potential. Mathematically seen we have to deal with several obstacles. The first one is that the noise in the different components of these second derivatives differs over several orders of magnitude, i.e. a straightforward solution of this outer boundary value problem will not work properly. Furthermore we are not interested in the data at satellite height but we want to know the field at the Earth's surface, thus we need a regularization (downward-continuation) of the data. These two problems are tackled in the thesis and are now described briefly. Split Operators: We have to solve an outer boundary value problem at the height of the satellite track. Classically one can handle first order side conditions which are not tangential to the surface and second derivatives pointing in the radial direction employing integral and pseudo differential equation methods. We present a different approach: We classify all first and purely second order operators which fulfill that a harmonic function stays harmonic under their application. This task is done by using modern algebraic methods for solving systems of partial differential equations symbolically. Now we can look at the problem with oblique side conditions as if we had ordinary i.e. non-derived side conditions. The only additional work which has to be done is an inversion of the differential operator, i.e. integration. In particular we are capable to deal with derivatives which are tangential to the boundary. Auto-Regularization: The second obstacle is finding a proper regularization procedure. This is complicated by the fact that we are facing stochastic rather than deterministic noise. The main question is how to find an optimal regularization parameter which is impossible without any additional knowledge. However we could show that with a very limited number of additional information, which are obtainable also in practice, we can regularize in an asymptotically optimal way. In particular we showed that the knowledge of two input data sets allows an order optimal regularization procedure even under the hard conditions of Gaussian white noise and an exponentially ill-posed problem. A last but rather simple task is combining data from different derivatives which can be done by a weighted least squares approach using the information we obtained out of the regularization procedure. A practical application to the downward-continuation problem for simulated gravitational data is shown.
The mathematical formulation of many physical problems results in the task of inverting a compact operator. The only known sensible solution technique is regularization which poses a severe problem in itself. Classically one dealt with deterministic noise models and required both the knowledge of smoothness of the solution function and the overall error behavior. We will show that we can guarantee an asymptotically optimal regularization for a physically motivated noise model under no assumptions for the smoothness and rather weak assumptions on the noise behavior which can mostly obtained out of two input data sets. An application to the determination of the gravitational field out of satellite data will be shown.
Der `aryl hydrocarbon´-Rezeptor (AhR) ist ein Ligand aktivierter Transkriptionsfaktor, der durch Bindung an spezifische DNA-Elemente (`xenobiotic responsive elements´ (XREs)) Einfluss auf die Expression einer Vielzahl von Genen u.a. Cytochrom P450 (CYP) 1A hat. Liganden des AhR sind unter anderem aromatische halogenierte Kohlenwasserstoffe (z.B: 2,3,7,8-Tetrachlordibenzo-p-dioxin (TCDD)), polyzyklische aromatische Kohlenwasserstoffe und Pharmazeutika. Natürliche Liganden wie Indolderivate sind ebenfalls bekannte AhR-Liganden. In dieser Arbeit sollte im ersten Teil geklärt werden, inwieweit die in pflanzlichen Lebensmitteln vorkommende Furocumarine Angelicin, Bergamottin, Isopimpinellin und 8-Methoxypsoralen (8-MOP) den AhR-Signaltransduktionsweg und das CYP1A Enzym in Abhänigkeit von den Lichtverhältnissen beeinflussen. Hierbei zeigen alle untersuchten Furocumarine einen Licht- und konzentrationsabhängigen inhibitorischen Effekt auf die CYP1A-vermittelte EROD-Aktivität sowohl in mit TCDD koinkubierten Rattenhepatozyten in Primarkultur als auch in Mikrosomen aus mit TCDD inkubierten primären Rattenhepatozyten, die mit dem Furocumarin präinkubiert wurden. Bergamottin ist der potenteste Inhibitor mit einem IC50-Wert von 0,01 µM in Mikrosomen bei Licht. Angelicin, Isopimpinellin und 8-MOP sind unter Lichtausschluss im XRE-gesteuerten Reportergen-Assay in der Lage, den AhR zu aktivieren. Western Blot Analysen zeigen eine Induktion der CYP1A1 Proteinexpression unter den gleichen Bedingungen. Bergamottin ist in keinem untersuchten System in der Lage, den AhR zu aktivieren, steigert aber die CYP1A1 Proteinexpression, was für einen unterschiedlichen mechanistischen Verlauf im Vergleich mit den anderen untersuchten Furocumarinen spricht. Die CYP1A1 mRNA korreliert nur teilweise mit diesen Daten, was unter anderem mit der Zeitabhängigkeit der durchgeführten Untersuchungen begründet werden kann. Die hier verwendeten Substanzen sind somit unter Lichtausschluss `Suizid´Inaktivatoren des CYP1A1, indem sie ihren eigenen Metabolimus durch Aktivierung des AhR-Signalweges katalysieren. Im zweiten Teil dieser Arbeit wurden Tryptophan-Metabolite durch Fermentation von Rattenfeces mit Tryptophan generiert und die Methodik zur Anreicherung und Charakterisierung optimiert. Trotz der Optimierung der einzelnen Verfahrensschritte konnte aufgrund der geringen zur Verfügung stehenden Menge und der starken Matrix-bedingten Verunreinigungen der EROD-aktiven Substanzen keine Charakterisierung vorgenommen werden. Die optimierte HPLC-Analyse ermöglicht die Abtrennung anteilsmäßig großer Verunreinigungen. Außerdem kann durch die hier entwickelte Selektion von Bakterienkulturen aus Rattenfeces auf den Einsatz frischer Feces verzichtet werden. Des Weiteren lässt sich die Ausbeute an dem gewünschten Produkten erhöhen, indem Kulturen eingesetzt werden, die zu einer Steigerung an gebildeten EROD-aktiven Verbindungen führte, was eine Charakterisierung vereinfachen könnte.
Herbivory is discussed as a key agent in maintaining dynamics and stability of tropical forested ecosystems. Accordingly increasing attention has been paid to the factors that structure tropical herbivore communities. The aim of this study was (1) to describe diversity, density, distribution and host range of the phasmid community (Phasmatodea) of a moist neotropical forest in Panamá, and (2) to experimentally assess bottom-up and top-down factors that may regulate populations of the phasmid Metriophasma diocles. The phasmid community of Barro Colorado Island was poor in species and low in density. Phasmids mainly occurred along forest edges and restricted host ranges of phasmid species reflected the successional status of their host plants. Only M. diocles that fed on early and late successional plants occurred regularly in the forest understory. A long generation time with a comparably low fecundity converted into a low biotic potential of M. diocles. However, modeled potential population density increased exponentially and exceeded the realized densities of this species already after one generation indicating that control factors continuously affect M. diocles natural populations. Egg hatching failure decreased potential population growth by 10 % but was of no marked effect at larger temporal scale. Interspecific differences in defensive physical and chemical leaf traits of M. diocles host plants, amongst them leaf toughness the supposedly most effective anti-herbivore defense, seemed not to affect adult female preference and nymph performance. Alternatively to these defenses, I suggest that the pattern of differential preference and performance may be based on interspecific differences in qualitative toxic compounds or in nutritive quality of leaves. The significant rejection of leaf tissue with a low artificial increase of natural phenol contents by nymphs indicated a qualitative defensive pathway in Piper evolution. In M. diocles, oviposition may not be linked to nymph performance, because the evolutionary prediction of a relation between female adult preference and nymph performance was missing. Consequently, the recruitment of nymphs into the reproductive adult phase may be crucially affected by differential performance of nymphs. Neonate M. diocles nymphs suffered strong predation pressure when exposed to natural levels of predation. Concluding from significantly increased predation-related mortality at night, I argue that arthropods may be the main predators of this nocturnal herbivore. Migratory behavior of nymphs seemed not to reflect predation avoidance. Instead, I provided first evidence that host plant quality may trigger off-plant migration. In conclusion, I suggest that predation pressure with its direct effects on nymph survival may be a stronger factor regulating M. diocles populations, compared to direct and indirect effects of host plant quality, particularly because slow growth and off-host migration both may feed back into an increase of predation related mortality.
Im industriellen Zeitalter stand zunächst die Funktionstüchtigkeit der Massenprodukte im Vordergrund. Insbesondere mit Einführung und Verbreitung der Rechnerunterstützten Konstruktion ist dieser Aspekt weitgehend beherrschbar geworden. Die Funktionstüchtigkeit wird zudem sowohl durch nationale Gesetze gefordert, als auch durch die in den meisten Fällen vorhandene globale Konkurrenzsituation. Als Folge nimmt die Bedeutung des "Designs" von Konsumgütern aller Art zu, seien es Kaffeemaschinen, Staubsauger oder Automobile. Insbesondere die Entwicklung von Programmen zur rechnerinternen Modellierung von Freiformflächen hat zu diesem Trendwechsel einen Beitrag geliefert. Mit der Aufwertung der Produktform hat auch die Bedeutung der "Entwicklungsschleifen" im Bereich Design zugenommen. Das heißt, nach der rechnerinternen Modellierung und einiger optischer Begutachtungen am Bildschirm wird ein realer Prototyp hergestellt, um die Serienreife des Designs zu beurteilen. Diese wird nur in wenigen Fällen auf Anhieb erreicht, eine Überarbeitung der Flächen ist meistens notwendig. Diese Entwicklungsschleifen sind sowohl zeit- als auch kostenaufwendig. Um die Beurteilung rechnerinterner Freiformflächen zu verbessern, wird im Rahmen der vorliegenden Arbeit ein Gerät entwickelt und getestet, das dem Designer die Möglichkeit eröffnen soll, an seinem CAS-/CAD-Arbeitsplatz die rechnerinternen Flächen nicht nur optisch, sondern auch haptisch und damit präziser beurteilen zu können. Das entwickelte Gerät, "Haptische Hand" genannt, präsentiert mit Hilfe einer in jeder Richtung neigbaren "Taumelscheibe" die Tangentenebene eines beliebigen Punktes der rechnerinternen Flächen. Wenn nun der Designer eine zusammenhängende Folge von Ebenenwerten auf die Taumelscheibe überträgt, so soll er dadurch die Gestalt der Fläche wahrnehmen und erkennen. Es ist außerdem möglich die Taumelscheibe anzuheben, die damit über insgesamt drei von Servomotoren angesteuerte Freiheitsgrade verfügt. Ziel dieses einfachen Konzeptes ist, das Gerät mit einer Standard-Computermaus in einem Gehäuse zu integrieren, um ein preiswertes, marktfähiges Produkt zu erreichen. Um die Behauptung der Wahrnehmbarkeit zu prüfen, wurden zwei Versuchsreichen durchgeführt. In einer ersten Versuchsreihe wurden fünf Flächen nach dem Flächenschema von Koenderink mit einem CAD-System modelliert und in vielen Variationen von mehreren Dutzend Versuchspersonen im wesentlichen haptisch wahrgenommen. Es ergab sich, dass die modellierten Flächen mit einer durchschnittlichen Erkennungsrate von 80% in einer durchschnittlichen Erkennungszeit von 25 sec erkannt werden konnten. In einer zweiten Versuchsreihe in Anlehnung an die VDA-Empfehlung 4955 wurden Unstetigkeiten, Tangentenunstetigkeiten und Krümmungsunstetigkeiten untersucht. Ergebnis war, dass die Versuchspersonen mehrheitlich dann Unstetigkeiten bei Flächenübergängen haptisch wahrnehmen können, wenn diese mehr als 0,1 mm beträgt. Bei tangentialer Unstetigkeit ist ein Mindestwert von 1,2° die Voraussetzung für eine haptische Wahrnehmung durch die Mehrheit der Testpersonen. Die Untersuchung von Flächen mit variablen Krümmungsverläufen zeigte, dass die Mehrheit der Versuchspersonen die Flächenquerschnitte und damit die Krümmungswerte korrekt erkannte. Die Ergebnisse der ersten Versuchsreihe zeigen im Vergleich zu anderen Untersuchungen mit einem anderen, kommerziell verfügbaren Gerät, dass die Eigenentwicklung ähnliche Leistungsmerkmale bei der haptischen Präsentation rechnerinterner Freiformflächen besitzt, zusätzlich aber den Vorteil einer einfachereren und damit preiswerteren Konstruktion aufweist. Aus der zweiten Versuchsreihe hingegen ergibt sich die Verpflichtung zur weiteren Erforschung der bemerkenswerten Unterschiede zwischen der haptischen Wahrnehmbarkeit bei rechnerinternen und bei realen Flächenübergängen. Die Eigenentwicklung ist zum Patent angemeldet und die Anmeldungsschrift offengelegt, um eine Vermarktung zu sichern. Zum Abschluß der Arbeit wird eine Reihe von Verbesserungs- und Ergänzungspotentialen aufgezeigt, die auch der Behebung der genannten Differenzen der Wahrnehmbarkeit zwischen rechnerinternen und realen Flächen dienen sollen. Die durchgeführten Versuche haben ergeben, dass es möglich ist, rechnerinterne Freiformflächen durch eine Folge rechnerextern dargestellter Tangentenebenen haptisch wahrnehmbar zu machen. Mit dem entwickelten Gerät kann also ein Designer an seinem CAS-/CAD-Arbeitsplatz die modellierten Flächen in Echtzeit haptisch wahrnehmen und präziser beurteilen als es durch reine Ansicht der Flächen auf dem Monitor möglich ist. Als Folge einer solchen Erweiterung der Benutzungsschnittstelle von CAS-/CAD-Systemen wird die Notwendigkeit, reale Prototypen zur Beurteilung der rechnerinternen Modelle herstellen zu müssen, abnehmen. Auf diese Weise kann mit geringem Einsatz, verglichen mit kommerziell verfügbaren Geräten, zur notwendigen Senkung der Entwicklungszeiten und Entwicklungskosten beim Styling/Design von Massenprodukten beigetragen werden.
Many applications dealing with geometry acquisition and processing produce polygonal meshes that carry artifacts like discretization noise. While there are many approaches to remove the artifacts by smoothing or filtering the mesh, they are not tailored to any specific application subject to·certain restrictive objectives. We show how to incorporate smoothing schemes based on the general Laplacian approximation to satsify all those objectives at
the same time for the results of flow simulation in the application field of car manufacturing. In the presented application setting the major restrictions come from the bounding volume of the flow simulation, the so-called installation space. In particular, clean mesh regions (without noise) should not be smoothed while at the same time the installation space must not be violated by the smoothing of the noisy mesh regions. Additionally, aliasing effects at the boundary between clean and noisy mesh regions must be prevented. To address the fact that the meshes come from flow simulation, the presented method is versatile enough to preserve their exact volume and to apply anisotropic filters using the flow information.
Although the paper focuses on the results of a specific application, most of its findings can be transferred to different settings as well.
The work presented here supports the industrial use of natural fibre reinforced composite
materials under mass production circumstances. Potentials for optimising the
materials’ properties are offered and evaluated with regard to their effect on the
process chain material – coupling agent – processing. The possibility to use these
materials in mass production applications are improved by optimising each partial
stage.
Throughout the world there exists a great variety of suitable applications for this
group of composites affecting the raw materials choice. The Europe’s market is
stamped by the requirements of the automotive industry, the important markets of
Japan and the USA are dominated by civil engineering and landscaping applications.
A yearly increase of 18 % in Europe, 25 % in Japan and 14 % in the US is expected.
The US market offers the largest market volume of more than 480000 t exceeding
the European Market for nearly five times.
To enhance the fields of application for natural fibre reinforced thermoplastics the
common techniques of the film-stacking and the compression moulding process are
used to manufacture optimised composites based on polypropylene and bast (hemp,
flax) as well as leaf (sisal) and wood (spruce) fibres. Therefore new semi finished
parts for the compression moulding process had to be developed.
Within the manufacturing of natural fibre reinforced polypropylene using the filmstacking
process material and process parameters were identified to transfer the
gathered knowledge to the compression moulding process. It has been seen that
most problems are caused by the organic origin of the fibres. Especially the addiction
of the fibres to decompose when treated with higher temperatures under pressure
hampers their use in thermoplastic composites.
By investigating wood fibres as reinforcements, which differ from bast fibres in their
chemical composition the influence of the process parameters temperature and pressure
on the composite properties were evaluated and verified for hemp fibre reinforced
polypropylene. The minimum process time was observed and in order to enhance
the fibre-matrix-adhesion by using coupling agents the diffusion of the coupling
agent molecules was determined theoretically. Therefore a model was evaluated dealing with the maximum mass flow of coupling agent being transferred in the
fibre-matrix-interface because of mass transfer mechanisms.
In order to optimise the wetting of the fibres with the matrix different possibilities to
modify the fibres were investigated. Drying the fibres prior to the manufacturing of the
composite is an easy and effective way to improve the fibre-matrix-adhesion. The
tensile strength of all composites rose conspicuously. The removal of dust and water
soluble substances by washing led to a higher tensile strength only with the sisal fibre
reinforced composite. Washing the other fibres led to decreasing fibre wetting.
Fibre substances like lignin and pectin were removed using the mercerisation technique.
Composites made from these chemically retted fibres show the more disintegrated
fibre structure and a worse wet ability of the fibre surface with the polypropylene.
Hence the tensile and bending strength was not enhanced. The Charpy impact
strength of the composite raised distinctly.
The use of coupling agents based on maleic acid crafted polypropylene led to an increasing
tensile strength up to 58 % compared to the composite manufactured with
pre-dried fibres. The bending strength raised about 109 %. The Charpy decreased
about 60 to 80 %. Flax fibre reinforced composites showed the highest tensile
strength, sisal fibre reinforced composites offered the highest Charpy. No differences
between copolymeric and homopolymeric polypropylene when using PP-MAH as
coupling agents were determined.
The kind of application of the coupling agent in the compound has an major effect on
the amount of coupling agent to be added. The closer the coupling agent is brought
to the fibres surface at the beginning of the impregnation step the less amount has to
be used. If using an aqueous suspension the least amount had to be added as the
coupling agent remains directly on the fibre surface after drying. Mixing the coupling
agent with the polypropylene hinders the well dispersed PP-MAH to act in the fibrematrix-
interface effectively, so the amount of coupling agent has to be increased.
The comparison of coupling agent containing compounds which differ in the amount
of coupling agent and the molar mass distribution showed the amount of coupling
agent related to the mass of fibres to be the important parameter to dose the PPMAH.
The mean molar mass distribution had no effect on the compounds’ properties.Transferring the knowledge gained from the film-stacked composites to the compression
moulding process offered the possibility to use jute long fibre reinforced granules
(LFT) under optimised processing conditions. The composites gained from the molten
and pressed granules showed the highly dependency of the mechanical properties
to the fibre direction in the part. If the fibres are able to flow along the cavity and
direct themselves into parallelism the tensile and bending strength increases in the
main flow direction and decreases perpendicular to this direction. The impact
strength decreases with raising orientation of the fibres. The jute fibre surface presents
a better adhesion to the polypropylene as the surfaces of the hemp, flax and
sisal fibres, which could be improved by adding PP-MAH as coupling agent.
A newly developed pelletised semi finished part with sisal fibre reinforcement and the
development of a direct impregnation process using solely a horizontal plasticating
unit completes the work. Using an established plasticating extruder offers the possibility
for the compression moulding industry to process natural fibre reinforced polypropylene
with less investment. The compression moulded sisal fibre reinforced polypropylene showed varying fibre directions and disproportionate fibre-matrixadhesion.
As a result of the plasticating process in some parts bended fibres are still
visible after compression moulding. Hence the used single-screw plasticator is not
able to equalize the molten material. Increasing the compaction pressure was not
possible as some parts showed beginning fibre degradation. Adding PP-MAH improved
the fibre-matrix-adhesion but the positive effect of the materials’ strength was
not as clear as found for the film-stacked composites. Regarding the additional expenditures
for compounding and the coupling agent costs the use of PP-MAH in
compression moulded parts seems not to be useful.
Compared to the compression moulded glass fibre reinforced polypropylene from
GMT and LFT-materials the natural fibre reinforced composites cannot reach the
high level of material properties. Optimising the fibre-matrix-interface increases the
properties but they are still lower than the properties of the glass fibre reinforced composites. Therefore the natural fibre reinforced materials are not able to substitute
the traditional GMT and LFT, they rather should be used in new applications with
lower demands.
Bei Frauen ist Brustkrebs mit einem Viertel aller Krebserkrankungen die am häufigsten diagnostizierte Krebsart, während die Inzidenz bei Männern wesentlich geringer ist. Nur 10-15% aller Brustkrebserkrankungen können auf familiär prädisponierende Faktoren wie BRCA1 und BRCA2 zurückgeführt werden. Eine genetische Prädisposition bei hereditärem männlichem Brustkrebs wird für BRCA2 bestätigt. Funktionelle Analysen geben Grund zur Annahme, dass BRCA2 eine duale Rolle besitzt. Neben der Caretaker-Funktion für genomische Stabilität, ist auch eine Gatekeeper-Funktion bei der Transkriptionsregulation beschrieben. Die Basis dieser Arbeit beruht auf der Beobachtung, dass männliche BRCA2-Mutationsträger von 3 verschiedenen Familien mit hereditärem Brustkrebs auffällige chromosomale Veränderungen der Region 9p23-24 aufweisen. Vorarbeiten ließen einen kausalen Zusammenhang zwischen BRCA2-Mutation und 9p-Veränderung möglich erscheinen. Das Ziel der Arbeit bestand darin, durch molekularbiologische Methoden die Bruchpunkte in 9p23-24 bei BRCA2-Mutationsträgern unabhängiger Familien zu identifizieren und damit einen weiteren Hinweis auf die Entstehung dieser Instabilität zu geben. In dieser Arbeit konnten mittels FISH, PFGE und bioinformatischer Techniken sowohl Inversionen als auch Duplikationen festgestellt werden. Eine überlappende Inversion zeigte sich hierbei deutlich bei allen untersuchten Mutationsträgern. Mit einer FISH-Analyse konnte bei den Mutationsträgern der Familien 1 bis 3 eine Inversion im Bereich der STS-Marker D9S267 und D9S775 detektiert werden. Ferner konnte durch Interphasen-FISH eine Duplikation im Bruchpunktbereich um den STS-Marker D9S268 identifiziert werden. Southern-Analysen konnten Bruchpunkte in den Mutationsträgern der Familien 1 und 2 mittels der Enzyme EcoRI und SacI bestätigen. In dieser Arbeit konnte weiterhin gezeigt werden, dass sich die Inversionsbruchpunkte der Mutationsträger 3.3, 3.4 und 3.5 von Familie 1 in der unmittelbaren Nähe von low-copy repeats befinden, deren Größe 5kb-8kb beträgt. Die identifizierte Inversion überspannt im Wesentlichen die Gene TYRP1 und mPDZ. Bei dem durch die Inversion direkt betroffenen Gen handelt es sich um das mPDZ-Gen. Das Protein besitzt 13 PDZ-Domänen, deren Interaktionspartner beschrieben sind. Die Genexpression beider Gene konnte in lymphoblastoiden Zellen nachgewiesen werden. Die Erkenntnisse erlauben die Schlussfolgerung, dass Repeat-Sequenzen in der Umgebung der Bruchpunkte bei der Entstehung von Rearrangements auch in diesen BRCA2-Mutationsträgern eine große Rolle spielen.
In this paper we consider numerical algorithms for solving a system of nonlinear PDEs arising in modeling of liquid polymer injection. We investigate the particular case when a porous preform is located within the mould, so that the liquid polymer flows through a porous medium during the filling stage. The nonlinearity of the governing system of PDEs is due to the non-Newtonian behavior of the polymer, as well as due to the moving free boundary. The latter is related to the penetration front and a Stefan type problem is formulated to account for it. A finite-volume method is used to approximate the given differential problem. Results of numerical experiments are presented. We also solve an inverse problem and present algorithms for the determination of the absolute preform permeability coefficient in the case when the velocity of the penetration front is known from measurements. In both cases (direct and inverse problems) we emphasize on the specifics related to the non-Newtonian behavior of the polymer. For completeness, we discuss also the Newtonian case. Results of some experimental measurements are presented and discussed.
Die obligat endocytisch in Paramecium lebenden bakteriellen Symbionten der Gattung Caedibacter können bislang weder außerhalb ihrer Wirtszellen kultiviert noch genetisch transformiert werden. Entsprechend limitiert sind unsere Möglichkeiten der Erforschung oder gar Nutzung dieser Bakterien. Im Rahmen der vorliegenden Arbeit wurden Methoden zur Isolierung der Endosymbionten aus Paramecien etabliert und Strategien zur genetischen Transformation von Paramecium-Endosymbionten getestet. Es zeigte sich, dass eine Transformation außerhalb der Wirtszellen nicht möglich ist, da die Bakterien nicht in vitro selektiert werden können und eine Reinfektion der Symbionten entsprechender aposymbiontischer Wirtszellen auf dem vermuteten Infektionsweg scheiterte. Die Transformation der Endosymbionten sollte daher direkt in den Paramecien erfolgen. Es wurden Verfahren entwickelt, mit deren Hilfe die Transformation der Endosymbionten mittels Elektroporation bzw. Partikelbombardement innerhalb der Wirtszellen getestet wurde. Die zu diesen Versuchen eingesetzten Plasmide verfügten über verschiedene Replika mit nachweislich weitem Wirtsspektrum. Als Markergene dienten zum einen ein Streptomycinresistenz-Gen und zum anderen zwei Varianten des Green Fluorescent Protein. Es zeigte sich, dass die Transformation von Caedibacter derzeit noch nicht möglich ist. Weiterhin wurde untersucht, ob der Promotor des RebC-Locus aus Caedibacter für eine Kontrolle einer heterologen Genexpression unter natürlichen Bedingungen in Frage kommt. Durch Studien mit Hilfe von Promotorsonden-Vektoren, in die die entsprechende Sequenz vor ein GFP-Gen kloniert wurde, konnte in E. coli gemessen werden, inwieweit unterschiedliche physiologische Stressbedingungen zu einer Aktivierung des RebC-Promotors führen. Die Promotorstudien erfolgten nach zwei unterschiedlichen Verfahren. Unter den getesteten Stressfaktoren bewirkten Hunger und Hitzeschock die stärkste Aktivierung des untersuchten Promotors. Die erhaltenen Ergebnisse liefern einen Hinweis darauf, dass die R-Körpersynthese in Caedibacter in der Natur unter Mangel- bzw. Stressbedingungen erfolgt.
Integrin alpha6beta4 und Proteinkinase C in epidermaler Differenzierung und Haut-Carcinogenese
(2004)
Schlüsselereignisse bei der epidermalen Differenzierung sind das Ablösen der Basalzellen von der Basalmembran und ihre Aufwärtswanderung synchron zur terminalen Differenzierung mit dem Endstadium der Hornschuppen, die die äußerste Barriere bilden. Zellrezeptoren, die bei der Auslösung dieses Prozesses eine wichtige Rolle spielen, sind die Integrine, die einen erheblichen Anteil an der Gewebeorganisation haben. Andererseits sind Integrine auch maßgeblich an der zellulären Signaltransduktion beteiligt. Als Hauptkomponente der Hemidesmososmen, die die Basalzellen mit der darunter liegenden Basalmembran verbinden, kommt Integrin alpha6beta4 eine herausragende Funktion zu. Über seine cytoplasmatischen Domänen interagiert alpha6beta4 mit PKCalpha und PKCdelta, und wird dabei seinerseits modifiziert. Grundlegende Änderungen in der Integrin-Expression und -Verteilung werden bei der Tumorigenese beobachtet. Auffallend bei Hautcarcinomen sind vor allem die Dislokation und Überexpression von Integrin alpha6beta4, was weitreichende Konsequenzen für die PKC-Signaltransduktion hat. Ziel dieser Arbeit war daher die Analyse der Rolle von PKCalpha, PKCdelta und Integrin alpha6beta4 in Keratinozyten und deren mögliche Bedeutung bei der Tumorentstehung. Dabei sollte die Funktion von PKCalpha, PKCdelta und Integrin alpha6beta4 bei der Regulation von Zell-Matrix-Interaktionen, Migration und Differenzierung untersucht werden. Hierfür wurden normale humane primäre Keratinozyten und die humane Keratinozyten-Zell-Linie HaCaT, eine immortale „prämaligne“ Zelle, mit adenoviralen Konstrukten für PKCalpha, PKCdelta, für die Integrin alpha6-Kette und für beta-Gal als Negativkontrolle infiziert. Reproduzierbare Infektionen mit hohen Infektionseffizienzen und die langsam abnehmende Synthese der exogenen Proteine erlaubten funktionelle Analysen in zweidimensionalen Kulturen, als auch in der komplexeren, physiologischen, dreidimensionalen organotypischen Kokultur (OTK). In zweidimensionalen Kulturen erhöhte PKCdelta die Migrationsaktivität der Zellen, vermutlich durch reduzierte Adhäsion an Laminin-5. Erhöhte Integrin alpha6 Level dagegen veränderten das Wachstumsverhalten dramatisch, was schließlich zu einem massiven Absterben der Zellen führte. Daher entwickelten sich in OTKs von alpha6 Zellen nur atrophische Epithelien. Differenzierungsmarker konnten, wahrscheinlich aufgrund der verminderten Lebenszeit der Zellen, nicht detektiert werden. Das Fehlen einer kompensierenden Hochregulation der Integrin beta4-Kette, die in überlebenden Maus-Keratinozyten beobachtet wurde, wird als Ursache für den Zelltod im humanen System angesehen. HaCaT-Zellen sind im Allgemeinen in der Lage ein Epithel vergleichbar der Epidermis zu bilden, obwohl sie bestimmte Differenzierungs-Defizite zeigen. So verläuft die Entwicklung stratifizierter Epithelien langsamer als bei normalen Keratinozyten und ist charakterisiert durch das Vorhandensein eines parakeratotischen Stratum corneums, was auf eine unvollständige Differenzierung hinweist. PKCalpha und PKCdelta überexprimierende Zellen dagegen bildeten gut differenzierte Epithelien, die denen normaler Keratinozyten ähnelten. Differenzierungsmarker und Basalmembrankomponenten wurden regulär exprimiert. Bei normalen Keratinozyten hatte die adenovirale Überexpression der PKC Isoformen keinen stimulierenden Einfluss auf Epithelwachstum und Stratifizierung. Die Überexpression der beiden PKC-Isoformen schien somit die bei HaCaT veränderte bzw. nicht ausreichende Interaktion mit Fibroblasten zu verbessern, was letztendlich zu einer normalisierten Differenzierung und Stratifizierung führte.
Im Hinblick auf die Gewichtsreduktion am Gesamtfahrzeug zur Verbesserung der Fahrdy-namik und zur Reduktion des Kraftstoffverbrauchs wurde ein Vierzylinder-Kurbelgehäuse auf Basis des leichten Konstruktionswerkstoffs Magnesium konzipiert und konstruiert. Unter der Zielvorgabe einer spezifischen Leistung von mindestens 65 kW/l lag der Fokus auf einer zum Serienmotor mindestens gleichwertigen Belastbarkeit und Akustik und auf der Behebung der Kriech- und Korrosionsproblematik von Magnesium. Durch die Kombination verschiedener Leichtbauprinzipien wie Konzept-, Gestalt- und Ver-bundleichtbau, ist es mittels lokalem Werkstoffengineering gelungen, die Nachteile des Mag-nesiums zu kompensieren und seine Vorteile bestmöglich zu nutzen. Das Ergebnis ist ein zur Aluminiumbasis um ca. 6,5kg und zur Graugussbasis um ca. 23kg leichteres Magnesi-um-Hybrid-Zylinderkurbelgehäuse. Die short-skirt Bauweise in Verbindung mit einem zur Ölwanne nahezu komplett geschlossenen Bedplate ergibt ein hochsteifes Kurbelgehäuse mit einer im Vergleich zum Serien-Aluminium-ZKG höheren Belastbarkeit. Das flexible Kurbel-gehäusekonzept ermöglicht es ausserdem, auf Basis des für Magnesium sehr wirtschaftli-chen Druckgussverfahrens, Zylinderkurbelgehäuse sowohl in open-deck als auch in closed-deck-Bauweise herzustellen. Kernstück des neuen Motorblocks ist ein multifunktionaler, 3,8kg leichter Zylindereinsatz aus Aluminium, der die Funktion der Zylinderlaufbahn, der Zylinderkopf- und Hauptlagerver-schraubung sowie der Kühlwasserführung übernimmt. Zur Verbesserung der Verbundeigen-schaften zwischen dem Zylindereinsatz und dem umgebenden Magnesium wurden umfang-reiche Gießversuche und metallographische Untersuchungen durchgeführt. Eine durch Plasmaspritzen aufgebrachte AlSi12-Beschichtung erzielte schließlich die besten Ergebnisse in Bezug auf ertragbare Zug- und Schubbelastungen in der Verbundzone. Zur Absicherung des Herstellungsprozesses wurden mit der Finite Elemente Methode ver-schiedene Abstützvarianten des closed-deck-Zylindereinsatzes für das prozesssichere Ein-gießen im Druckguss untersucht. Die Befüllung des Einsatzes mit Sand erwies sich dabei als die robusteste Lösung und wurde später in den Gießversuchen umgesetzt. Der Festigkeitsnachweis für das Magnesium-Hybrid-Zylinderkurbelgehäuse wurde mit Hilfe der Finite Elemente Methode unter Einbeziehung der Ergebnisse der metallographischen Untersuchungen sowie unter Berücksichtigung nichtlinearer Werkstoffkennwerte und der Kriechproblematik von Magnesium erbracht. Ausgangspunkt für den Festigkeitsnachweis waren Eigenspannungsberechnungen, die das Abkühlen der Gussteile aus der Gießhitze, eine Warmauslagerung und die Bearbeitung der wichtigsten Funktionsflächen beinhaltete. Der Nachweis für die Dauerhaltbarkeit der Lagerstühle des Kurbelgehäuses wurde erbracht. Parameterstudien zeigten dabei einen positiven Einfluss der Eigenspannungen und eine geringe Sensitivität der Konstruktion in Bezug auf Reibungsvariationen zwischen Umguss und Eingussteilen. Kriechdehnungen im Bereich der Hauptlagerverschraubungen führten allerdings bei Verwendung der Standard Magnesiumlegierung AZ91 nach 500 Stunden bei 150°C zu einem Abfall der Schraubenvorspannkräfte um bis zu 75%. Es konnte gezeigt wer-den, dass dieses Problem bei Verwendung von kriechfesteren Legierungen (z.B. MRI 153M) mit ca. 10-20fach besserer Kriechfestigkeit bzw. Relaxationsbeständigkeit behoben werden kann. Der rechnerisch erbrachte Nachweis für die Dauerhaltbarkeit des Zylinderkurbelgehäuses konnte kurz vor Fertigstellung dieser Arbeit in einem Motorversuch (Polyzyklischer Dauer-lauf, 100h) bestätigt werden. Der Motor zeigte nach Ende der Laufzeit keine Auffälligkeiten und konnte weiter betrieben werden.
In my doctoral thesis, I present new information about the developmental expression pattern of the potassium chloride cotransporter KCC2 in the rat auditory brain stem and the morphometrical effects caused by KCC2 gene silencing in mice. The thesis is divided into 3 Chapters. Chapter 1 is a general introduction which gives a brief outline of the primary ascending auditory pathway in mammals. Also, it provides information about the presence of a large number of inhibitory inputs in the auditory system and how these inputs develop; the involvement of inhibition in the acoustic processing is mentioned. In addition, the role of the KCC2 cotransporter in the shift of GABA/glycine transmission, and thus, in maintaining the normal level of inhibition in the mature brain, is described. The focus of Chapter 2 was to investigate the KCC2 immunofluorescent signal from postnatal day (P) 0 to P60 in four major nuclei of the rats superior olivary complex (SOC), namely the medial nucleus of the trapezoid body (MNTB), the medial superior olive (MSO), the lateral superior olive (LSO), and the superior paraolivary nucleus (SPN). The lack of a correlation between the continuous presence of KCC2 mRNA/protein in the postnatal rat brain stem on one side, and the shift in GABA/glycinergic polarity (i.e. KCC2 functionality) on the other side, prompted me to search for a specific cellular expression pattern of the KCC2 protein that might correlate with the switch in GABA/glycine signalling. To do so, the KCC2 immunoreactivity was analysed using high-resolution confocal microscopy in three cellular regions of interest: the soma surface, the soma interior, and the neuropil. In the soma surface, I observed an increase of the KCC2 immunofluorescent signal intensity, yet with a moderate magnitude (1.1 to 1.6-fold). Therefore, I conclude that the change in the soma surface signal is only of minor importance and does not explain the change in KCC2 functionality. The KCC2 signal intensity in the soma interior decreased in all nuclei (1.4 to 2-fold) with the exception of the MNTB where no statistically significant change was found. The decrease in the soma interior was probably related to the increase in the soma surface immunoreactivity and the proposed (weak) intracellular trafficking process of the KCC2 protein. The main developmental reorganization (in qualitative as well as in quantitative aspects) of the KCC2 immunofluorescence in the SOC nuclei was observed in the neuropil. The signal changed its pattern from a diffusely stained neuropil early in development (P0-P4) to a crisp and membrane-confined signal later on (P8-P60), with single dendrites becoming apparent. The exception was found in the MNTB, where the neuropil became almost unlabeled. Quantification revealed a statistically significant decrease (2.2 to 3.8-fold) in the neuropil immunoreactivity in all four nuclei, although the remaining KCC2-stained dendrites became thicker and the signal became stronger. I suppose that, at least in part, the neuropil reorganization can be explained by an age-related reduction of dendritic branches via a pruning mechanism and with the absence of an abnormal Cl- load via extrasynaptic GABAA receptors. This is consistent with the proposed additional role of KCC2, namely to maintain the cellular ionic homeostasis and to prevent dendritic swelling (Gulyás et al., 2001). In conclusion, neither the increase in the KCC2 soma surface signal intensity, nor the reorganization in the neuropil can be strictly related to the developmental switch in the GABA/glycine polarity and the onset of KCC2 function, although some correlation (the appearance of a specific membrane-confined dendritic pattern) between structure and function was found. Further implication of different molecular methods, regarding the proposed posttranslational modification of KCC2, will shed light upon the question of what leads to the functional activation of the cotransporter. In Chapter 3, the advantage of loss-of-function KCC2 mice made it possible, via manipulating the duration of the depolarizing phase of GABA/glycine transmission, to analyse the effect of disturbed Cl- regulation and, thus, the effect of disrupted GABA/glycine neurotransmission (lack of inhibition). I asked the following question: how important is the Cl- homeostasis to maintain general aspects (brain weight) and specific aspects (nucleus volume, neuron number, and soma cross-sectional area) of brain development? Brain stem slices from KCC2 knock-out animals (-/-), with a trace amount of transporter (~5%), as well as from wild type animals (+/+) at P3 and P12 were stained for Nissl substance and the analyses were performed with the help of basic morphometrical and stereological methods. In KCC2 (-/-) animals, body growth impairment was observed, in part related to the seizure activity preventing normal feeding (Woo et al., 2002). However, their brains, in terms of brain weight, were less affected. Therefore, I conclude that Cl- homeostasis is not essential per se to maintain the brain weight. Four auditory nuclei (MNTB, MSO, LSO, and ventral cochlear nucleus (VCN)), were compared with respect to the KCC2 null mutation. The SOC nuclei were not influenced by the lack of KCC2 at P3 considering the morphometric parameters. A difference in the number of neurons occurred in the VCN at P3. I suggest to perform additional immunohistochemical studies of glial presence related to its involvement in the structural and functional support of the neurons and their survival. At P12, the volume of the auditory nuclei in KCC2 (-/-) animals was smaller than in (+/+) animals. However, this is likely to be an epiphenomenon since the brain weight increase was also impaired with the same magnitude. Therefore, I suppose that the Cl- homeostasis is not crucial for the nucleus volume increase in the VCN, the MNTB and the MSO during development. An exception was found for the LSO. Regarding the other morphometric parameters at P12, the four nuclei behaved in a different way: (1) in the VCN, after P3, no parameter underwent a disproportional change due to impaired Cl- homeostasis; (2) the MNTB and the LSO showed less pronounced neuropil in mutants in comparison to age-matched controls and two reasons were proposed: first, the depolarizing GABA/glycine transmission in mutants may contribute to excessive Ca2+ load, excitotoxicity and dendrite damage; second, a decrease of some trophic factors may prevent dendrite development in addition to impaired normal body growth; (3) the MSO neurons in P12 (-/-) animals had smaller soma cross-sectional area than in P12 (+/+) animals. I conclude that the normal Cl- homeostasis is required in the MSO at older ages (P12) to achieve and maintain a proper soma size; (4) the lack of KCC2 did not prevent the process of neuronal differentiation in the VCN and the MNTB during development in both mutant and control animals. In conclusion, the various auditory nuclei have to be discussed independently regarding the influence of Cl- homeostasis on some morphometric parameters. Presumably, this is related to the different time of the shift in the GABA/glycine polarity i.e., the onset of KCC2 function (Srinivasan et al., 2004a). Taken together, my thesis accumulated data about the immunohistological expression pattern of KCC2 in various auditory brain stem nuclei and the influence of impaired Cl- homeostasis on some morphometric features in these nuclei. This information will be helpful for further investigations involved to discover the mechanisms and the events that govern the inhibition and the inhibitory pathway in the central auditory system.
Der Glucocorticoid-Rezeptor (GR), der zu den Steroidhormon-Rezeptoren zählt, reguliert physiologische Prozesse durch Aktivierung und Repression spezifischer Zielgene. Der ligandengebundene Rezeptor aktiviert die Genexpression, indem er als Dimer an spezifische DNA-Sequenzen (glucocorticoid response element, GRE) bindet. Der GR reprimiert seine Zielgene entweder durch Bindung an negative GREs (nGREs, Cis-Repression) oder durch DNA-unabhängige Bindung an andere Transkriptionsfaktoren wie AP-1 oder NF-(kappa)B (Trans-Repression). Glucocorticoide sind sehr effektive Medikamente für die Behandlung entzündlicher Erkrankungen. Langzeittherapie mit Glucocorticoiden ist jedoch problematisch wegen der auftretenden Nebenwirkungen. Bisher ging man davon aus, dass die anti-inflammatorischen Wirkungen der Glucocorticoide weitgehend über den Mechanismus der Trans-Repression reguliert werden, wohingegen die Nebenwirkungen vor allem durch DNA-bindungsabhängige Aktivierung (GRE) und Repression (nGRE) von Zielgenen vermittelt werden. In der vorliegenden Arbeit wurde die DNA-bindungsabhängige Cis-Repression untersucht. Dabei wurden sowohl neue nGRE-Bindungselemente identifiziert, als auch bereits bekannte Elemente hinsichtlich der involvierten Kofaktoren näher charakterisiert. Es wurde mit Hilfe des ABCD-Bindungstests die Affinität des GR zum DNA-Element in Abhängigkeit vom Ligandenbindungsstatus (Agonist, Antagonist, ohne Ligand) des Rezeptors untersucht. Der Rezeptor bindet das Konsensus-DNA-Element in vitro weitgehend unabhängig von dem eingesetzten Liganden. Der ABCD-Bindungstest wurde außerdem eingesetzt, um GR-Kofaktoren mittels Western Blot und Massenspektrometrie zu identifizieren. Der Korepressor N-CoR (nuclear receptor corepressor) bindet den GR-DNA-Komplex in vitro in Abhängigkeit vom Ligandenbindungsstatus. Massenspektrometrisch konnten mit dieser Methode Proteine wie Hsp90, Hsp70 und (beta)-Tubulin identifiziert werden. Die Konsensussequenz von nGREs weist erhebliche Unterschiede zu der klassischen GRE-Sequenz auf. Es konnte in vitro gezeigt werden, dass der GR zu nGREs eine deutlich niedrigere Bindungsaffinität hat als zu GREs. Derzeit geht man davon aus, dass die DNA die Konformation des Rezeptors durch allosterische Effekte moduliert. Mit Hilfe des partiellen Proteaseverdaus konnte ein Hinweis dafür erbracht werden, dass der Glucocorticoid-Rezeptor auf einem positive GRE in einer anderen Konformation vorliegt als auf einem negativen GRE, was in einem unterschiedlichen Bandenmuster resultiert. Die mRNA-Expressionsanalyse (Affimetrix) von T-Zellen aus GRwt- bzw. GRdim/dim-Mäusen ergab eine bisher unerwartete Rolle der DNA-abhängigen GR-Genregulation in der inflammatorischen Immunantwort (G. Schütz und P. Krammer, DKFZ). In der vorliegenden Arbeit wurden die Gene FasLigand (CD95L) und SOCS-3 bezüglich vorhandener nGREs sowohl in silico als auch in vitro analysiert. Die GR-vermittelte Repression des FasL spielt bei dem aktivierungs-induzierten Zelltod (AICD) eine Rolle. SOCS-3 blockiert die Wirkung von Zytokinen durch Inhibierung des JAK/STAT-Signaltransduktionsweges und ist in die Regulation der HPA-(hypothalamic-pituitary-adrenal) Achse eingebunden. Um die Hinweise der mRNA-Expressionsanalyse zu bestätigen, wurden Luciferase-Reportergentests mit FasL- bzw. SOCS-3-Promotorkonstrukten bei Kotransfektion von GRwt oder GRdim durchgeführt. Im Vergleich mit bereits charakterisierten Promotoren konnte sowohl für FasL als auch für SOCS-3 der Mechanismus der Cis-Repression nachgewiesen werden. Negative GREs zeigen im Gegensatz zu positiven GREs keine gute Konservierung der DNA-Sequenz. Um potenzielle nGREs in den neuen Zielgenen in silico zu charakterisieren, wurde durch Analyse bereits charakterisierter nGREs ein Suchmuster entwickelt. Die ermittelten DNA-Bereiche wurden im ABCD-Bindungstest auf ihre Affinität zum GR überprüft. Für den FasL-Promotor konnten drei potenzielle GR-Bindungselemente ermittelt werden. Zwei dieser Bindungsstellen binden den GR im Kontext der Zelle (Chromatin-Immunpräzipitation, N. Novac, AG Heinzel). Für den SOCS-3-Promotor wurden zwei GR-Bindungsstellen charakterisiert. In der vorliegenden Arbeit konnte durch die Ermittlung neuer negativer Bindungselemente des GR ein Hinweis dafür erbracht werden, dass nGREs auch im Kontext der Immunsuppression eine Rolle spielen, und dass der Korepressor N-CoR möglicherweise bei der Cis-Repression von Bedeutung ist.
Im Ausland zu studieren erfordert hohe Anpassungsleistungen kultureller, sozialer und psychischer Art. Viele Untersuchungsbefunde zeigen, dass soziale Unterstützung diesen Anpassungsprozess erleichtern und die Bewältigung psychischer Belastungen mindern kann. In der vorliegenden Studie wurden 96 ausländische und 171 inländische Studierende der Technischen Universität Kaiserslautern danach befragt, welche Art sozialer Unterstützung sie sich wünschen und inwieweit sie die erfahrene Unterstützung als angemessen erachten. Dazu wurden den Teilnehmern in einem Fragebogen drei potentiell belastende Studiensituationen geschildert: der Studienbeginn, Vorbereitung auf Prüfungen und das Erwägen eines Studienfachwechsels oder Studienortwechsels. Für jede dieser drei Situationen beurteilten die Befragten anhand standardisierter Aussagen, (a) welches Bewältigungsverhalten sie in dieser Situation anstrebten, (b) von welchen Personen bzw. Rollenträgern soziale Unterstützung hierfür gewünscht werde und (c) danach, welcher Art diese Unterstützung sein sollte. Die Ergebnisse zeigen, dass die ausländischen Studierenden diese Situationen sehr zielgerichtet und problemorientiert angehen. Sie bevorzugten sach- und studienfachbezogene Unterstützung gegenüber Unterstützung die auf die emotionale Bewältigung kritischer Situationen abzielt oft in stärkerem Maße als inländische Studierende. Dabei wünschen sich die ausländischen Befragten mehr Unterstützung durch Professoren, Assistenten und Fachschaftsangehörige als Hilfe von Freunden, Partnern oder Verwandten. Da ausländischen Studierenden soziale Unterstützung auch durch das Akademischen Auslandsamt zuteil wird, wurde auch erfragt, welche Dienstleistungsangebote des Auslandsamtes den Befragten bekannt sind bzw. welche sie schon einmal in Anspruch genommen haben. Die Ergebnisse erweitern die Grundlage für Entscheidungen über künftige Maßnahmen des Akademischen Auslandsamtes, diese Entscheidungen selbst sind jedoch nicht Bestandteil dieses Untersuchungsberichts.
Im Informationszeitalter haben die Menschen überall und jederzeit Zugang zu einer kontinuierlich ansteigenden Fülle von Informationen. Hierzu trägt vor allem die explosionsartig wachsende globale Vernetzung der Welt, insbesondere das Internet, maßgeblich bei. Die Transformation der verfügbaren Informationen in Wissen sowie die effiziente Nutzung dieses Wissens stellen dabei entscheidende Faktoren für den Erfolg eines Unternehmens oder eines Einzelnen dar. Es stellt sich also die Frage: Leben wir im Informationszeitalter? Diese Frage erinnert an die von Immanuel Kant in [65] gestellte Frage "Leben wir jetzt in einem aufgeklärten Zeitalter?" und dessen Antwort "Nein, aber wohl in einem Zeitalter der Aufklärung.". Entsprechend lässt sich auch die Frage "Leben wir in einem informierten Zeitalter?" mit "Nein, aber wohl in einem Zeitalter der Information" beantworten (vergleiche [14]). Das Problem, dass sich die überwältigende Fülle an Information ohne geeignete Hilfsmittel vom Menschen nicht oder nur schwer beherrschen lässt, hat im Laufe des letzten Jahrzehnts maßgeblich zur Entwicklung des äußerst dynamischen Forschungs- und Anwendungsgebietes der Visualisierung als Teilgebiet der Computergrafik beigetragen. Der Grund hierfür liegt in der Tatsache, dass der Mensch wesentlich besser mit visuellen Eindrücken als mit abstrakten Zahlen oder Fakten umgehen kann. Die Erkennung von Mustern in Daten (z. B. Gruppierungen und Häufungen) wird durch die Visualisierung stark vereinfacht und lässt vielmals Zusammenhänge zwischen Daten überhaupt erst greifbar werden. Unter computergestützter Visualisierung versteht man die in der Regel interaktive grafische Umsetzung von Daten. Handelt es sich dabei um physikalische Daten (z. B. entstanden durch Messvorgänge), so spricht man von Scientific Visualization. Handelt es sich eher um abstrakte bzw. nicht-physikalische Daten, so ordnet man die entsprechenden Verfahren der Information Visualization zu. Beide Teilgebiete der Visualisierung verfolgen jedoch das gemeinsame Ziel, Informationen dem Menschen sichtbar und verständlich zu machen und verwenden hierzu geeignete visuelle Paradigmen, häufig verbunden mit entsprechenden Interaktionsmöglichkeiten. Die vorliegende wissenschaftliche Arbeit ist in den Bereich der angewandten Computergrafik, speziell der interaktiven Visualisierung, einzuordnen. Die primären Ziele lagen dabei in der Übertragung des Begriffes kontextsensitiv auf den Bereich der Visualisierung zur Sicherstellung effizienter und kontextsensitiver Visualisierungsapplikationen sowie die Anwendung in aktuellen praktischen Aufgabenstellungen. Die Umsetzung einer kontextsensitiven Visualisierung gelingt im Rahmen dieser Arbeit durch die zukunftsweisende Kopplung von Visualisierungspipeline und Agententechnologie. Basierend auf der Identifikation zentraler Szenarien der kontextsensitiven Visualisierung wird eine agentenbasierte Visualisierungskontrolle durch intelligente Überwachung und Regelung der Visualisierungspipeline vorgestellt. Nach einer Zusammenfassung der relevanten Grundlagen aus den Gebieten der Visualisierung und der Agententechnologie folgen eine theoretische Klassifizierung und ein Überblick über existierende Systeme und Anwendungen aus beiden Bereichen. Anschließend wird das im Rahmen dieser Arbeit erarbeitete Paradigma der kontextsensitiven Visualisierung vorgestellt und die praktische, komponentenbasierte Umsetzung erläutert. Einen nicht unerheblichen Anteil der Arbeit machen drei innovative, auf der kontextsensitiven Visualisierung basierende Visualisierungsapplikationen aus, welche die Möglichkeiten und die Funktionsfähigkeit der entwickelten Architektur aufzeigen. Die Entwicklung einer plattformunabhängigen interaktiven Visualisierung beschäftigt sich insbesondere mit dem Auffinden der aktuell maximal möglichen Performance durch Abwägung der gegenläufigen Hauptparameter Qualität und Interaktivität und behandelt damit vor allem den System- und Interaktionskontext. Der Gedanke der plattformunabhängigen interaktiven Visualisierung wird anschließend auf mobile Informationssysteme ausgeweitet. Hier ist neben den Performanceaspekten vor allem die Art des Ausgabemediums, d. h. der Darstellungskontext, ein entscheidender Faktor. Die dritte Anwendung stellt eine agentenbasierte Applikation für die Bekleidungsindustrie in Form eines interaktiven Individual-Katalogs dar und behandelt insbesondere den Daten- und den Benutzerkontext. Eine kurze Zusammenfassung sowie ein Ausblick auf geplante zukünftige Entwicklungen runden letztlich die Betrachtungen ab.
Der Einsatz von Monotrimethylsilylcyclopentadien als Ligandensystem bei der Cothermolyse von [{(h5-Cpˉ)(CO)3Mo}2] mit weißem Phosphor liefert ein mit der bissilylierten Spezies vergleichbares Produktbild. Allerdings können bei der Aufarbeitung nur zwei neue phosphorhaltige Produkte isoliert werden. [{(h5-Cpˉ)Mo}2(m-h6:6-P6)] (3) zeichnet sich, wie für diese Art von Tripeldecker typisch, durch eine sowohl hohe thermische Stabilität als auch nur geringe Empfindlichkeit gegenüber Luftsauerstoff aus. Von Verbindung 3 konnte eine Röntgenstrukturanalyse angefertigt werden. [{(h5-Cpˉ)Mo}2(m-h6:6-P6)] (3) ist im Gegensatz zu dem bissilylierten Analogon nicht symmetrisch aufgebaut. Der Winkel zwischen Mo(1)-P6 Zent.-Mo(2) beträgt 149.8° und die drei Decks weichen von der Parallelität ab. Aufgrund der Eigenschaft von [{(h5-Cpˉ)(CO)2Mo}(h3-P3)] (2), sich unter thermischen und photolytischen Bedingungen in Komplex 3 umzuwandeln, eignete sich diese Verbindung nicht als Edukt für weitere Reaktionen. Eine Übertragung der Ergebnisse auf Wolfram gelang vermutlich aufgrund der geringen Reaktivität von W(CO)6 nicht. Die cothermolytische Umsetzung des pseudo-Tripeldecker-Komplexes [{CpRFe}2(µ-η4:4-P4)] (J) mit einer äquimolaren Menge an Alkin liefert, abhängig vom Substituentenmuster, ein mit dem des Butterfly-Komplexes [{CpRFe(CO)2}2(µ-η1:1-P4)] vergleichbares Produktbild an Polyphospholyl-Verbindungen, das sich allerdings in einigen Punkten signifikant unterscheidet. Bei der Verwendung von unsymmetrisch substituierten Alkinen werden im Gegensatz zu Verbindung [{CpRFe(CO)2}2(µ-η1:1-P4)] ausschließlich Sandwichkomplexe des Typs [{CpRFe}(η5-(P3(C2R´H))] mit einem η5-koordinierten 1,2,3-Triphospholylliganden in guten Ausbeuten gebildet.Wird dagegen ein symmetrisch substituiertes Alkin eingesetzt, so wird neben dem korrespondierenden Triphospholylkomplex auch das Monophosphaferrocen [Cp=Fe (η5-P(C2Ph2)2)] (8) gebildet. Da dieses Produktbild nur im Falle des Komplexes [{Cp=Fe}2(µ-η4:4-P4)] und des Alkins Tolan festzustellen ist, kann diese Tendenz nicht verallgemeinert werden. Das Produktbild der Cothermolyse von [Cpˉ´Fe(η5-P5)] (N) mit [Cpˉ´Co(CO)2] (O) ähnelt sehr stark dem der bissilylierten Analoga. So werden bei der thermischen Reaktion von [Cp=Fe(η5-P5)] mit [Cp=Co(CO)2] die zu den Verbindungen 11, 12, 13, 14 und 15 im Grundgerüst identischen mehrkernigen Bis(trimethylsilyl)cyclopentadienyl-Komplexe gebildet. Verbindung [{Cpˉ´Co}{{Cpˉ´Fe}2(µ-CO)}(µ3-P)2] (16) stellt allerdings einen neuen Vertreter der Reihe mehrkerniger phosphorhaltiger Eisen-Cobalt-Cluster dar. Die Röntgen-strukturanalyse von 16 zeigt einen trigonal bipyramidalen Aufbau des Komplexes, bei dem zwei Eisen- und ein Cobaltatom die Basis und zwei Phosphoratome die Spitzen über und unter der Dreiecksfläche bilden. Die Eisenkerne werden von einer Carbonylgruppe verbrückt und die 18 VE-Regel damit erfüllt. [{Cpˉ´Co}{{Cpˉ´Fe}2(µ-CO)}(µ3-P)2] (16) ist bisher der einzige bekannte hetero-bimetallische Phosphorkomplex mit einer solchen Struktur.
Finite difference discretizations of 1D poroelasticity equations with discontinuous coefficients are analyzed. A recently suggested FD discretization of poroelasticity equations with constant coefficients on staggered grid, [5], is used as a basis. A careful treatment of the interfaces leads to harmonic averaging of the discontinuous coefficients. Here, convergence for the pressure and for the displacement is proven in certain norms for the scheme with harmonic averaging (HA). Order of convergence 1.5 is proven for arbitrary located interface, and second order convergence is proven for the case when the interface coincides with a grid node. Furthermore, following the ideas from [3], modified HA discretization are suggested for particular cases. The velocity and the stress are approximated with second order on the interface in this case. It is shown that for wide class of problems, the modified discretization provides better accuracy. Second order convergence for modified scheme is proven for the case when the interface coincides with a displacement grid node. Numerical experiments are presented in order to illustrate our considerations.
Die Grundgleichungen der Physikalischen Geodäsie (in der klassischen Formulierung) werden einer Multiskalenformulierung mittels (sphärisch harmonischer) Wavelets unterzogen. Die Energieverteilung des Störpotentials wird in Auflösung nach Skala und Ort durch Verwendung von Waveletvarianzen beschrieben. Schließlich werden zur Modellierung der zeitlichen Variationen des Schwerefeldes zeit- und ortsgebundene Energiespektren zur Detektion lokaler sowie periodischer/saisonaler Strukturen eingeführt.
This work is concerned with a nonlinear Galerkin method for solving the incompressible Navier-Stokes equation on the sphere. It extends the work of Debussche, Marion,Shen, Temam et al. from one-dimensional or toroidal domains to the spherical geometry. In the first part, the method based on type 3 vector spherical harmonics is introduced and convergence is indicated. Further it is shown that the occurring coupling terms involving three vector spherical harmonics can be expressed algebraically in terms of Wigner-3j coefficients. To improve the numerical efficiency and economy we introduce an FFT based pseudo spectral algorithm for computing the Fourier coefficients of the nonlinear advection term. The resulting method scales with O(N^3), if N denotes the maximal spherical harmonic degree. The latter is demonstrated in an extensive numerical example.
The Chained Lin-Kernighan algorithm (CLK) is one of the best heuristics to solve Traveling Salesman Problems (TSP). In this paper a distributed algorithm is proposed, were nodes in a network locally optimize TSP instances by using the CLK algorithm. Within an Evolutionary Algorithm (EA) network-based framework the resulting tours are modified and exchanged with neighboring nodes. We show that the distributed variant finds better tours compared to the original CLK given the same amount of computation time. For instance fl3795, the original CLK got stuck in local optima in each of 10 runs, whereas the distributed algorithm found optimal tours in each run requiring less than 10 CPU minutes per node on average in an 8 node setup. For instance sw24978, the distributed algorithm had an average solution quality of 0.050% above the optimum, compared to CLK's average solution of 0.119% above the optimum given the same total CPU time (104 seconds). Considering the best tours of both variants for this instance, the distributed algorithm is 0.033% above the optimum and the CLK algorithm 0.099%.
In recent years, more and more publications and material for studying and teaching, e. g. for Web-based teaching (WBT), appear "online" and digital libraries are built to manage such publications and online materials. Therefore, the most important concerns are related to the problem of durable, sustained storage and the management of content together with its metadata existing in heterogeneous styles and formats. In this paper, we present specific techniques and their use to support metadata-based catalog services. Such semistructured metadata (represented as XML fragments), which belong to online learning resources, need efficient XML-based query support, scalable result set processing, and comprehensive facilities for personalization purposes. We discuss the associated problems, subsequently derive the concepts of a suitable architecture, and finally outline the realization by means of our prototype system that is based on the J2EE component model.
Based on the well-known results of classical potential theory, viz. the limit and jump relations for layer integrals, a numerically viable and e±cient multiscale method of approximating the disturbing potential from gravity anomalies is established on regular surfaces, i.e., on telluroids of ellipsoidal or even more structured geometric shape. The essential idea is to use scale dependent regularizations of the layer potentials occurring in the integral formulation of the linearized Molodensky problem to introduce scaling functions and wavelets on the telluroid. As an application of our multiscale approach some numerical examples are presented on an ellipsoidal telluroid.
In this paper we introduce a multiscale technique for the analysis of deformation phenomena of the Earth. Classically, the basis functions under use are globally defined and show polynomial character. In consequence, only a global analysis of deformations is possible such that, for example, the water load of an artificial reservoir is hardly to model in that way. Up till now, the alternative to realize a local analysis can only be established by assuming the investigated region to be flat. In what follows we propose a local analysis based on tools (Navier scaling functions and wavelets) taking the (spherical) surface of the Earth into account. Our approach, in particular, enables us to perform a zooming-in procedure. In fact, the concept of Navier wavelets is formulated in such a way that subregions with larger or smaller data density can accordingly be modelled with a higher or lower resolution of the model, respectively.
In soil mechanics assumption of only vertical subsidence is often invoked and this leads to the one-dimensional model of poroelasticity. The classical model of linear poroelasticity is obtained by Biot [1], detailed derivation can be found e.g., in [2]. This model is applicable also to modelling certain processes in geomechanics, hydrogeology, petroleum engineering (see, e.g., [3, 8], in biomechanics (e.g., [9, 10]), in filtration (e.g., filter cake formation, see [15, 16, 17]), in paper manufacturing (e.g., [11, 12]), in printing (e.g., [13]), etc. Finite element and finite difference methods were applied by many authors for numerical solution of the Biot system of PDEs, see e.g. [3, 4, 5] and references therein. However, as it is wellknown, the standard FEM and FDM methods are subject to numerical instabilities at the first time steps. To avoid this, discretization on staggered grid was suggested in [4, 5]. A single layer deformable porous medium was considered there. This paper can be viewed as extension of [4, 5] to the case of multilayered deformable porous media. A finite volume discretization to the interface problem for the classical one-dimensional Biot model of consolidation process is applied here. Following assumptions are supposed to be valid: each of the porous layers is composed of incompressible solid matrix, it is homogeneous and isotropic. Furthermore, one of two following assumptions is valid: porous medium is not completely saturated and fluid is incompressible or porous medium is completely saturated and fluid is slightly compressible. The reminder of the paper is organised as follows. Next section presents the mathematical model. Third section is devoted to the dicsretization of the continuous problem. Fourth section contains the results from the numerical experiments.
Die wirtschaftswissenschaftliche Literatur gibt unterschiedliche Empfehlungen für die Ausgestaltung der Kostenrechnungssysteme für den Dienstleistungsbereich ab. Um zu überprüfen, ob ein ebenso diffuses Bild in der Unternehmensrealität zu finden ist, wurde eine Umfrage unter börsennotierten Unternehmen in Deutschland durchgeführt. Es konnte aufgezeigt werden, dass zwischen Dienstleistungsbereichen und sonstigen Bereichen Unterschiede bei der Verwendung spezieller Kostenrechnungssystemen existieren. Wo bei letzteren eine vergleichsweise hohe Affinität zur Grenzplankostenrechnung festgestellt werden konnte, wurden in den Dienstleistungsbereichen sowohl die Prozesskostenrechnung als auch die Vollkostenrechnung verstärkt bevorzugt. Diese Tendenzaussagen fanden bei der Angabe eines „Wunschverrechnungssystems“ sogar noch stärkere Unterstützung.
Today, test methods for communication protocols assume, among other things, that the protocol design is specified as a single, monolithic finite state machine (FSM). From this specification, test suites that are capable of detecting output and/or transfer faults in the protocol implementation are derived. Limited applicability ofthese methods is mainly because oftheir specific assumptions, and due to the size of the derived test suite and the resulting test effort for realistic protocols. In this work, the compositional test method (C-method), which exploits the available structure of a communication protocol, is proposed. The C-method first tests each protocol component separately for output and/or transfer faults, using one of the traditional test methods, then checks for composability, and finally tests the composite system for composition faults. To check for composability and to derive the test suite for the detection of composition faults, it is not required to construct the global state machine. Instead, all information is derived from the component state machines, which avoids a potential state explosion and lengthy test cases. Furthermore, the test suite checks for composition faults only. This substantially reduces the size of the test suite and thus the overall test effort.
In this thesis, the enhanced Galerkin (eG) finite element method in time is presented. The eG method leads to higher order accurate energy and momentum conserving time integrators for the underlying finite-dimensional Hamiltonian systems. This thesis is concerned with particle dynamics and semi-discrete nonlinear elastodynamics. The conservation is generally related to the collocation property of the eG method. The momentum conservation renders the Gaussian quadrature and the energy conservation is obtained by using a new projection technique. An objective time discretisation of the used strain measures avoids artificial strains for large superimposed rigid body motions. The numerical examples show the well long term performance in the presence of stiffness as well as for calculating large-strain motions.
The following two papers present recent developments in multiscale ocean circulation modeling and multiscale gravitational field modeling that have been presented at the 2nd International GOCE User Workshop 2004 in Frascati. Part A - Multiscale Modeling of Ocean Circulation In this paper the applicability of multiscale methods to oceanography is demonstrated. More precisely, we use convolutions with certain locally supported kernels to approximate the dynamic topography and the geostrophic flow. As data sets the French CLS01 data are used for the mean sea surface topography and are compared to the EGM96 geoid. Since those two data sets have very different levels of spatial resolutions the necessity of an interpolating or approximating tool is evident. Compared to the standard spherical harmonics approach, the strongly space localizing kernels improve the possibilities of local data analysis here. Part B - Multiscale Modeling from EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, GGM01, UCPH2002_0.5, EGM96 Spherical wavelets have been developed by the Geomathematics Group Kaiserslautern for several years and have been successfully applied to georelevant problems. Wavelets can be considered as consecutive band-pass filters and allow local approximations. The wavelet transform can also be applied to spherical harmonic models of the Earth's gravitational field like the most up-to-date EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, GGM01, UCPH2002_0.5, and the well-known EGM96. Thereby, wavelet coefficients arise. In this paper it is the aim of the Geomathematics Group to make these data available to other interested groups. These wavelet coefficients allow not only the reconstruction of the wavelet approximations of the gravitational potential but also of the geoid, of the gravity anomalies and other important functionals of the gravitational field. Different types of wavelets are considered: bandlimited wavelets (here: Shannon and Cubic Polynomial (CuP)) as well as non-bandlimited ones (in our case: Abel-Poisson). For these types wavelet coefficients are computed and wavelet variances are given. The data format of the wavelet coefficients is also included.
In this thesis we propose an efficient method to compute the automorphism group of an arbitrary hyperelliptic function field over a given constant field of odd characteristic as well as over its algebraic extensions. Beside theoretical applications, knowing the automorphism group also is useful in cryptography: The Jacobians of hyperelliptic curves have been suggested by Koblitz as groups for cryptographic purposes, because the discrete logarithm is believed to be hard in this kind of groups. In order to obtain "secure" Jacobians, it is necessary to prevent attacks like Pohlig/Hellman's and Duursma/Gaudry/Morain's. The latter is only feasible, if the corresponding function field has an automorphism of large order. According to a theorem by Madan, automorphisms seem to allow the Pohlig/Hellman attack, too. Hence, the function field of a secure Jacobian will most likely have trivial automorphism group. In other words: Computing the automorphism group of a hyperelliptic function field promises to be a quick test for insecure Jacobians. Let us outline our algorithm for computing the automorphism group Aut(F/k) of a hyperelliptic function field F/k. It is well known that Aut(F/k) is finite. For each possible subgroup U of Aut(F/k), Rolf Brandt has given a normal form for F if k is algebraically closed. Hence our problem reduces to deciding, whether a given hyperelliptic function field F=k(x,y), y^2=D_x has a defining equation of the form given by Brandt. This question can be answered using theorem III.18: We have F=k(t,u), u^2=D_t iff x is a fraction of linear polynomials in t and y=pu, where the factor p is a rational function w.r.t. t which can be determined explicitly from the coefficients of x. This condition can be checked efficiently using Gröbner basis techniques. With additional effort, it is also possible to compute Aut(F/k) if k is not algebraically closed. Investigating a huge number of examples one gets the impression that the above motivation of getting a quick test for insecure Jacobians is partially fulfilled: The computation of automorphism groups is quite fast using the suggested algorithm. Furthermore, fields with nontrivial automorphism groups seem to have insecure Jacobians. Only fields of small characteristic seem to have a reasonable chance of having nontrivial automorphisms. Hence, from a cryptographic point of view, computing Aut(F/k) seems to make sense whenever k has small characteristic.
Porous media flow of polymers with Carreau law viscosities and their application to enhanced oil recovery (EOR) is considered. Applying the homogenization method leads to a nonlinear two-scale problem. In case of a small difference between the Carreau and the Newtonian case an asymptotic expansion based on the small deviation of the viscosity from the Newtonian case is introduced. For uni-directional pressure gradients, which is a reasonable assumption in applications like EOR, auxiliary problems to decouple the micro- from the macrovariables are derived. The microscopic flow field obtained by the proposed approach is compared to the solution of the two-scale problem. Finite element calculations for an isotropic and an anisotropic pore cell geometries are used to validate the accuracy and speed-up of the proposed approach. The order of accuracy has been studied by performing the simulations up to the third order expansion for the isotropic geometry.
In this paper we generalize the classical shortest path problem in two ways. We consider two objective functions and time-dependent data. The resulting problem, called the time-dependent bicriteria shortest path problem (TdBiSP), has several interesting practical applications, but has not gained much attention in the literature.
In this paper, we discuss approaches related to the explicit modeling of human beings in software development processes. While in most older simulation models of software development processes, esp. those of the system dynamics type, humans are only represented as a labor pool, more recent models of the discrete-event simulation type require representations of individual humans. In that case, particularities regarding the person become more relevant. These individual effects are either considered as stochastic variations of productivity, or an explanation is sought based on individual characteristics, such as skills for instance. In this paper, we explore such possibilities by recurring to some basic results in psychology, sociology, and labor science. Various specific models for representing human effects in software process simulation are discussed.
The fact that long fibre reinforced thermoplastic composites (LFT) have higher tensile
strength, modulus and even toughness, compared to short fibre reinforced
thermoplastics with the same fibre loading has been well documented in literature.
These are the underlying factors that have made LFT materials one of the most
rapidly growing sectors of plastics industry. New developments in manufacturing of
LFT composites have led to improvements in mechanical properties and price
reduction, which has made these materials an attractive choice as a replacement for
metals in automobile parts and other similar applications. However, there are still
several open scientific questions concerning the material selection leading to the
optimal property combinations. The present work is an attempt to clarify some of
these questions. The target was to develop tools that can be used to modify, or to
“tailor”, the properties of LFT composite materials, according to the requirements of
automobile and other applications.
The present study consisted of three separate case studies, focusing on the current
scientific issues on LFT material systems. The first part of this work was focused on
LGF reinforced thermoplastic styrenic resins. The target was to find suitable maleic
acid anhydride (MAH) based coupling agents in order to improve the fibre-matrix
interfacial strength, and, in this way, to develop an LGF concentrate suitable for
thermoplastic styrenic resins. It was shown that the mechanical properties of LGF
reinforced “styrenics” were considerably improved when a small amount of MAH
functionalised polymer was added to the matrix. This could be explained by the better fibre-matrix adhesion, revealed by scanning electron microscopy of fracture surfaces.
A novel LGF concentrate concept showed that one particular base material can be
used to produce parts with different mechanical and thermal properties by diluting the
fibre content with different types of thermoplastic styrenic resins. Therefore, this
concept allows a flexible production of parts, and it can be used in the manufacturing
of interior parts for automobile components.The second material system dealt with so called hybrid composites, consisting of
long glass fibre reinforced polypropylene (LGF-PP) and mineral fillers like calcium
carbonate and talcum. The aim was to get more information about the fracture
behaviour of such hybrid composites under tensile and impact loading, and to
observe the influence of the fillers on properties. It was found that, in general, the
addition of fillers in LGF-PP, increased stiffness but the strength and fracture
toughness were decreased. However, calcium carbonate and talcum fillers resulted
in different mechanical properties, when added to LGF-PP: better mechanical
properties were achieved by using talcum, compared to calcium carbonate. This
phenomenon could be explained by the different nucleation effect of these fillers,
which resulted in a different crystalline morphology of polypropylene, and by the
particle orientation during the processing when talc was used. Furthermore, the
acoustic emission study revealed that the fracture mode of LGF-PP changed when
calcium carbonate was added. The characteristic acoustic signals revealed that the
addition of filler led to the fibre debonding at an earlier stage of fracture sequence
when compared to unfilled LGF-PP.
In the third material system, the target was to develop a novel long glass fibre
reinforced composite material based on the blend of polyamide with thermoset
resins. In this study a blend of polyamide-66 (PA66) and phenol formaldehyde resin
(PFR) was used. The chemical structure of the PA66-PFR resin was analysed by
using small molecular weight analogues corresponding to PA66 and PFR
components, as well as by carrying out experiments using the macromolecular
system. Theoretical calculations and experiments showed that there exists a strong
hydrogen bonding between the carboxylic groups of PA66 and the hydroxylic groups
of PFR, exceeding even the strength of amide-water hydrogen bonds. This was
shown to lead to the miscible blends, when PFR was not crosslinked. It was also
found that the morphology of such thermoplastic-thermoset blends can be controlled
by altering ratio of blend components (PA66, PFR and crosslinking agent). In the
next phase, PA66-PFR blends were reinforced by long glass fibres. The studies
showed that the water absorption of the blend samples was considerably decreased,
which was also reflected in higher mechanical properties at equilibrium state.
Wie man aus zahlreichen Untersuchungen und Anwendungsbeispielen entnehmen
kann, besitzen langfaserverstärkte Thermoplaste (LFT) eine bessere Zugfestigkeit,
Biege- und Schlagzähigkeit im Vergleich zu kurzfaserverstärkten Thermoplasten. Die
Vorteile in den mechanischen Eigenschaften haben die LFT zu einem
schnellwachsenden Bereich in der Kunststoffindustrie gemacht. Neue Entwicklungen
in Bereich der Herstellung von LFT haben für zusätzliche Verbesserungen der
mechanischen Eigenschaften sowie eine Preisreduzierung der Materialien in den
vergangenen Jahren gesorgt, was die LFT zu einer attraktiven Wahl u.a. als Ersatz
von Metallen in Automobilteilen macht. Es stellen sich allerdings immer noch einige
offene wissenschaftliche Fragen in Bezug auf z.B. die Materialbeschaffenheit, um
optimale Eigenschaftskombinationen zu erreichen. Die vorliegende Arbeit versucht,
einige dieser Fragen zu beantworten. Ziel war es, Vorgehensweisen zu entwickeln,
mit denen man die Eigenschaften von LFT gezielt beeinflussen und so den
Anforderungen von Automobilen oder anderen Anwendungen anpassen oder
„maßschneidern“ kann.
Die vorliegende Arbeit besteht aus drei Teilen, welche sich auf unterschiedliche
Materialsysteme, angepasst an den aktuellen Bedarf und das Interesse der Industrie,
konzentrieren.
Der erste Teil der Arbeit richtet sich auf die Eigenschaftsoptimierung von
langglasfaserverstärkten (LGF) thermoplastischen Styrolcopolymeren und von
Blends aus diesen Materialien. Es wurden passende, auf Maleinsäureanhydride
(MAH) basierende Kopplungsmittel gefunden, um die Faser-Matrix-Haftung zu
optimieren. Weiterhin wurde ein LGF Konzentrat entwickelt, welches mit
verschiedenen thermoplastischen Styrolcopolymeren kompatibel ist und somit als
„Verstärkungsadditiv“ eingesetzt werden kann.Das Konzept für ein neues LGF-Konzentrat auf Basis des kompatiblen
Materialsystems konzentriert sich insbesondere darauf, dass ein Basismaterial für
die Herstellung von Bauteilen bereit gestellt werden kann, mit dessen Hilfe gezielt
verschiedene mechanische und thermomechanischen Eigenschaften durch das
Zumischen von verschiedenen Styrolcopoylmeren und Blends verbessert werden
können. Dieses Konzept ermöglicht eine sehr flexible Produktion von Bauteilen und
wird seine Anwendung bei der Herstellung von Bauteilen u.a. im Interieur von Autos
finden.
Das zweite Materialsystem basiert auf sogenannten hybriden Verbundwerkstoffen,
welche aus Langglasfasern und mineralischen Füllstoffen wie Kalziumkarbonat und
Talkum in einer Polypropylen (PP) - Matrix zusammengesetzt sind. Ziel war es, durch
detaillierte bruchmechanische Analysen genaue Informationen über das
Bruchverhalten dieser hybriden Verbundwerkstoffe bei Zug- und Schlagbelastung zu
bekommen, um dann die Unterschiede zwischen den verschiedenen Füllstoffen in
Bezug auf ihre Eigenschaften zu dokumentieren. Es konnte beobachtet werden, dass
bei Zugabe der Füllstoffe zum LGF-PP normalerweise die Steifigkeit weiter
verbessert wurde, jedoch die Festigkeit und Schlagzähigkeit abnahmen. Weiterhin
zeigten die verschiedenen Füllstoffe wie Kalziumkarbonat und Talkum
unterschiedliche mechanische Eigenschaften auf, wenn sie zusammen mit LGF
Verstärkung eingesetzt wurden: Bei der Zugabe von Talkum wurde u.a. eine deutlich
bessere Schlagzähigkeit als bei der Zugabe von Kalziumkarbonat festgestellt. Dieses
Phänomen konnte durch das unterschiedliche Nukleierungsverhalten des PPs erklärt
werden, welches in einer unterschiedlichen Kristallmorphologie von Polypropylen
resultierte. Weiterhin konnte man durch Messungen der akustischen Emmissionen
während der Zugbelastung eines bruchmechanischen Versuchskörpers aufzeigen,
dass die höhere Bruchzähigkeit von LGF-PP ohne Füllstoffe daraus resultiert, dass
Faser-Pullout schon bei geringeren Kräften vorhanden war.
Die Balanced Scorecard ist seit den ersten Veröffentlichungen zu diesem Konzept Anfang der neunziger Jahre in vielen Unternehmen und anderen Institutionen als ein Instrument zur Verwirklichung eines ganzheitlichen Performance-Measurement-Ansatzes eingeführt worden. Hervorgerufen durch die unterschiedlichen Abgrenzungen, die zwischen der Institution und dem Aufgabenbereich des Managements und des Controllings vorgenommen werden, wird die BSC in der Literatur, der gewählten Abgrenzung entsprechend, sowohl als Management-Instrument als auch als Controlling-Instrument tituliert. Ziel der empirischen Untersuchung, die diesem Arbeitspapier zu Grunde liegt, war es herauszufinden, welche Institution im Unternehmen welchen Schritt bei der Ein- und Fortführung der BSC übernimmt bzw. dabei federführend ist. Der Fokus liegt dabei auf der Zuteilung zum Management bzw. Controlling. Dazu wurde eine breit angelegte Umfrage unter deutschen Unternehmen vorgenommen.
Bei den "traditionellen" Reduktionsmittelaufbereitungssystemen, die die Abgaswärme zur Zersetzung des Harnstoffs ausnutzen, wird der Harnstoff entweder in Form einer wässrigen Lösung oder in Pulverform direkt vor dem SCR-Katalysator in das Abgassystem eingebracht. Der zudosierte Harnstoff wird im Abgas in zwei Reaktionsschritten (Thermolyse, Hydrolyse) thermisch zersetzt, wobei die Abgastemperatur einen entscheidenden Einfluss auf die Harnstoffzersetzungskinetik besitzt. Bei der Thermolyse entstehen aus dem Harnstoff die Produkte Ammoniak und Isocyansäure, wobei die Isocyansäure mit Wasser bei der Hydrolyse zu Ammoniak und Kohlendioxid reagiert. Wie Versuchsergebnisse demonstrieren, kann die Gesamtperformance von SCR-Katalysatorsystemen verbessert werden, wenn statt Harnstoff gasförmiges Ammoniak in das Abgassystem eingebracht wird, da so der komplette Harnstoffzersetzungsmechanismus entfällt. Dem in dieser Arbeit untersuchten Verfahren zur thermischen Trockenharnstoffzersetzung lag deshalb die Überlegung zu Grunde, den Harnstoffzersetzungsprozess vom Abgassystem zu entkoppeln und in einem externen elektrisch beheizten Reaktor zu realisieren. Ein solches System besitzt den entscheidenden Vorteil, dass die Zersetzungstemperatur und die Verweilzeit für die Reaktion so eingestellt werden können, dass unabhängig vom aktuellen Motorbetriebspunkt immer eine optimale Harnstoffzersetzung gewährleistet wird. Aus den Bruttoumsatzgleichungen für die beiden Reaktionen geht hervor, dass ohne eine Zufuhr von Wasser in den Reaktor nur die Thermolyse ablaufen kann, d.h. es entsteht ein Gemisch aus Ammoniak und Isocyansäure. Aus diesem Grund wird Wasser, das aus dem Verbrennungsprozess des Motors stammt, mit Hilfe eines Abgasteilstroms in den Reaktor eingeleitet. Eine Abschätzung zeigt, dass zu diesem Zweck ein Teilstrom in der Größenordnung von 1 % erforderlich ist. Da die Geschwindigkeit der Hydrolysereaktion in der Gasphase sehr gering ist, wurde der elektrisch beheizten Thermolysezone ein Hydrolysekatalysator nachgeschaltet. Die selektive Reaktion der Isocyansäure zu den Produktstoffen Ammoniak und Kohlendioxid ist für die Funktion des Harnstoffaufbereitungssystems von entscheidender Bedeutung, da ansonsten aus der sehr reaktiven Isocyansäure Polymerisationsprodukte gebildet werden, die zu festen Ablagerungen im System führen. Darüber hinaus hat sich im Rahmen des Entwicklungsprozesses gezeigt, dass die Thermolysezone so gestaltet sein muss, dass der Harnstoff in keinem Fall mit unbeheizten Flächen in Berührung kommen kann. Auf der Grundlage der Ergebnisse von thermogravimetrischen Versuchen wurde eine Heizflächentemperatur von 400 °C gewählt. Bei diesem System entstehen dann idealerweise ausschließlich die Produkte Ammoniak und Kohlendioxid, die mit Hilfe des Abgasteilstroms, der unter anderem auch als Trägergasstrom fungiert, in das Abgassystem eingeleitet werden. Von daher ist es mit einem System vergleichbar, bei dem gasförmiges Ammoniak dosiert wird. Der Harnstoff wird dem Reaktor in Form von Pellets in einem Größenspektrum von 1,8-2 mm zugeführt. Die Dosierung der Pellets erfolgt mit Hilfe eines Zellenraddosierers. Der Transport vom Dosierer zum Reaktor wird mittels Förderluft durch eine Leitung realisiert. Trockener Harnstoff bietet bezüglich der Masse und des Volumens Vorteile gegenüber der wässrigen Harnstofflösung. Darüber hinaus ist eine uneingeschränkte Wintertauglichkeit gewährleistet. Die Betriebsbereitschaft des Reaktors, die durch eine Heizflächentemperatur von 400 °C und eine Temperatur vor dem Hydrolysekatalysator oberhalb von 200 °C gekennzeichnet ist, wird nach 60-80 s erzielt. Im MVEG-Test liegt die mittlere gemessene Heizleistung im Bereich von 180 W. Anhand einer NOx-Umsatz- und NH3-Bilanz konnte gezeigt werden, dass der Harnstoff im Reaktor in die gewünschten Produkte NH3 und CO2 überführt wird. Mit dem Gesamtsystem werden sowohl bei kleinen als auch bei großen Dosiermengen gute Konvertierungsergebnisse erzielt. Unter optimalen Randbedingungen sind im Bereich der NH3-Schlupfgrenze NOx-Umsätze >95 % realisierbar. Insbesondere bei niedrigen Abgastemperaturen werden die Vorteile gegenüber der "klassischen" Flüssigdosierung deutlich. Die Betriebssicherheit des Gesamtsystems konnte durch einen 100 h-Dauertest nachgewiesen werden. Das Gesamtsystem wurde an einem Versuchsfahrzeug (Audi A8) appliziert. Im Rahmen des bisherigen Testprogramms konnte die Systemfunktion nachgewiesen werden. Der EURO IV Grenzwert wird erreicht. Zur Aktivitätssteigerung müssen vor allem die Abgastemperatur angehoben und der NO2-Verlauf im Zyklus optimiert werden. Zusätzlich muss die Dosierstrategie so optimiert werden, dass am Umsatz und Schlupfrisiko orientiert immer ein optimaler NH3-Füllstand im Katalysator vorliegt.
Annual Report 2003
(2004)
Annual Report, Jahrbuch AG Magnetismus
Die Bindung von F1 an FO in der ATP-Synthase erfolgt über zwei Stiele. Während man davon ausgeht, dass der erste Stiel direkt an der ATP-Synthese beteiligt ist, so ist die Funktion des zweiten Stiels, der u.a. aus der b-Untereinheit besteht, noch recht unklar. Ein erster Schritt die Funktion des zweiten Stiels aufzuklären ist das Verständnis der Struktur der als Dimer auftretenden Untereinheit b. Mit Hilfe der ESR-Spektroskopie sollten neue Erkenntnisse bezüglich der Quartärstruktur von b2 erhalten werden. Die Untersuchungen wurden an einer verkürzten, wasserlöslichen Form von b, die als bsyn oder b24-156 bezeichnet wird, durchgeführt. bsyn lag hierbei alleine bzw. im Komplex mit F1 vor. bsyn konnte so in einem Bereich von 14 Aminosäuren, d.h. von knapp vier Helixumdrehungen (3,6 Aminosäuren pro Umdrehung) untersucht werden. Die Proteine wurden mit IAAT modifiziert und bei 193 K vermessen. Durch Simulation der so erhaltenen Spektren war es möglich Spin-Spin-Abstände zu bestimmen. Desweiteren wurden die bsyn-Mutanten Crosslink-Experimenten unterzogen, bei denen es in Abhängigkeit der relativen Abstände und Orientierung der Cysteine zueinander zur Ausbildung von Disulfidbindungen kommt. So war es möglich, über die Stärke der Crosslinks Rückschlüsse auf die Cystein-Cystein-Abstände zu ziehen.
Mit Hilfe von Trifluormethansulfonsäure gelang die chemische Deglykosylierung von natürlichem Gelonin. Durch die Charakterisierung mit Hilfe von SDS-PAGE, wurden Hinweise auf das Vorliegen der Aminosäurensequenz von Nolan et al. gefunden. Durch Auswertung massenspektrometrischer Daten wurde ein mögliches Glykosylierungsmuster vorgeschlagen. Die Expression von rekombinantem Gelonin in E.coli und anschließende Isolierung mit Hilfe der Nickel-Affinitätschromatographie führte zu einem Produkt, das trotz fehlender Glykosylierung um den Faktor 2 toxischer war als natürliches Gelonin und vergleichbare immunologische Eigenschaften aufwies. Durch molekularbiologische Arbeiten wurde der Expressionsvektor für ein AChR-Fragment (a-Untereinheit, AS 4-181) um die DNA-Information für die Aminosäuren 182-208 erweitert. Eine Expression führte zur Bildung eines nativen Produktes, während die native Isolierung des verkürzten Fragmentes nicht erfolgreich war. Ein rekombinant hergestelltes Fusionsprotein aus Gelonin und einem AChR-Fragment (a-Untereinheit, AS 4-181) konnte in hoher Ausbeute und Reinheit mit Hilfe von Nickel-Affinitätschromatographie isoliert werden. Da eine denaturierende Aufarbeitung notwendig war, wurde eine geeignete Renaturierungsmethode entwickelt. Trotz Optimierung fielen allerdings noch bis zu 80% des Fusionsproteins als falsch-gefaltete, unlösliche Proteinaggregate aus. Durch Einführung einer „Recyclingmethode“ konnte der Proteinverlust deutlich minimiert werden. Beide Domänen zeigten sich nativ gefaltet. Allerdings war das Gelonin-Fragment um den Faktor 11 untoxischer als rekombinantes Gelonin alleine. Das Fusionsprotein wurde in einem Tiermodell der Myasthenia gravis auf seine potentiellen antigenspezifischen immunsuppressiven Eigenschaften gestestet. Nach der Induktion der Erkrankung in Ratten durch Gabe von komplettem AChR, wurde die Erkrankung durch repetitive Nervenstimulation untersucht. Eine Methode die auch bei humaner Myasthenie angewendet wird. Nach der Gabe des Fusionsproteins verschwanden die myasthenen Symptome in der Ratte innerhalb einer Woche. Damit zeigte das Fusionsprotein einen therapeutischen Effekt. Langzeitstudien wurden allerdings nicht durchgeführt.
Das moderne Wohngebäude zeichnet sich durch einen niedrigen Heizwärmebedarf aus. Mit Zunahme der Sensitivität des Wohngebäudes bezüglich der Solarstrahlung aufgrund neuartiger Systeme wie transparenter Wärmedämmung, Phasenwechselmaterialien oder großer Fensterflächen, erweitert sich der herkömmliche Regelungsansatz zur Einhaltung des behaglichen Raumklimas. Das thermische Gebäudeverhalten definiert sich weitaus komplexer. Es kommen neben der notwendigen Heizung weitere Aktoren (Sonnenschutzeinrichtung, Lüftung) ins Spiel. Die Zunahme der realisierbaren, solaren Erträge bewirken im Winter fossile Energieeinsparungen. Im Sommer sind jedoch ohne geeignete Maßnahmen Überhitzungen die Folge. Mit Hilfe moderner und vernetzter Regelungstechnik können Wirtschaftlichkeit des Systems und Komfort optimiert werden. Hierzu wurden bewährte Simulationswerkzeuge erweitert. Moderne Komponenten wie Phasenwechselmaterialien, transparente Wärmedämmung und Verschattungssysteme auf Basis einer schaltenden Schicht im Glasverbund erfahren eine Modellbildung. Umfangreiche Validierungen zu den Teilmodellen und zum Gesamtmodell zeigen, dass eine realitätsnahe Abbildung erreicht wird. Grundlage dieser Validierungssequenzen waren Feldtestmessungen an bewohnten Gebäuden, sowie Ergebnisse von Systemtestständen. Die Aussagesicherheit des gesamten Gebäudemodells wurde durch eine sogenannte "Cross-Validation" mit anderen etablierten Simulationsprogrammen hergestellt. Mit der Schaffung der realitätsnahen Abbildung eines solaroptimierten Wohngebäudes, welches an eine heizungsunterstützende, solarthermische Anlage gekoppelt ist, wurde die Grundlage zur Entwicklung einer prädiktiven Wärmeflussregelung in Wohngebäuden mit erweitertem thermischen Verhalten gelegt. Eine Untersuchung zum dynamischen Verhalten auf periodische Anregung von Einflussgrößen, zeigt die dominanten Zeitkonstanten des Gebäudesystems auf. Einfallende Solarstrahlung durch Fenster wirkt sich am schnellsten auf die empfundene Raumtemperatur aus. Dies hat Auswirkung auf die prädiktive Regelung. Während im Winter die Solarstrahlung zur Heizungsunterstützung herangezogen werden soll, gilt es, im Sommer die Bewohner vor Überhitzung zu schützen. Damit die Regelung in der Heizperiode an sonnigen Tagen nicht unnötig vorheizt (d. h. frühzeitig abgeschalten wird, da der zukünftige Heizbedarf von der Sonne gedeckt werden kann) und damit Überhitzungen(vor allem im Sommer) vermieden werden können, wurde für das untersuchte Gebäudemodell ein Prognosehorizont für den Prädiktor bestimmt. Mit dem modellbasierten Regelungskonzept wurde ein übergreifendes Wärmemanagementsystem entwickelt, welches mit der Information einer lokalen Wettervorhersage den thermischen Zustand des Gebäudes vorhersagt. Aufgrund des im Regler implementierten, reduzierten Modells, berücksichtigt die Prädiktion die besonderen Eigenschaften der eingesetzten Fassadenkomponenten. Umfangreiche, simulationsgestützte Untersuchungen bewerten das Regelungskonzept. Als Referenzsystem dient ein Gebäude mit herkömmlichem Regelungskonzept.
Iterative solution of large scale systems arising after discretization and linearization of the unsteady non-Newtonian Navier–Stokes equations is studied. cross WLF model is used to account for the non-Newtonian behavior of the fluid. Finite volume method is used to discretize the governing system of PDEs. Viscosity is treated explicitely (e.g., it is taken from the previous time step), while other terms are treated implicitly. Different preconditioners (block–diagonal, block–triangular, relaxed incomplete LU factorization, etc.) are used in conjunction with advanced iterative methods, namely, BiCGStab, CGS, GMRES. The action of the preconditioner in fact requires inverting different blocks. For this purpose, in addition to preconditioned BiCGStab, CGS, GMRES, we use also algebraic multigrid method (AMG). The performance of the iterative solvers is studied with respect to the number of unknowns, characteristic velocity in the basic flow, time step, deviation from Newtonian behavior, etc. Results from numerical experiments are presented and discussed.
In this work the problem of fluid flow in deformable porous media is studied. First, the stationary fluid-structure interaction (FSI) problem is formulated in terms of incompressible Newtonian fluid and a linearized elastic solid. The flow is assumed to be characterized by very low Reynolds number and is described by the Stokes equations. The strains in the solid are small allowing for the solid to be described by the Lame equations, but no restrictions are applied on the magnitude of the displacements leading to strongly coupled, nonlinear fluid-structure problem. The FSI problem is then solved numerically by an iterative procedure which solves sequentially fluid and solid subproblems. Each of the two subproblems is discretized by finite elements and the fluid-structure coupling is reduced to an interface boundary condition. Several numerical examples are presented and the results from the numerical computations are used to perform permeability computations for different geometries.
Das Plasmid pKAP298 aus Caedibacter taeniospiralis, einem obligaten Parasiten aus Paramecium tetraurelia, wurde in Gänze sequenziert, analysiert und annotiert, mögliche vom Plasmid kodierte Funktionen wurden charakterisiert. Es konnten Plasmid-Fragmente mit Transkriptions-Aktivität identifiziert werden, eine Transkriptions-Aktivitätskarte bildet die Basis zur weiteren Identifizierung der aktiven ORFs. Anhand der Transkriptions-Aktivität und den identifizierten putativ kodierenden ORFs auf dem Plasmid pKAP298 konnten neue Hinweise auf ein wahrscheinlich auf dem Plasmid lokalisiertes Toxin-Gen gegeben werden. Aus Ähnlichkeiten zu schon bekannten Sequenzen konnte die Hypothese, dass pKAP298 aus einem Bakteriophagen evolvierte, gestützt und erweitert werden
Im deutschen Sprachraum wird in der Literatur und in der Unternehmensrealität bezüglich des Rechnungswesens traditionell zwischen zwei Rechenkreisen unterschieden. Zum einen existiert der externe Rechenkreis mit pagatorischen Größen und zum anderen der interne Rechenkreis, welcher sich primär auf kalkulatorische Wertansätze stützt. Bezüglich der hier vorgestellten Thematik werden unterschiedliche Bezeichnungen in der Literatur verwendet. Dies sind hauptsächlich: Harmonisierung, Konvergenz, Integration und teilweise sogar Konversion. Hier sollen Harmonisierung, Konvergenz und Integration als Prozess verstanden werden, an dessen Ende ein harmonisiertes, konvergiertes oder integriertes Rechnungswesen steht, durch das die traditionelle Zweiteilung vollständig aufgehoben ist. Die Schwierigkeit bei der Abgrenzung dieser Begriffe ist, dass daraus kein direkter Prozessfortschritt abgeleitet werden kann. Deshalb ist es notwendig, einen Grad bezüglich des Forschrittes anzugeben. Hierfür ist zunächst zu klären, ob ein derartiges Einheitsrechnungswesen möglich und sinnvoll ist, um dann für den gewünschten Integrationsgrad die Anpassungsschritte zu konkretisieren. Im Folgenden werden daher zunächst aus betriebswirtschaftlicher Sicht die beiden Rechenkreise und Möglichkeiten und Grenzen ihrer Vereinheitlichung analysiert. In einem Praxisteil werden dann die Konvergenzbemühungen von vier großen deutschen Aktiengesellschaften (Siemens, Bayer, Daimler Chrysler und BMW) vorgestellt.
Es ist nicht das Ziel von Lysios, genau die eine, exakt auf die Unternehmensbedürfnisse zuge-schnittene, "optimale" BSC-Software am Ende des Auswahlprozesses zu präsentieren. Viel-mehr soll mit der Hilfe von Lysios eine Vorauswahl getroffen werden, welche die Suche auf die für die jeweiligen Unternehmen in Frage kommenden Produkte einschränkt und ihnen einen Überblick über deren Funktionalität verschafft. Eine anschließende eingehende Detailanalyse dieser Produkte kann und darf jedoch nicht ausbleiben. Die Vorstrukturierung der Auswahlkriterien, die umfangreiche Erhebung der Daten und deren Integration in ein Scoring-Modell mit Ausschlusskriterien, können dem Entscheider sehr viel Zeit ersparen und helfen ihm, sich auf die wesentlichen Punkte zu konzentrieren. Um die Weiterentwicklung von Lysios auch zukünftig voranzutreiben, erhoffen sich die Autoren eine rege Diskussion mit Softwareherstellern und anderen Fachleuten. So sollten beispielsweise die Bewertungskriterien stetig erweitert und auf ihre Tauglichkeit hin überprüft werden. Sicherlich lassen sich neben den hier aufgezeigten Bewertungskriterien noch weitere heranziehen, die sich als Auswahlkriterium für eine geeignete BSC-Software als zweckmäßig erweisen. Die Software Lysios wird im Zusammenhang mit der Studie "Balanced Scorecard Software-Lösungen" des Business Application Research Center Ende April 2004 veröffentlicht.