Refine
Year of publication
- 2003 (128) (remove)
Document Type
- Doctoral Thesis (50)
- Report (29)
- Preprint (21)
- Periodical Part (13)
- Study Thesis (5)
- Article (2)
- Diploma Thesis (2)
- Habilitation (2)
- Working Paper (2)
- Master's Thesis (1)
Keywords
- META-AKAD (7)
- AG-RESY (6)
- Modellierung (5)
- Java 2 Enterprise Edition (4)
- Lineare Algebra (4)
- Mathematikunterricht (4)
- Wavelet (4)
- linear algebra (4)
- modelling (4)
- praxisorientiert (4)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (39)
- Fraunhofer (ITWM) (18)
- Kaiserslautern - Fachbereich Informatik (16)
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
The focus of this work has been to develop two families of wavelet solvers for the inner displacement boundary-value problem of elastostatics. Our methods are particularly suitable for the deformation analysis corresponding to geoscientifically relevant (regular) boundaries like sphere, ellipsoid or the actual Earth's surface. The first method, a spatial approach to wavelets on a regular (boundary) surface, is established for the classical (inner) displacement problem. Starting from the limit and jump relations of elastostatics we formulate scaling functions and wavelets within the framework of the Cauchy-Navier equation. Based on numerical integration rules a tree algorithm is constructed for fast wavelet computation. This method can be viewed as a first attempt to "short-wavelength modelling", i.e. high resolution of the fine structure of displacement fields. The second technique aims at a suitable wavelet approximation associated to Green's integral representation for the displacement boundary-value problem of elastostatics. The starting points are tensor product kernels defined on Cauchy-Navier vector fields. We come to scaling functions and a spectral approach to wavelets for the boundary-value problems of elastostatics associated to spherical boundaries. Again a tree algorithm which uses a numerical integration rule on bandlimited functions is established to reduce the computational effort. For numerical realization for both methods, multiscale deformation analysis is investigated for the geoscientifically relevant case of a spherical boundary using test examples. Finally, the applicability of our wavelet concepts is shown by considering the deformation analysis of a particular region of the Earth, viz. Nevada, using surface displacements provided by satellite observations. This represents the first step towards practical applications.
This paper deals with the handling of deformable linear objects (DLOs), such as hoses, wires, or leaf springs. It investigates usable features for the vision-based detection of a changing contact situation between a DLO and a rigid polyhedral obstacle and a classification of such contact state transitions. The result is a complete classification of contact state transitions and of the most significant features for each class. This knowledge enables reliable detection of changes in the DLO contact situation, facilitating implementation of sensor-based manipulation skills for all possible contact changes.
Es wurden Untersuchungen zur Expression und Wechsel von Serotypproteinen bei Paramecium primaurelia, Stamm 156 durchgeführt. Zum Nachweis der unterschiedlichen Serotypexpressionen wurden Immunofluoreszenzfärbungen und eine spezifische RT-PCR etabliert. Mit dieser Methode wurde der Ablauf eines temperaturinduzierten Serotypwechsels dokumentiert. Es wurde der Einfluss weiterer Umweltparameter auf die Ausprägung des Serotyps untersucht. Freilandexperimente sollten die Ausprägung der Serotypen unter multifaktorieller Reizeinwirkung zeigen. Zusätzlich konnte die Koexpression von zwei Serotypproteinen auf einer Zelle nachgewiesen werden.
Continuous fibre reinforced thermoplastics are a high competitive material class for
diversified applications because of their inherent properties like light-weight construction
potential, integral design, corrosion resistance and high energy absorption level.
Using these materials, one approach towards a large volume scaled part production
rate is covered by an automated process line, consisting of a pressing process for
semi-finised sheet material production, a thermoforming step and some additional
joining technologies. To allow short cycle times in the thermoforming step, the utilised
semi-finished sheet materials, which are often referred to as “organic sheets”, have
to be fully impregnated and consolidated.
Nowadays even this combination of outstanding physical and chemical material
properties combined with the economic processing technology are no guarantee for
the break-through of continuous fibre reinforced thermoplastics, mainly because of
the high material costs for the semi-finished sheet materials. These costs can be attributed
to a non adapted material selection or choice of process parameters, as well
as by unfavourable pressing process type itself.
Therefore the aim of the present investigations was to generate some alternatives
regarding the choice of raw materials, the set-up or the selection of the pressing
process line and to provide some theoretical tools for the determination of process
parameters and dimensions.
Concerning raw material aspects, the use of the blending technology is one promising
approach towards cost reduction for the matrix component. Novel characteristics
related to the fibre structure are CF-yarns with high filament numbers (e.g. 6K or 12K instead of 3K) or multiaxial fibre orientations. These two approaches were both conducted
for sheet materials with carbon fibre reinforcement and high temperature
thermoplastics.
Two new developed ternary blend matrices consisting of PEEK and PEI as the main
ingredients were tested in comparison with neat PEEK. PES and PSU were used as
the third blend component, which provides a cost reduction potential of approximately
30 % compared to the basis PEEK polymer. The results of the static pressing experiments
pointed out that the processing behaviour of the new blends is similar to
the neat PEEK matrix. A maximum process temperature of 410 °C should not be surpassed, otherwise thermal degradation will occur and will have a negative influence
on mechanical laminat properties. To accelerate the impregnation progress a
process pressure of 25 bar in combination with a sidewise opened tooling concept is
helpful. No differences were identified if film-stacking technique was substituted by
powder-prepreg-technology or vice versa. By increasing the yarn filament number
from 3K over 6K to 12K, which is equal to an increase in bundle diameter and therefore
transverse flow distance, the impregnation time has to be extended. If unspread
yarns are used, the risk of void entrapment rises tremendously, especially with 12K
and UD-structures. To reach full impregnation with a woven 6K-fabric, an increase of
process time of 20 to 30 % compared to a 3K textile structure is required. Furthermore,
it was shown that if only transverse flow is used for the impregnation of a UDstructure,
a maximum area weight of 300-400 g/m² should not be exceeded. Additionally,
the transport of air is strictly affected by the fibre orientation, because the
main amount of displaced air runs in longitudinal fibre direction. These facts play an
important role in the design of a multaxial laminat or an impregnation process for
such a structure and have to be taken into account.
Apart from these static pressing experiments the semi-continuous (stepwise compression
moulding) and continuous (double belt press processing) processing technology
were investigated and compared to each other. The first basic processing
trails on the stepwise compression moulding equipment were carried out with the material
system GF/PA66. Whereas the processing behaviour of this material combination
in a double belt press is known quite well, there is only little information about
semi-continuous processing. The performed trials pointed out that the resulting laminate
quality for both technologies only differs in the achievable local surface quality.
Mechanical laminate properties like three point bending stiffness and strength are
directly comparable. Due to the fact that there is only small experience with the stepwise
compression moulding process, potential improvements regarding surface Quality are feasible by adapting the step procedure and the temperature distribution within
the tooling concept. If laminates, produced by semi-continuous processing, are deployed
in a thermoforming process or in a non visible structural application, the surface
appearance only plays an inferior role.
The present results with high temperature thermoplastic matrices and CF do confirm
the positive assessment for the stepwise compression moulding technology, even though the mechanical laminate values have only reached 90 % of the data received
by static press processing. In comparison to the data from literature, 90 % is already
a high mechanical performance level. The results are quite promising for the use of
the semi-continuous technology, despite the process set-up and processing parameters
not being optimised. Furthermore there are tremendous advantages in processing
equipment costs.
Finally a process model was developed based on the experimental data pool. This
model can be characterised as a tool, which provides useful boundary conditions and
dimension values for the selection of a certain pressing process depending on the
desired material combination, laminate thickness and production output. The applicability
and accuracy of the model was proofed by a direct comparison between experimental
and calculated data.
First of all the temperature profile of the pressing process was generalised by a very
common structure. This profile reflects the main characteristics for the processing of
a thermoplastic composite material. Depending on the material combination, the
laminate thickness and the occurring heat transfers, several process- and processing-
portfolios were calculated. For a defined combination of the aforementioned parameters,
these portfolios directly provide the periods of time for heating and cooling
of the laminate structure. The last step is to convert these information into an equipment
dimension and to decide which machinery configuration fulfils these requirements.
The Earth's surface is an almost perfect sphere. Deviations from its spherical shape are less than 0,4% of its radius and essentially arise from its rotation. All equipotential surfaces are nearly spherical, too. In consequence, multiscale modelling of geoscientifically relevant data on the sphere involving rotational symmetry of the trial functions used for the approximation plays an important role. In this paper we deal with isotropic kernel functions showing local support and (one-dimensional) polynomial structure (briefly called isotropic finite elements) for reconstructing square--integrable functions on the sphere. Essential tool is the concept of multiresolution analysis by virtue of the spherical up function. The main result is a tree algorithm in terms of (low--order) isotropic finite elements.
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
Apoptose in Rattenhepatozyten in Primärkultur- Einfluss von TCDD und polychlorierten Biphenylen
(2003)
Zur Untersuchung der Beeinflussung des apoptotischen Zelltodes durch nicht-dioxinartige polychlorierte Biphenyle in primären Rattenhepatozyten wurden Experimente in Kollagengel- Sandwich-Kultur durchgeführt. Die Auslösung von Apoptose erfolgte mittels Behandlung der Zellen mit UV-Licht. Hierzu wurden die PCB-Kongenere 28, 138 und 183 ausgewählt, als Referenzsubstanz diente Phenobarbital. Es konnte festgestellt werden, dass alle verwendeten PCBs sowie Phenobarbital die UV-induzierte Apoptose konzentrationsabhängig signifikant hemmen. Im Rahmen dieser Studie zeigte sich für die maximalen Hemmeffekte gegenüber der bestrahlten Kontrolle die Reihenfolge PCB 138 (38,7%) > Phenobarbital (30,7%) > PCBs 28, 183 (jeweils 29,1%). Die basale (spontane) Apoptose wurde insgesamt weitaus schwächer beeinflusst. Zur eingehenderen Wirkungscharakterisierung dieser PCBs wäre eine Verifikation der gefundenen Ergebnisse anhand eines Tierexperimentes mit Hinblick auf mögliche tumorpromovierende Effekte dieser Substanzen in der Rattenleber von Interesse. Im weiteren Verlauf der Arbeit wurde versucht, einen Assay zu etablieren, der als biochemischer Marker für Apoptose in primären Rattenhepatozyten eingesetzt werden sollte. In Studien zur DNA-Fragmentierung (DNA-ladder) konnte keine Abhängigkeit der DNAFragmentierung von der eingesetzten UV-Dosis detektiert werden. Somit konnte diese Methode nicht zur Charakterisierung einer Beeinflussung der Apoptose eingesetzt werden. Untersuchungen zur Beeinflussung der Gallensäure-induzierten Caspase-3-Aktivität durch Phenobarbital zeigten keine signifikanten Effekte auf die Caspase-3-Aktivität. Zudem zeichneten sich die Versuche durch eine hohe Schwankungsbreite sowie eine geringe Reproduzierbarkeit aus, so dass keine klare Aussage getroffen werden konnte. Eine biochemische Nachweismethode der Apoptose und deren Beeinflussung durch Xenobiotika konnte somit im zeitlichen Rahmen dieser Arbeit nicht etabliert werden. Abschließend wurde in vorliegender Arbeit der Einfluss von TCDD auf die Apoptose sowie auf die Induktion der 7-Ethoxyresorufin-O-deethylase (EROD)-Aktivität als funktionellem Parameter für die CYP1A-Isoenzym-Induktion in primären Rattenhepatozyten der Stämme Han/Wistar und Long-Evans studiert. In Untersuchungen zum Einfluss von TCDD auf die durch UV-Strahlung ausgelöste Apoptose in Han/Wistar-Hepatozyten konnten keine signifikanten Effekte beobachtet werden. Die maximale Induzierbarkeit der Apoptose lag mit ca. 2,6% deutlich unterhalb der für Hepatozyten des Wistar-Stammes gefundenen Werte. Bei analogen Experimenten mit Long-Evans- Hepatzoyten zeigte sich, dass die Apoptose in diesem Zelltyp nicht induzierbar war. Die Ergebnisse zeigen ferner, dass in beiden Zelltypen eine konzentrationsabhängige Steigerung der EROD-Aktivität festgestellt werden konnte. Die hierbei ermittelten EC50-Werte betrugen für beide Zelltypen ca. 5 x 10-12 M und entsprechen somit annähernd den bereits von Schmitz et al. (1995) publizierten Daten (2 x 10-11 M) für primäre Wistar-Rattenhepatozyten. Die maximale Induktionshöhe lag jedoch in Long-Evans-Hepatozyten deutlich niedriger als in Zellen des Han/Wistar-Stammes.
The Discrete Ordered Median Problem (DOMP) generalizes classical discrete location problems, such as the N-median, N-center and Uncapacitated Facility Location problems. It was introduced by Nickel [16], who formulated it as both a nonlinear and a linear integer program. We propose an alternative integer linear programming formulation for the DOMP, discuss relationships between both integer linear programming formulations, and show how properties of optimal solutions can be used to strengthen these formulations. Moreover, we present a specific branch and bound procedure to solve the DOMP more efficiently. We test the integer linear programming formulations and this branch and bound method computationally on randomly generated test problems.
Radiation therapy planning is always a tight rope walk between dangerous insufficient dose in the target volume and life threatening overdosing of organs at risk. Finding ideal balances between these inherently contradictory goals challenges dosimetrists and physicians in their daily practice. Today’s planning systems are typically based on a single evaluation function that measures the quality of a radiation treatment plan. Unfortunately, such a one dimensional approach cannot satisfactorily map the different backgrounds of physicians and the patient dependent necessities. So, too often a time consuming iteration process between evaluation of dose distribution and redefinition of the evaluation function is needed. In this paper we propose a generic multi-criteria approach based on Pareto’s solution concept. For each entity of interest - target volume or organ at risk a structure dependent evaluation function is defined measuring deviations from ideal doses that are calculated from statistical functions. A reasonable bunch of clinically meaningful Pareto optimal solutions are stored in a data base, which can be interactively searched by physicians. The system guarantees dynamical planning as well as the discussion of tradeoffs between different entities. Mathematically, we model the upcoming inverse problem as a multi-criteria linear programming problem. Because of the large scale nature of the problem it is not possible to solve the problem in a 3D-setting without adaptive reduction by appropriate approximation schemes. Our approach is twofold: First, the discretization of the continuous problem is based on an adaptive hierarchical clustering process which is used for a local refinement of constraints during the optimization procedure. Second, the set of Pareto optimal solutions is approximated by an adaptive grid of representatives that are found by a hybrid process of calculating extreme compromises and interpolation methods.
As the sustained trend towards integrating more and more functionality into systems on a chip can be observed in all fields, their economic realization is a challenge for the chip making industry. This is, however, barely possible today, as the ability to design and verify such complex systems could not keep up with the rapid technological development. Owing to this productivity gap, a design methodology, mainly using pre designed and pre verifying blocks, is mandatory. The availability of such blocks, meeting the highest possible quality standards, is decisive for its success. Cost-effective, this can only be achieved by formal verification on the block-level, namely by checking properties, ranging over finite intervals of time. As this verification approach is based on constructing and solving Boolean equivalence problems, it allows for using backtrack search procedures, such as SAT. Recent improvements of the latter are responsible for its high capacity. Still, the verification of some classes of hardware designs, enjoying regular substructures or complex arithmetic data paths, is difficult and often intractable. For regular designs, this is mainly due to individual treatment of symmetrical parts of the search space by backtrack search procedures used. One approach to tackle these deficiencies, is to exploit the regular structure for problem reduction on the register transfer level (RTL). This work describes a new approach for property checking on the RTL, preserving the problem inherent structure for subsequent reduction. The reduction is based on eliminating symmetrical parts from bitvector functions, and hence, from the search space. Several approaches for symmetry reduction in search problems, based on invariance of a function under permutation of variables, have been previously proposed. Unfortunately, our investigations did not reveal this kind of symmetry in relevant cases. Instead, we propose a reduction based on symmetrical values, as we encounter them much more frequently in our industrial examples. Let \(f\) be a Boolean function. The values \(0\) and \(1\) are symmetrical values for a variable \(x\) in \(f\) iff there is a variable permutation \(\pi\) of the variables of \(f\), fixing \(x\), such that \(f|_{x=0} = \pi(f|_{x=1})\). Then the question whether \(f=1\) holds is independent from this variable, and it can be removed. By iterative application of this approach to all variables of \(f\), they are either all removed, leaving \(f=1\) or \(f=0\) trivially, or there is a variable \(x'\) with no such \(\pi\). The latter leads to the conclusion that \(f=1\) does not hold, as we found a counter-example either with \(x'=0\), or \(x'=1\). Extending this basic idea to vectors of variables, allows to elevate it to the RTL. There, self similarities in the function representation, resulting from the regular structure preserved, can be exploited, and as a consequence, symmetrical bitvector values can be found syntactically. In particular, bitvector term-rewriting techniques, isomorphism procedures for specially manipulated term graphs, and combinations thereof, are proposed. This approach dramatically reduces the computational effort needed for functional verification on the block-level and, in particular, for the important problem class of regular designs. It allows the verification of industrial designs previously intractable. The main contributions of this work are in providing a framework for dealing with bitvector functions algebraically, a concise description of bounded model checking on the register transfer level, as well as new reduction techniques and new approaches for finding and exploiting symmetrical values in bitvector functions.
Die cytogenetische Manifestation von Genamplifikation in humanen Zellen wurde in einem Fall von akuter myeloischer Leukämie (AML) sowie an der humanen Cervixcarcinomzelllinie HeLa S3 untersucht. In dem AML-Fall ergab die Karyotypisierung der Leukämiezellen neben dem Verlust eines X-Chromosoms das Vorliegen einer extrachromosomalen Genamplifikation in Form von Double Minutes. Mit Hilfe der Comparativen Genomischen Hybridisierung (CGH) und der Fluoreszenz-in situ-Hybridisierung (FISH) wurde die Herkunft der amplifizierten Sequenz aus der chromosomalen Region 8q24 ermittelt und eine Amplifikation des Protoonkogens MYC in den Double Minutes nachgewiesen. Die FISH-Analyse zeigte zudem den Verlust von einem der beiden chromosomalen MYC-Loci an, der auf einen Deletionsmechanismus der Genamplifikationsentwicklung schliessen ließ. Die Induktion der Amplifikation des Dihydrofolat-Reduktase-Gens (DHFR) durch Selektion mit Methotrexat (MTX) diente als Modellsystem zur Analyse der frühen Stadien der Genamplifikationsentwicklung. Durch mehrmonatige Mehrschrittselektionen von zwei HeLa-Zellpopulationen wurden unabhängig voneinander zwei HeLa-Sublinien mit jeweils extrachromosomaler DHFR-Amplifikation in Form von Double Minutes erzeugt. Die Veränderungen der 5q-Trägerchromosomen und der intrachromosomalen DHFR-Kopienanzahl, die im Verlauf der MTX-Selektionen in den HeLa-Zellen auftraten, wiesen auf das Zusammenwirken unterschiedlicher Mechanismen zur DHFR-Amplifikation hin. Niedrige MTX-Konzentrationen wirkten in Richtung einer Anreicherung von intrachromosomalen DHFR-Kopien, die hauptsächlich auf den Zugewinn eines Chromosoms 5 zurückzuführen waren. Daneben wies das Auftreten von neuen derivativen DHFR-haltigen Chromosomen auf Bruchereignisse in Chromosom 5 hin. Das Erscheinen eines derivativen Chromosoms mit zwei invertiert angeordneten 5q und drei DHFR-Kopien ließ auf das Ablaufen von Breakage-Fusion-Bridge (BFB)-Zyklen schliessen. Bei höheren MTX-Konzentrationen (ab 0.25 µM) trat dagegen eine Anreicherung von extrachromosomalen DHFR-Kopien in Double Minutes bei gleichzeitigem Rückgang der derivativen DHFR-haltigen Chromosomen in den Vordergrund. Die Sublinien aus Selektion 1 waren in diesem Stadium durch den Verlust eines Chromosoms 5 gekennzeichnet, der auf eine Generierung von extrachromosomalen DHFR-Kopien aus 5q-Bruchstücken hinwies. Im Gegensatz dazu trat bei den Sublinien von Selektion 2 in diesem Stadium zunächst noch eine Zunahme von intrachromosomalen DHFR-Kopien auf, die nachfolgend durch eine sprunghafte Erhöhung von extrachromosomalen DHFR-Kopien in Double Minutes in der Zellpopulation abgelöst wurde. In den Sublinien von Selektion 2 kann daher eine Generierung von extrachromosomalen DHFR-Kopien durch Bruchereignisse an einem zuvor hinzugewonnenen Chromosom 5 angenommen werden. Die letzten Sublinien aus beiden Selektionen wiesen wieder den 5q-Trägerchromosomen- und intrachromosomalen DHFR-Status der Parentallinie auf, der offenbar in den HeLa-Zellen eine besondere Stabilität besitzt. Die unterschiedlichen Veränderungen im 5q- und DHFR-Status in den untersuchten HeLa-Sublinien zeigen, dass eine DHFR-Amplifikation in HeLa-Zellen unter MTX-Selektionsdruck auf verschiedenen Wegen erfolgen kann. In mehrmonatiger Kultivierung ohne Selektionsdruck entwickelte die verwendete HeLa-Zelllinie unter den vorliegenden Kultivierungsbedingungen keine der in den MTX-selektionierten Sublinien beobachteten Veränderungen, so dass diese als selektionsspezifische Prozesse angesehen werden können.
This publication tries to develop mathematical subjects for school from realistic problems. The center of this report are business planning and decision problems which occur in almost all companies. The main topics are: Calculation of raw material demand for given orders, consumption of existing stock and the lot sizing.
A mediados del año 1997 la publicación de los denominados TIMMS-Estudios (Third International Mathematics and Science Study) causó un importante impacto en el público alemán. El motivo de esto fue el rendimiento escolar conseguido en la rama de matemáticas y ciencias naturales del octavo curso, el cual estaba situado en un campo internacional, donde particularmente en el ámbito matemático el conjunto de los estados del norte-, oeste-, y del este de Europa que forman parte del TIMSS - sin mencionar a la mayoría de los paises asiáticos - habían conseguido claramente mejores rendimiento. En definitiva mostraban un peor rendimiento los escolares alemanes con respecto a los paises vecinos y con los ....
Diese Arbeit gehört in die algebraische Geometrie und die Darstellungstheorie und stellt eine Beziehung zwischen beiden Gebieten dar. Man beschäftigt sich mit den abgeleiteten Kategorien auf flachen Entartungen projektiver Geraden und elliptischer Kurven. Als Mittel benutzt man die Technik der Matrixprobleme. Das Hauptergebnis dieser Dissertation ist der folgende Satz: SATZ. Sei X ein Zykel projektiver Geraden. Dann gibt es drei Typen unzerlegbarer Objekte in D^-(Coh_X): - Shifts von Wolkenkratzergarben in einem regulären Punkt; - Bänder B(w,m,lambda), - Saiten S(w). Ganz analog beweist man die Zahmheit der abgeleiteten Kategorien vieler assoziativer Algebren.
In this paper, the reflection and refraction of a plane wave at an interface between .two half-spaces composed of triclinic crystalline material is considered. It is shown that due to incidence of a plane wave three types of waves namely quasi-P (qP), quasi-SV (qSV) and quasi-SH (qSH) will be generated governed by the propagation condition involving the acoustic tensor. A simple procedure has been presented for the calculation of all the three phase velocities of the quasi waves. It has been considered that the direction of particle motion is neither parallel nor perpendicular to the direction of propagation. Relations are established between directions of motion and propagation, respectively. The expressions for reflection and refraction coefficients of qP, qSV and qSH waves are obtained. Numerical results of reflection and refraction coefficients are presented for different types of anisotropic media and for different types of incident waves. Graphical representation have been made for incident qP waves and for incident qSV and qSH waves numerical data are presented in two tables.
The original publication is available at www.springerlink.com. This original publication also contains further results. We study a spherical wave propagating in radius- and latitude-direction and oscillating in latitude-direction in case of fibre-reinforced linearly elastic material. A function system solving Euler's equation of motion in this case and depending on certain Bessel and associated Legendre functions is derived.
Chemische und sensorische Auswirkungen physikalischer Konzentrierungsverfahren auf Most und Wein
(2003)
In dieser Arbeit wurden die Auswirkungen weinbaulicher und kellerwirtschaftlicher Anreicherungsverfahren mit der traditionellen Anreicherung durch Saccharose und der unbehandelten Variante verglichen. Die Auswirkungen wurden analytisch und sensorisch erfasst. Die physikalischen Mostkonzentrierungsverfahren zeichnen sich dadurch aus, dass nicht flüchtige Mostinhaltsstoffe mit einem Molekulargewicht größer als 80g/Mol in erwartetem Maße angereichert werden. Diese Anreicherung ist auch im Wein sowohl analytisch als auch sensorisch feststellbar. Ausnahmen von diesem Anreicherungsverhalten bilden Kalium und Weinsäure, die während des Konzentrierungsvorganges als Weinstein ausfallen. Somit steigt auch die titrierbare Säure nicht in theoretisch erwartbarem Maße und der pH-Wert bleibt nahezu gleich wie beim unbehandelten Most bzw. Wein. Die üblicherweise angewendeten, weil kostengünstigeren und auch für Qualitätswein b.A. zugelassenen physikalischen Konzentrierungsverfahren sind Umkehrosmose (UO) und Vakuumverdampfung (VD). Beide Verfahren eignen sich gleichermaßen zur Anwendung an geklärten Weiß- und Rotmosten. Das Wasser (Permeat bzw. Destillat) wird schonend dem Most entzogen. Dabei treten Verluste von maximal 2% der nicht flüchtigen Inhaltsstoffe auf. Bei den Rotweinen zeigen beide Verfahren die gleichen Effekte. Nach Maischeerwärmung werden die Moste durch die physikalische Konzentrierung in ihrem Phenolgehalt sofort angereichert. Auch bei der Maischegärung werden die Phenolgehalte gegenüber der Saccharoseanreicherung angehoben, aber indirekt über ein reduziertes Saft/Maische-Verhältnis. Mit einem Saftentzug von der Maische können vergleichbare Effekte erzielt werden. Dies führt im Vergleich zur Saccharoseanreicherung zu analytisch reicheren und sensorisch signifikant besser bewerteten Rotweinen. Bei den Weißweinen nach UO- bzw. VD-Mostkonzentrierung im Vergleich zur Saccharosekontrolle besticht vor allem die Aromaintensität dadurch, dass glycosidisch gebundene Vorläufersubstanzen aufkonzentriert und die Aglyca verstärkt freigesetzt werden. Die Weine werden fruchtiger und vollmundiger. In der sensorischen Gesamtbeurteilung der konzentrierten Weißweine im Vergleich zur traditionellen Saccharoseanreicherung werden die genannten positiven Effekte durch die meist zu spitze Säure und einem als unharmonisch, eindimensional und zu breit empfundenen Geschmack überlagert. Deswegen werden nur selten signifikante Verbesserungen erreicht. Von UO werden auch im Most frei vorliegende Aromastoffe mit einem Molekulargewicht größer 80g/Mol angereichert, während bei der VD flüchtige Inhaltsstoffe bereits zu Beginn des Konzentrierungsvorganges zum Großteil ins Destillat übergehen. Bei VD werden deutliche Verluste der freien Terpene, C6-Alkohole und 2-Phenylethanol festgestellt. Das führt bei den Estern, die diese Verbindungen als Alkoholkomponente enthalten zu einer stark eingeschränkten Bildung während der Gärung. Daher ist die Konzentrierung von aromaintensiven Mosten mittels VD nicht ratsam. Die Anwendung der Gefrierkonzentrierung (Kryoextraktion) zeigt die höchste Verlustrate an Mostinhaltsstoffen in das abgetrennte Eiswasser (3% Zucker und 9-11% organische Säuren). Bei den Weißweinen erbringt die Gefrierkonzentrierung sowohl im Aromabereich (Terpenanreicherung) als auch bei der Sensorik der jungen Weine deutliche Vorteile gegenüber der traditionellen Saccharoseanreicherung. Im Rotweinbereich haben sich die Verfahren nicht bewährt. Die Mostkonzentrierung von unreifem oder nicht gesundem Material ist nicht ratsam. Zum einen ist die Mostkonzentrierung beschränkt auf eine Anhebung im Gesamtalkoholgehalt von 2%vol. Dies führt bei Mostgewichten zwischen 50°Oe und 70°Oe nicht zu selbstständigen Weinen. Zum anderen werden Unreifefaktoren und Fäulnisparameter zumindest mit dem UO-Verfahren (hier am Beispiel von C6-Alkohlen und 1-Octen-3-ol nachgewiesen) analytisch angereichert, was in Grenzfällen zu einer Intensivierung dieser unerwünschten Eigenschaften führen kann. Durchschnittlich ist mit Mehrkosten von 50 Cent pro Liter mostkonzentriertem Wein gegenüber herkömmlicher Saccharoseanreicherung zu rechnen. Die bislang noch nicht erlaubte Weinkonzentrierung mittels UO bringt gute Ergebnisse bei der Verdichtung von qualitativ hochwertigen Weinen. Dieses Verfahren kann aber nicht als nachträgliches Alkoholanreicherungsverfahren dienen, da der Alkohol zu einem Großteil permeirt und die Anreicherung im Wein nur etwa halb so stark ist wie die der übrigen Inhaltsstoffe.
We present two heuristic methods for solving the Discrete Ordered Median Problem (DOMP), for which no such approaches have been developed so far. The DOMP generalizes classical discrete facility location problems, such as the p-median, p-center and Uncapacitated Facility Location problems. The first procedure proposed in this paper is based on a genetic algorithm developed by Moreno Vega [MV96] for p-median and p-center problems. Additionally, a second heuristic approach based on the Variable Neighborhood Search metaheuristic (VNS) proposed by Hansen & Mladenovic [HM97] for the p-median problem is described. An extensive numerical study is presented to show the efficiency of both heuristics and compare them.
On a Multigrid Adaptive Refinement Solver for Saturated Non-Newtonian Flow in Porous Media A multigrid adaptive refinement algorithm for non-Newtonian flow in porous media is presented. The saturated flow of a non-Newtonian fluid is described by the continuity equation and the generalized Darcy law. The resulting second order nonlinear elliptic equation is discretized by a finite volume method on a cell-centered grid. A nonlinear full-multigrid, full-approximation-storage algorithm is implemented. As a smoother, a single grid solver based on Picard linearization and Gauss-Seidel relaxation is used. Further, a local refinement multigrid algorithm on a composite grid is developed. A residual based error indicator is used in the adaptive refinement criterion. A special implementation approach is used, which allows us to perform unstructured local refinement in conjunction with the finite volume discretization. Several results from numerical experiments are presented in order to examine the performance of the solver.
Zur Zeit haben Industrieroboter nur eine sehr begrenzte Wahrnehmung ihrer Umwelt. Wenn sich Menschen im Arbeitsraum des Roboters aufhalten sind sie daher gefährdet. Durch eine Einteilung der möglichen Roboterbewegung in verschiedene Klassen kann gezeigt werden, dass die für einen Menschen im Arbeitsraum gefährlichste Bewegung die freie Transferbewegung ist. Daher besteht die betrachtete Aufgabe darin, diese Transferbewegung eines Manipulators durchzuführen, ohne mit dynamischen Hindernissen, wie zum Beispiel Menschen, zu kollidieren. Das vorgestellte SIMERO-System realisiert eine globale Ganzarmkollisionsvermeidung auf der Basis von Bildern stationärer Kameras. Das System gliedert sich in die vier Hauptkomponenten Bildverarbeitung, Robotermodellierung, Kollisionserkennung und Bahnplanung. Diese Komponenten werden im einzelnen vorgestellt.
Den in der industriellen Produktion eingesetzten Manipulatoren fehlt in der Regel die Möglichkeit, ihre Umwelt wahrzunehmen. Damit Mensch und Roboter in einem gemeinsamen Arbeitsraum arbeiten können, wird im SIMERO-System die Transferbewegung des Roboters durch Kameras abgesichert. Dieses Kamerasystem wird auf Ausfall überprüft. Dabei werden Fehler in der Bildübertragung und Positionierungsfehler der Kameras betrachtet.
Mit dem sterisch anspruchsvollen Di-tert-butyl-Indenylliganden kann alternativ zu den bisher verwendeten alkyl-und silylsubstituierten Cyclopentadienylen der komplette Syntheseweg für die P4-Butterflykomplexe vom Typ [{CpR(OC)2Fe}2(µ-eta1:1-P4)] (2) durchgeführt werden. Die Langzeitthermolyse von [{In''(OC)2Fe}2(µ-eta1:1-P4)] (2b) liefert neben den seit langem bekannten Decarbonylierungsprodukten [{In''Fe}2(µ-eta4:4-P4)] (10b) und [In''Fe(eta5-P5)] (1b) auch den erst seit kurzem bekannten tetrahedranähnlichen Komplex 9b als äußerst instabile Verbindung. Die photolytisch induzierte Decarbonylierung von 9a führt zu einer strukturell außergewöhnlichen Verbindung mit zwei gewinkelten µ-P-Liganden im nahezu planaren Fe2P2-Vierring und einem Signal für beide Phosphoratome im extremen Tieffeld bei delta = 1406.9 ppm. Thermische Umsetzungen des Tetraphosphabicyclobutan-Komplexes 2b mit einem vierfachen Überschuß an Alkin oder Phosphaalkin liefern in Abhängigkeit vom Substituentenmuster interessante Polyphospholyl-Verbindungen. Symmetrisch substituierte Alkine führen nahezu ausschließlich zur Bildung der Sandwichkomplexe [In''Fe(eta5-{P3(CR)2})] (14b,15b) mit einem eta5-koordinierten 1,2,3-Triphospholylliganden in sehr guten Ausbeuten. Bei unsymmetrisch substituierten Alkinen tritt im Fall von elektronenziehenden Substituenten am Kohlenstoff-Atom die Synthese von Sandwichkomplexen mit einem Monophospholylliganden 17 dazu in Konkurrenz. Desweiteren entsteht das phosphorfreie, verzerrte Tetrahedran [{In''Fe}2(µ-CO)(µ-C2PhH)] (19). Donor-Substituenten am Kohlenstoff-Atom wie tert-Butyl- oder Trimethylsilylgruppen dagegen verhindern die Bildung der Monophosphaferrocene 17 vollständig. Die Reaktion von 2b mit einem Phosphaalkin beruht auf dem gleichen Prinzip und führt ebenfalls zu Sandwichkomplexen mit einem Polyphospholylliganden. Neben dem 1,2,4-Triphospha- 28 und dem 1,2,3,4-Tetraphosphaferrocen 29 wird die Bildung des Komplexes 27 mit einem 1,3-Diphosphet als eta^4-koordiniertem Ligand beobachtet. Dieser ist auf die Cycloaddition zweier Phosphaalkin-Einheiten zurückzuführen, während [In''Fe(eta5-{P3(C2{(C6H10)CH3}2)})] (28) und [In''Fe(eta5-{P4(C{C6H10}CH3)})] (29) durch den Einbau von P=C-R in das Tetraphosphabicyclobutan-Gerüst entstehen. Die Komplexierung eines oder mehrerer Phosphoratome im Mono- oder 1,2,3-Triphosphaferrocen mit ÜM-Fragmenten vom Typ {M(CO)5} (M = W, Cr) gelingt problemlos bei Raumtemperatur. Versuche zur Oxidation von 14b oder 17b mit Schwefel und Reduktion mit Kalium führten ausnahmslos zur unspezifischen Zersetzung des Eduktes. Das Aufstockungsverfahren nach Rybinskaya zur Bildung von 30 VE-Tripeldeckerkomplexen hat Hilt schon 1999 am 1,2,3-Triphosphaferrocen erfolgreich durchgeführt. Diese Reaktion konnte ebenso auf den Monophospholyl-Eisen(II)-Komplex 17b übertragen werden.
In der vorliegenden Arbeit wurde zunächst der potentielle Einfluss makroskopischer Oberflächentopographieunterschiede auf die Langzeitbeständigkeit geklebter Aluminiumverbunde untersucht. Fokussiert wurde hierbei auf die durch Vorbehandlungsverfahren induzierte Veränderung technischer Rauhigkeitsgrade sowie die damit einhergehende Vergrößerung der adhäsiv wirksamen Oberfläche. Die Trennung der sich infolge der eingesetzten Vorbehandlungsverfahren überlagernden Einflussfaktoren Oberflächentopographie und Oberflächenchemie konnte durch die Generierung unterschiedlicher Rauheitsgrade bei gleichzeitiger Nivellierung der chemischen Oberflächenzustände sichergestellt werden. Erreicht wurde dies durch einen chemisch einheitlichen, die Haftgrundvorbereitung abschließenden Nachbehandlungsprozess. Ein signifikanter Einfluss der im µm-Bereich detektierten, makroskopischen Topographieunterschiede auf die technischen Eigenschaften adhäsiv gefügter Aluminium-Epoxidharzverbunde kann ausgeschlossen werden. Die Resultate der Untersuchungen zur Wirkungsweise der durch Alterungssimulationen induzierten Schädigungsmechanismen zeigten, dass für eine sinnvolle Beurteilung der Langzeitbeständigkeit unterschiedlich vorbehandelter Aluminium-Epoxidharz-Klebungen die Anwendung einzelner, standardisierter Alterungstests oftmals nicht ausreicht. Die Auswirkungen der simulierten Alterungsprozesse auf die technischen Eigenschaften der geklebten Aluminiumverbunde sind sowohl abhängig von der Art, Dauer und Intensität der dominierenden Schädigungsmechanismen, als auch von den durch die jeweilige Vorbehandlung generierten Zuständen der Substratoberflächen. Die jeweilige Haftgrundvorbereitung hat somit einen erheblichen Einfluss auf die Sensitivität der Klebung gegenüber unterschiedlichen Alterungsprozessen. Die phänomenologischen Betrachtungen in Form der durchgeführten Festigkeitsuntersuchungen deuten an, dass die Kinetik der korrosiven Klebschichtunterwanderung weder von der Art des Epoxidharzsystems, noch von den Spezifikationen der im Rahmen dieser Untersuchungen verwendeten Aluminiumlegierungen maßgeblich abhängt. Die Sensitivität dieser Klebungen, insbesondere gegenüber korrosiven Schädigungsmechanismen, wird von den durch die Haftgrundvorbereitung generierten Oberflächenzuständen dominiert. Die Ergebnisse der parallel durchgeführten oberflächenanalytischen Untersuchungen lieferten zur Erklärung der phänomenologischen Resultate ein weitgehend uneinheitliches Bild. Lediglich anhand der Analysen zur submikroskopischen Morphologie unterschiedlich vorbehandelter Fügeteiloberflächen konnte eine Korrelation mit den phänomenologischen Untersuchungen zur Langzeitbeständigkeit geklebter Aluminium-Epoxidharz-Verbunde in korrosiven Medien hergestellt werden. Die daraus abgeleitete Hypothese hinsichtlich eines signifikanten Einflusses der "Nanomorphologie" von Fügeteiloberflächen auf die Kinetik der korrosiven Klebschichtunterwanderung wurde durch zusätzliche Untersuchungen überprüft und bekräftigt. Hierbei erwies sich der entwickelte beschleunigte Korrosionstest als durchaus nützlich, da die unterschiedlich vorbehandelten Klebungen im Vergleich zu dem wesentlich zeitintensiveren Salzsprühtest innerhalb relativ kurzer Zeit phänomenologisch vergleichbare Schadensbilder aufweisen. Das aus den vorliegenden Untersuchungen abgeleitete Erkärungsmodell baut auf der Theorie der oberflächengesteuerten, grenzschichtnahen Polymerbeeinflussung auf. Dieses Postulat der sich in Abhängigkeit des chemischen Oberflächenzustandes verändernden Polymerisationsgrade in der Interphase zwischen Festkörperoberfläche und Klebstoff wird erweitert um den Einfluss sogenannter Nanomorphologien, also einer in submikroskopischen Dimensionen vorliegenden Feinstrukturierung der Fügeteiloberfläche. Eine durch Festkörperoberflächen induzierte selektive Adsorption von Klebstoffbestandteilen, die Entstehung schwacher Polymerzonen (weak boundary layers) oder andere potentielle Heterogenitäten innerhalb der Adhäsionszone werden somit in Richtung Substratbulk verschoben. Anstatt einer scharf ausgeprägten Phasengrenze zwischen Polymer und Substratoberfläche entsteht somit eine Grenzzone, die aufgrund ihrer fein verteilten Zusammensetzung aus Oxid und Klebstoff zusätzlich Verbundwerkstoffeigenschaften aufweisen kann. Die Frage nach dem aus ingenieurwissenschaftlicher Sicht höchsten Effizienz von Wirkmechanismen bei der Oberflächenvorbehandlung zur Erzielung langzeitbeständiger Aluminiumklebungen wird hier - im Rahmen der in der vorliegenden Arbeit betrachteten Parameter und unter der Prämisse chemisch reaktiver Festkörperoberflächen - mit der Generierung dünner, nanoskopisch strukturierter Oberflächenmorphologien beantwortet.
We define a class of topological spaces (LCNT-spaces) which come together with a nuclear Frechet algebra. Like the algebra of smooth functions on a manifold, this algebra carries the differential structure of the object. We compute the Hochschild homology of this object and show that it is isomorphic to the space of differential forms. This is a generalization of a result obtained by Alain Connes in the framework of smooth manifolds.
Objective: In some surgical specialties, e.g. orthopedics, robots are already used in the operating room for bony milling work. Oto- and otoneurosurgery may also greatly benefit by robotic enhanced precision. Study Design: Experimental study on robotic milling on oak wood and human temporal bone specimen. Methods: A standard industrial robot with a 6 degrees-of-freedom serial kinematics was used with force feedback to proportionally control the robot speed. Different milling modes and characteristic path parameters were evaluated to generate milling paths based on CAD geometry data of a cochlear implant and an implantable hearing system. Results: The best suited strategy proofed to be the spiral horizontal milling mode with the burr held perpendicularly to the temporal bone surface. In order to avoid high grooves, the distance in between paths should equal half the radius of the cutting burr head. Due to the vibration of the robot’s own motors, a rather high oscillation of the standard deviation of forces was encountered. This oscillation dropped drastically to nearly 0 N, when the burr head reached contact with the dura mater due to its damping characteristics. The cutting burr could be moved a long time on the dura without damaging it, because of its rather blunt head. The robot moved the burr very smoothly according to the encountered resistances. Conclusion: This is the first development of an functioning robotic milling procedure for otoneurosurgery with force-based speed control. It is planned to implement ultrasound-based local navigation and to perform robotic mastoidectomy.
A new stability preserving model reduction algorithm for discrete linear SISO-systems based on their impulse response is proposed. Similar to the Padé approximation, an equation system for the Markov parameters involving the Hankel matrix is considered, that here however is chosen to be of very high dimension. Although this equation system therefore in general cannot be solved exactly, it is proved that the approximate solution, computed via the Moore-Penrose inverse, gives rise to a stability preserving reduction scheme, a property that cannot be guaranteed for the Padé approach. Furthermore, the proposed algorithm is compared to another stability preserving reduction approach, namely the balanced truncation method, showing comparable performance of the reduced systems. The balanced truncation method however starts from a state space description of the systems and in general is expected to be more computational demanding.
We consider the problem of estimating the conditional quantile of a time series at time t given observations of the same and perhaps other time series available at time t-1. We discuss an estimate which we get by inverting a kernel estimate of the conditional distribution function, and prove its asymptotic normality and uniform strong consistency. We illustrate the good performance of the estimate for light and heavy-tailed distributions of the innovations with a small simulation study.
The following three papers present recent developments in multiscale gravitational field modeling by the use of CHAMP or CHAMP-related data. Part A - The Model SWITCH-03: Observed orbit perturbations of the near-Earth orbiting satellite CHAMP are analyzed to recover the long-wavelength features of the Earth's gravitational potential. More precisely, by tracking the low-flying satellite CHAMP by the high-flying satellites of the Global Positioning System (GPS) a kinematic orbit of CHAMP is obtainable from GPS tracking observations, i.e. the ephemeris in cartesian coordinates in an Earth-fixed coordinate frame (WGS84) becomes available. In this study we are concerned with two tasks: First we present new methods for preprocessing, modelling and analyzing the emerging tracking data. Then, in a first step we demonstrate the strength of our approach by applying it to simulated CHAMP orbit data. In a second step we present results obtained by operating on a data set derived from real CHAMP data. The modelling is mainly based on a connection between non-bandlimited spherical splines and least square adjustment techniques to take into account the non-sphericity of the trajectory. Furthermore, harmonic regularization wavelets for solving the underlying Satellite-to-Satellite Tracking (SST) problem are used within the framework of multiscale recovery of the Earth's gravitational potential leading to SWITCH-03 (Spline and Wavelet Inverse Tikhonov regularized CHamp data). Further it is shown how regularization parameters can be adapted adequately to a specific region improving a globally resolved model. Finally we give a comparison of the developed model to the EGM96 model, the model UCPH2002_02_0.5 from the University of Copenhagen and the GFZ models EIGEN-1s and EIGEN-2. Part B - Multiscale Solutions from CHAMP: CHAMP orbits and accelerometer data are used to recover the long- to medium- wavelength features of the Earth's gravitational potential. In this study we are concerned with analyzing preprocessed data in a framework of multiscale recovery of the Earth's gravitational potential, allowing both global and regional solutions. The energy conservation approach has been used to convert orbits and accelerometer data into in-situ potential. Our modelling is spacewise, based on (1) non-bandlimited least square adjustment splines to take into account the true (non-spherical) shape of the trajectory (2) harmonic regularization wavelets for solving the underlying inverse problem of downward continuation. Furthermore we can show that by adapting regularization parameters to specific regions local solutions can improve considerably on global ones. We apply this concept to kinematic CHAMP orbits, and, for test purposes, to dynamic orbits. Finally we compare our recovered model to the EGM96 model, and the GFZ models EIGEN-2 and EIGEN-GRACE01s. Part C - Multiscale Modeling from EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, EGM96: Spherical wavelets have been developed by the Geomathematics Group Kaiserslautern for several years and have been successfully applied to georelevant problems. Wavelets can be considered as consecutive band-pass filters and allow local approximations. The wavelet transform can also be applied to spherical harmonic models of the Earth's gravitational field like the most up-to-date EIGEN-1S, EIGEN-2, EIGEN-GRACE01S, UCPH2002_0.5, and the well-known EGM96. Thereby, wavelet coefficients arise and these shall be made available to other interested groups. These wavelet coefficients allow the reconstruction of the wavelet approximations. Different types of wavelets are considered: bandlimited wavelets (here: Shannon and Cubic Polynomial (CP)) as well as non-bandlimited ones (in our case: Abel-Poisson). For these types wavelet coefficients are computed and wavelet variances are given. The data format of the wavelet coefficients is also included.
A new class of locally supported radial basis functions on the (unit) sphere is introduced by forming an infinite number of convolutions of ''isotropic finite elements''. The resulting up functions show useful properties: They are locally supported and are infinitely often differentiable. The main properties of these kernels are studied in detail. In particular, the development of a multiresolution analysis within the reference space of square--integrable functions over the sphere is given. Altogether, the paper presents a mathematically significant and numerically efficient introduction to multiscale approximation by locally supported radial basis functions on the sphere.
In dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum (nahekritischen) Hochdruck-Mehrphasengleichgewicht ternärer Systeme bestehend aus Ethen, Wasser und einem bei Umgebungsbedingungen vollständig wasserlöslichen organischen Lösungsmittel durchgeführt. Die Untersuchungen behandeln die Grundlagen eines neuartigen Flüssig-flüssig-Extraktionsverfahrens für Naturstoffe. Dieses Extraktionsverfahren wird durch einen wässrig-organischen Flüssigphasensplit ermöglicht, der durch das Aufpressen eines Gases (in der Nähe seines kritischen Zustandes) auf eine homogene wässrig / organische Phase auftritt. Die Untersuchung des durch den Flüssigphasensplit erzeugten Dreiphasengleichgewichts (LLV) sowie der Verteilung ausgewählter Naturstoffe zwischen den beiden Flüssigphasen des Dreiphasengleichgewichts bilden den Schwerpunkt dieser Arbeit. Die Arbeit baut auf Untersuchungen von Wendland (1994) und Adrian (1997) auf. Wendland hat das Phasenverhalten der ternären Systeme Kohlendioxid + Wasser + (Aceton bzw. 2-Propanol) vermessen und umfangreiche Fortran-Routinen zur Beschreibung des ternären Phasenverhaltens sowie der binären Randsysteme entwickelt. Adrian (1997) hat die drei ternären Systeme Kohlendioxid + Wasser + (1- / 2-Propanol bzw. Propionsäure) sowie die Verteilung von zehn organischen Naturstoffen bzw. Modellkomponenten auf die koexistierenden flüssigen Phasen des Dreiphasengleichgewichts LLV in einem (teilweise beiden) der ternären Systeme Kohlendioxid + Wasser + (Aceton bzw. 1-Propanol) untersucht. In dieser Arbeit wurde größtenteils Ethen als nahekritisches Gas eingesetzt, da es im Gegensatz zu dem zuvor benutzten Kohlendioxid in wässrigen Lösungen undissoziiert vorliegt und somit nicht den pH-Wert der koexistierenden flüssigen Phasen bestimmt. Die experimentelle Untersuchung der Phasengleichgewichte erfolgte mit einer Phasengleichgewichtsapparatur, die nach der analytischen Methode arbeitet. In einer thermostatisierten Hochdrucksichtzelle (30 cm3) wurde ein Phasengleichgewicht zwischen mehreren koexistierenden Phasen eingestellt. An die Messzelle waren zwei externe Probenahmeschleifen angeschlossen, durch welche die (in der Zelle koexistierenden) Phasen gepumpt wurden und aus denen Proben für die Analyse mittels GC und HPLC entnommen wurden. Bei Temperaturen zwischen 293 und 333 K und Drücken bis 20.5 MPa wurde das Hochdruck-Mehrphasengleichgewicht (LLV) der beiden ternären Systeme Ethen + Wasser + (1- bzw. 2-Propanol) untersucht. Darüber hinaus wurden die Druck-Temperatur-Koordinaten kritischer Endpunktlinien in diesen beiden ternären Systemen bestimmt und weitere Untersuchungen zum generellen Phasenverhalten angestellt. Den Schwerpunkt dieser Arbeit bildeten Messungen zur Verteilung von Naturstoffen auf die koexistierenden flüssigen Phasen des Dreiphasengleichgewichts LLV: Es wurde u. a. die einzelne Verteilung dreier Paare chemisch ähnlicher Naturstoffe im ternären System Ethen + Wasser + 2-Propanol bei 293 und 333 K untersucht. Die Paare waren 2,5-Hexanediol / 2,5-Hexandion, N-Acetyl-Glukosamin / N-Acetyl-Mannosamin und D- / L-Phenylalanin. Im theoretischen Teil dieser Arbeit wurde das Phasenverhalten der ternären Systeme mit der kubischen Zustandsgleichung (EoS) von Peng und Robinson (1976) in der Modifikation von Melhem et al. (1989) kombiniert mit verschiedenen Mischungsregeln beschrieben. Hierbei wurde sowohl eine Vorhersage des ternären Phasenverhaltens aus Informationen zu den binären Randsystemen als auch die Korrelation des ternären Phasenverhaltens angestrebt. Auch aufgrund der teilweise sehr geringen Anzahl von binären Messpunkten, konnte das Verhalten des Systems Ethen + Wasser + 2-Propanol nicht aus den Informationen zu den binären Randsystemen vorhergesagt werden. Für das Verhalten des ternären Systems Ethen + Wasser + 1-Propanol stimmte die Vorhersage nur qualitativ mit den Messwerten überein. Die Wiedergabe des Phasenverhaltens der ternären Systeme verbesserte sich signifikant, wenn die binären Wechselwirkungsparameter an experimentelle Daten für das Dreiphasengleichgewicht der ternären Systeme angepasst wurden. Zur Korrelation der Verteilung der Naturstoffe auf die flüssigen Phasen des Dreiphasengleichgewichts (LLV) wurde eine Methode benutzt, die auf der Anpassung von Reinstoffparametern der Naturstoffe für die Peng-Robinson EoS basiert. Hierbei wurden die in der EoS benötigten Reinstoffparameter des Naturstoffes an die Ergebnisse der Verteilungsmessungen angepasst, wobei die Wechselwirkungsparameter des ternären Grundsystems übernommen und die Parameter für Wechselwirkungen des Naturstoffes mit dem ternären Grundsystem vernachlässigt wurden. Durch dieses Vorgehen beschreiben die Reinstoffparameter der Naturstoffe auch die Mischungseigenschaften. Durch eine Normierung der Mess- bzw. Rechenwerte auf die gemessenen bzw. berechneten ternären oberen und unteren Begrenzungspunkte des Dreiphasengleichgewichts wurde eine quantitative Beschreibung der Messwerte erhalten.
Das Projekt META-AKAD beschäftigt sich mit dem automatisierten Sammeln und bibliothekarischen Erschließen von Lehr- und Lernmaterialien. Es ist unterteilt in drei zentrale Säulen (Anfrageverarbeitung, Ergebnisverarbeitung und XML-Dokument-Management). Die vorliegende Arbeit beschäftigt sich mit dem XML-Dokument-Management. Es stellt eine generische Schnittstelle bereit, um neue XML-Dokumente in das System einzufügen und bestehende Daten zu aktualisieren oder zu löschen. Hierbei wurden Konzepte entwickelt und umgesetzt, um vom verwendeten Datenbank- und Metadatenschema abstrahieren zu können.
Diese Arbeit beschäftigt sich mit der Ergebnisverarbeitung (Result-Set-Processing) im Projekt META-AKAD. Das materialisierte Anfrageergebnis, dient als Grundlage für die Ausführung von Meta-Queries. Für die Schnittstelle zum Web-Tier wurden zwei unterschiedliche Implementierungen (zustandslos und zustandsbehaftet) zur Verfügung gestellt und miteinander vergliechen.
Die Tyrosinphosphorylierung von Proteinen ist ein wichtiges Schlüsselelement bei der Regulation zellulärer Signalwege und wird durch antagonistisch wirkende Proteintyrosin-kinasen und Proteintyrosinphosphatasen in einem dynamischen Gleichgewicht gehalten. Trotz der Erkenntnis, dass Phosphatasen an der Regulation essentieller zellulärer Vorgänge beteiligt sind, ist über die Funktion und Regulation individueller Phosphatasen nur wenig bekannt. In der vorliegenden Arbeit sollte die physiologische Rolle der Proteintyrosinphosphatase BDP1 untersucht werden. Einen Schwerpunkt bildete hierbei die Negativregulation der Rezeptortyrosinkinase HER2 sowie der HER2-vermittelten Signaltransduktion durch BDP1. Es konnte gezeigt werden, dass die Überexpression von BDP1 die Liganden-induzierte Tyrosinphosphorylierung von HER2 und des Adaptorproteins Gab1 inhibierte und die Aktivierung von MAP-Kinasen reduzierte. Dagegen erhöhte die Unterdrückung der endogenen BDP1-Expression den Phosphorylierungsstatus von HER2. Die Koexpression von BDP1 und HER2 in Brustkrebszelllinien sowie die Assoziation von HER2 mit einer Substrat-bindenden Mutante von BDP1 deuten zusätzlich darauf hin, dass BDP1 ein Regulator der Aktivität von HER2 ist und damit die erste Phosphatase, die mit der Kontrolle des HER-Signals in Verbindung gebracht wird. Weiterhin wurde die BDP1-Expression während der schwangerschaftsinduzierten Differenzierung der murinen Brustdrüse analysiert. Die Untersuchungen zeigten, dass BDP1 in duktalen und alveolaren Brustepithelzellen exprimiert wird. Die Expression der Phosphatase konnte während der Differenzierung der Brustepithelzelllinie HC11 durch Prolaktin und Dexamethason induziert werden. Zusammen mit der Existenz von Stat5- und Glukokortikoidrezeptor-Bindestellen in der Promotorregion von bdp1 sowie der verminderten Expression der Phosphatase im Brustgewebe Stat5-defizienter Mäuse weist dies auf eine Expressionskontrolle des BDP1-Gens durch Schwangerschaftshormone hin und suggeriert eine Rolle der Phosphatase im Differenzierungsprozess der Brustdrüse. Im letzten Teil der Arbeit wurde die Bindung von BDP1 an das Adaptorprotein Grb2 untersucht. Es konnte gezeigt werden, dass die Interaktion zur Hyperphosphorylierung der Phosphatase führte. Dies konnte zumindest teilweise auf eine Grb2-vermittelte Wechselwirkung von BDP1 mit der Tyrosinkinase c-Abl zurückgeführt werden. Zusammengenommen liefern die vorgestellten Ergebnisse neue Daten zur Funktion, Expression und Regulation von BDP1 und tragen entscheidend zur Charakterisierung der biologischen Funktion dieser Phosphatase bei.
This report explains basic notions and concepts of Abstract State Machines (ASM) as well as notation for defining ASM models. The objective here is to provide an intuitive understanding of the formalism; for a rigorous definition of the mathematical foundations of ASM, the reader is referred to [2] and [3]. Further references on ASM-related material can be found on the ASM Web Pages [1].
Hyperquasivarieties
(2003)
In dieser Arbeit wurde die modulierte Kristallstruktur der komplexionischen Verbindung trans-Tetraamminaquahydroxorhodium(III)-diperchlorat (1) eingehend mit Hilfe der Röntgenbeugung untersucht. Verbindung 1 bildet eine modulierte Kristallstruktur aus, in der sich die periodische Abweichung von der Grundstruktur kontinuierlich mit der Temperatur ändert. Die Periode der Modulationswelle kann kommensurabel oder inkommensurabel zu den Perioden des Translationengitters der Grundstruktur sein. Durch mehrere Röntgenbeugungsexperimente bei verschiedenen Temperaturen konnte der durch die Modulationswelle hervorgerufene Symmetrieabbau im Translationengitter der Kristallstruktur von 1 verfolgt werden. Der zur Lösung und Verfeinerung modulierter Strukturen von de Wolff, Janssen und Janner entwickelte (3+d)-dimensionale Überraumformalismus wurde anhand der Strukturen der eindimensional kommensurabel modulierten Tieftemperaturphase und der inkommensurabel modulierten Raumtemperaturphase von 1 exemplarisch diskutiert. Die Diskussion der Ergebnisse aus den temperaturabhängigen Beugungsexperimenten liefert einen Erklärungsansatz für die Entstehung der modulierten Struktur von 1. In der Kristallstruktur der Raum- und Tieftemperaturphase von 1 sind die Komplexkationen über [H3O2]--Gruppen zu eindimensionalen Ketten verknüpft. Die sehr starken Wasserstoffbrückenbindungen in den [H3O2]--Brücken scheinen bei dem Passungsproblem, das der modulierten Kristallstruktur von 1 zu Grunde liegt, eine Schlüsselrolle zu spielen. Diese Arbeit stellt einen Beitrag zu dem aktuellen Forschungsgebiet der aperiodischen Kristalle dar.
In der vorliegenden Arbeit wird die Beständigkeit geklebter, hochfester Glasverbunde unter natürlicher Bewitterung untersucht. Ziel der vorliegenden Arbeit ist es, die Anforderungen an einen Klebstoff zum hochfesten und witterungsbeständigen Fügen von Glas für Anwendungen im Bauwesen zu spezifizieren und die Tauglichkeit geeignet erscheinender Systeme anhand dieser Anforderungen zu prüfen und zu bewerten. Feuchtigkeit sowie die UV- und Lichteinstrahlung sind die Hauptschädigungsfaktoren für Glasklebungen. Ein Klebstoff für die Befestigung von Punkthaltern an Glas muss unter diesen Belastungen dauerhafte Verbindungen zur Glasoberfläche aufbauen und im Vergleich zu den in linienförmigen Verbindungen eingesetzten Silikonen deutlich höhere Spannungen übertragen können. Als aussichtsreiche Klebstoffkonzepte zur Erfüllung dieser Forderungen werden ein epoxidverstärkter Silyl-Klebstoff und ein Zweikomponenten-Epoxidharzklebstoff mit Haftvermittler ausgewählt. Diese Klebstoffe können der Theorie nach -ebenso wie Silikone- über Si-O-Si-Bindungen an die Glasoberfläche anbinden. Ein in der Praxis bewährter Silikondichtstoff dient als Bewertungsmaßstab für das Alterungsverhalten der gewählten Systeme. Die Untersuchung des Alterungsverhaltens der Klebstoffe erfolgt an Glas-Glas-Modellverbunden in Druckscher- und in Zugschergeometrie. Der Einfluss von Feuchtigkeit auf die Verbindung wird durch eine Wasserlagerung der Modellverbunde bei 40 °C simuliert, eine künstliche Bewitterung belastet die Proben zusätzlich durch UV- und sichtbares Licht. Durch eine parallel zu diesen Versuchen durchgeführte Freibewitterung kann die Aussagekraft der gewonnenen Ergebnisse bewertet werden. Die Wasserlagerung führt bei den mit GD 823 N hergestellten Modellverbunden nach relativ kurzer Zeit zu einem deutlichen Abfall der Verbundfestigkeit und zu einem Wechsel des im ungealterten Zustand kohäsiven Bruchbildes zu adhäsivem Versagen. Die künstliche Bewitterung zeigt die Unempfindlichkeit gegenüber der Einwirkung von Sonnenlicht, erhöhter Temperatur und zeitweiliger Feuchtebelastung. Sie führt zu keiner relevanten Änderung der Festigkeit oder des Bruchbildes der Modellverbunde. Die natürliche Bewitterung der Verbunde führt nach fünf Jahren zu keiner erkennbaren Schädigung des Klebstoffes oder der Grenzfläche. Die ermittelten mechanischen Kennwerte unterscheiden sich nur geringfügig von den im ungealterten Zustand ermittelten Werten. Bei den mit MOS 7 hergestellten Verbunden führt die Wasserlagerung zu einem moderaten Festigkeitsverlust, der durch Trocknung der Proben teilweise rückgängig gemacht werden kann. Dabei ändert sich das Bruchbild vom kohäsiven Versagen im ungealterten Zustand zu einem adhäsiven Versagen nach Wasserlagerung. Nach Rücktrocknung treten bei kürzeren Alterungsdauern wieder Kohäsionsbrüche auf, nach längerer Wasserlagerung bleibt das Bruchbild adhäsiv. Die Ergebnisse der mechanischen Prüfungen deuten auf eine signifikante Nachvernetzung des Klebstoffs im Verlauf der Alterungen hin, die nicht nur durch das Wasser, sondern auch durch die erhöhte Temperatur verursacht wird. Dies kann durch FTIR-Messungen gezeigt werden. Die künstliche Bewitterung führt zu einer deutlichen Schädigung der Verbindung, die sowohl in den mechanischen Kennwerten als auch im Wechsel des Bruchbildes sichtbar wird. Dieses Verhalten zeigen die Proben auch bei Freibewitterung. Längere Lagerung der Proben unter Lichtabschluss bei Umgebungsbedingungen führt zu einer starken Zunahme von Scherfestigkeit und E-Modul durch die langsam ablaufende Nachvernetzung der Epoxidharzphase. Der Klebstoff MOS 7 ist trotz der mit ihm zu erzielenden gut feuchtigkeitsbeständigen Verbunde aufgrund der nicht ausreichenden Beständigkeit bei Bewitterung und der sich stark ändernden mechanischen Eigenschaften für eine direkte UV-Belastung der Grenzfläche und einen Einsatz in feucht-warmer Umgebung weniger geeignet. Die mit dem Epoxidharz Sichel Metallon FL verklebten Modellverbunde werden sowohl bei Raumtemperatur als auch bei 120 °C ausgehärtet. Nach beiden Aushärtebedingungen zeigen die Verbunde nach Alterung in 40 °C warmem Wasser nur geringe Verluste der Festigkeit. Erst die Erhöhung der Alterungstemperatur auf 70 °C führt zu einem deutlichen Festigkeitsverlust mit erkennbaren Vorteilen der Heißaushärtung. Bei künstlicher Bewitterung lassen sich geringfügige Unterschiede der verklebten Glasseite erkennen. Die Ergebnisse deuten darauf hin, dass die Verklebung der Ofenseite zu einer etwas besseren Beständigkeit führt. Technisch sind die ermittelten Unterschiede nur von geringer Bedeutung. Die Freibewitterung hinterlässt nach fünf Jahren keine erkennbaren Schäden an der Klebung.
UML and SDL are languages for the development of software systems that have different origins, and have evolved separately for many years. Recently, it can be observed that OMG and ITU, the standardisation bodies responsible for UML and SDL, respectively, are making efforts to harmonise these languages. So far, harmonisation takes place mainly on a conceptual level, by extending and aligning the set of language concepts. In this paper, we argue that harmonisation of languages can be approached both from a syntactic and semantic perspective. We show how a common syntactical basis can be derived from the analysis of the UML meta-model
and the SDL abstract grammar. For this purpose, conceptually sound and well-founded mappings from meta-models to abstract grammars and vice versa are defined and applied. On the semantic level, a comparison between corresponding language constructs is performed.
Unter Ambient Intelligence (AmI) wird die Integration verschiedener Technologien zu einer den Menschen umgebenden, (nahezu) unsichtbaren Gesamtheit verstanden. Diese Intelligente Umgebung wird möglich durch die Miniaturisierung hochintegrierter Bauteile (Sensoren, Aktuatoren und Rechnern), deren zunehmende Intelligenz und vor allem deren lokale und globale zunehmend drahtlose Vernetzung. Unter dem Titel Man-u-Faktur 2012 (man and factoring in 2012) wurde an der Technischen Universität Kaiserslautern im Rahmen des Forschungsschwerpunkts Ambient Intelligence ein Szenario entwickelt, das ein beeindruckendes Gesamtbild einer Technik, die den Menschen in den Mittelpunkt rückt, beschreibt. Man-u-Faktur 2012 steht dabei für ein Weiterdrehen des Rads der Industrialisierung von der heute üblichen variantenreichen, technologiezentrierten Massenfertigung hin zu einer kundenindividuellen, mitarbeiterzentrierten Maßfertigung. Im Speziellen wird hierunter der Aufbau massiv verteiler kunden- aber auch mitarbeiterfreundlicher Produktionsanlagen verstanden, die sich im hochdynamischen Umfeld entsprechend der jeweiligen Gegebenheiten anzupassen wissen. Der Mensch ist überall dort präsent, wo flexibles Arbeiten oder flexible Entscheidungen im Vordergrund stehen. In diesem Bericht wird der Einfluss von Ambient Intelligence beispielhaft auf die Vision einer Fahrradproduktion in der Man-u-Faktur 2012 angewandt. Aus diesem Szenario werden anschließend sowohl die zu entwickelnden Schlüsseltechnologien als auch die Einflüsse auf Wirtschaft und Gesellschaft abgeleitet.
The thesis deals with the subgradient optimization methods which are serving to solve nonsmooth optimization problems. We are particularly concerned with solving large-scale integer programming problems using the methodology of Lagrangian relaxation and dualization. The goal is to employ the subgradient optimization techniques to solve large-scale optimization problems that originated from radiation therapy planning problem. In the thesis, different kinds of zigzagging phenomena which hamper the speed of the subgradient procedures have been investigated and identified. Moreover, we have established a new procedure which can completely eliminate the zigzagging phenomena of subgradient methods. Procedures used to construct both primal and dual solutions within the subgradient schemes have been also described. We applied the subgradient optimization methods to solve the problem of minimizing total treatment time of radiation therapy. The problem is NP-hard and thus far there exists no method for solving the problem to optimality. We present a new, efficient, and fast algorithm which combines exact and heuristic procedures to solve the problem.
Industrial analog circuits are usually designed using numerical simulation tools. To obtain a deeper circuit understanding, symbolic analysis techniques can additionally be applied. Approximation methods which reduce the complexity of symbolic expressions are needed in order to handle industrial-sized problems. This paper will give an overview to the field of symbolic analog circuit analysis. Starting with a motivation, the state-of-the-art simplification algorithms for linear as well as for nonlinear circuits are presented. The basic ideas behind the different techniques are described, whereas the technical details can be found in the cited references. Finally, the application of linear and nonlinear symbolic analysis will be shown on two example circuits.
Las matemáticas son atribuidas en general a algo no claro y sólo para matemáticos. La imagen de las matemáticas para los escolares, es la de una ciencia, la cual se sirve sólo de si misma. Es importante hacer frente al prejuicio de que las matemáticas distan lejos de toda utilidad práctica. La matemática es una ciencia al servicio de todas las dem´as ciencias, de cuya ayuda se necesita en casi todos los campos de la vida. La matemática de la escuela debería despertar en cualquier ámbito de la vida de los escolares el interés sobre ...
Linear Optimization is an important area from applied mathematics. A lot of practical problems can be modelled and solved with this technique. This publication shall help to introduce this topic to pupils. The process of modelling, the reduction of problems to their significant attributes shall be described. The linear programms will be solved by using the simplex method. Many examples illustrate the topic.
In this paper we discuss an earliest arrival flow problem of a network having arc travel times and capacities that vary with time over a finite time horizon T. We also consider the possibility to wait (or park) at a node before departingon outgoing arc. This waiting is bounded by the value of maximum waiting time and the node capacity which also vary with time.
We generalize the classical shortest path problem in two ways. We consider two - in general contradicting - objective functions and introduce a time dependency of the cost which is caused by a traversal time on each arc. The resulting problem, called time-dependent bicriteria shortest path problem (TdBiSP) has several interesting practical applications, but has not attained much attention in the literature.
In this paper, we present a novel multicriteria decision support system (MCDSS), called knowCube, consisting of components for knowledge organization, generation, and navigation. Knowledge organization rests upon a database for managing qualitative and quantitative criteria, together with add-on information. Knowledge generation serves filling the database via e.g. identification, optimization, classification or simulation. For “finding needles in haycocks”, the knowledge navigation component supports graphical database retrieval and interactive, goal-oriented problem solving. Navigation “helpers” are, for instance, cascading criteria aggregations, modifiable metrics, ergonomic interfaces, and customizable visualizations. Examples from real-life projects, e.g. in industrial engineering and in the life sciences, illustrate the application of our MCDSS.
In this article, we consider the problem of planning inspections and other tasks within a software development (SD) project with respect to the objectives quality (no. of defects), project duration, and costs. Based on a discrete-event simulation model of SD processes comprising the phases coding, inspection, test, and rework, we present a simplified formulation of the problem as a multiobjective optimization problem. For solving the problem (i.e. finding an approximation of the efficient set) we develop a multiobjective evolutionary algorithm. Details of the algorithm are discussed as well as results of its application to sample problems.
Ausgehend von den Batterien nach dem Stand der Technik werden die Einflüsse auf diese untersucht. Es stellt sich heraus, dass vor allem Batterien für den Einsatz in der Traktion und in stationären Anlagen nur mit nicht zu vernachlässigenden Toleranzen gefertigt werden können. Dazu kommt der Einfluss durch den Betrieb, der in Verbindung mit der Fertigungstoleranz und der Lagerbeanspruchung eine Überwachung der Batterie mit einem elektronischen Überwachungs- und Steuergerät, einem sogenannten Batteriemanagementsystem, zwingend notwendig macht. Nur damit kann die aktuelle Qualität einer Batterie erhalten oder verbessert werden. Es folgt eine Klassifizierung von Batteriemanagementsystemen, die ihrerseits in elektrisches Batteriemanagement, thermisches Batteriemanagement und Ladeausgleich aufgeteilt werden. Für diese drei Teileinheiten werden jeweils eine Reihe von Topologien definiert. Das Batteriemanagementsystem mit verteilten Datenerfassungseinheiten und Energiezuführung für den Ladeausgleich wird als Beispiel für eine Geräteentwicklung detailliert beschrieben. Grundlegend für Batteriemanagementsysteme sind deren Algorithmen. Nach der Definition der elektrischen und thermischen Betriebsbereiche verschiedener Batterien werden typische Algorithmen für den Lade- und Entladebetrieb vorgestellt. Weiter werden Verfahren zur Bestimmung des aktuellen Ladezustandes einer Batterie diskutiert. Im Falle eines Betriebes in einem Inselnetz geht in die aktuelle Qualität einer Batterie auch der Isolationswiderstand mit ein. Näher beschrieben wird ein Gerät zur Messung des Isolationswiderstandes. Das Batteriemanagement fordert eine hohe Genauigkeit bei der Datenerfassung. Es werden typische Datenerfassungseinheiten und Sensoren auf ihre Fehlerquellen und die daraus resultierenden Toleranzen untersucht. Weiter werden Kalibrierungsmöglichkeiten diskutiert. Ein weiterer Punkt ist der Test von Batteriemanagementsystemen. Ein Test mit einer realen Batterie nimmt eine längere Zeit in Anspruch. Außerdem besteht dabei die Gefahr einer Schädigung der Batterie. Es wird ein rechnergestütztes System zum Test des elektrischen Batteriemanagements vorgestellt. Abschließend werden integrierte Batteriemanagementsysteme, die im Gerätebereich Anwendung finden, klassifiziert. Es wird gezeigt, dass diese integrierten Lösungen als Ersatz für Datenerfassungseinheiten bei Batterien im Traktions- und Stationärbetrieb eingesetzt werden können. Insgesamt wird nachgewiesen, dass elektronische Überwachungs- und Steuergeräte unabhängig vom Batterietyp und der Einsatzart zum Erhalt oder zur Verbesserung der aktuellen Qualität von Batterien nicht nur sinnvoll sondern für neuere Batterietechnologien unbedingt notwendig sind.