Refine
Year of publication
- 2003 (128) (remove)
Document Type
- Doctoral Thesis (50)
- Report (29)
- Preprint (21)
- Periodical Part (13)
- Study Thesis (5)
- Article (2)
- Diploma Thesis (2)
- Habilitation (2)
- Working Paper (2)
- Master's Thesis (1)
Keywords
- META-AKAD (7)
- AG-RESY (6)
- Modellierung (5)
- Java 2 Enterprise Edition (4)
- Lineare Algebra (4)
- Mathematikunterricht (4)
- Wavelet (4)
- linear algebra (4)
- modelling (4)
- praxisorientiert (4)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (39)
- Fraunhofer (ITWM) (18)
- Kaiserslautern - Fachbereich Informatik (16)
- Kaiserslautern - Fachbereich Chemie (14)
- Kaiserslautern - Fachbereich Sozialwissenschaften (11)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (10)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (2)
- Kaiserslautern - Fachbereich ARUBI (1)
The focus of this work has been to develop two families of wavelet solvers for the inner displacement boundary-value problem of elastostatics. Our methods are particularly suitable for the deformation analysis corresponding to geoscientifically relevant (regular) boundaries like sphere, ellipsoid or the actual Earth's surface. The first method, a spatial approach to wavelets on a regular (boundary) surface, is established for the classical (inner) displacement problem. Starting from the limit and jump relations of elastostatics we formulate scaling functions and wavelets within the framework of the Cauchy-Navier equation. Based on numerical integration rules a tree algorithm is constructed for fast wavelet computation. This method can be viewed as a first attempt to "short-wavelength modelling", i.e. high resolution of the fine structure of displacement fields. The second technique aims at a suitable wavelet approximation associated to Green's integral representation for the displacement boundary-value problem of elastostatics. The starting points are tensor product kernels defined on Cauchy-Navier vector fields. We come to scaling functions and a spectral approach to wavelets for the boundary-value problems of elastostatics associated to spherical boundaries. Again a tree algorithm which uses a numerical integration rule on bandlimited functions is established to reduce the computational effort. For numerical realization for both methods, multiscale deformation analysis is investigated for the geoscientifically relevant case of a spherical boundary using test examples. Finally, the applicability of our wavelet concepts is shown by considering the deformation analysis of a particular region of the Earth, viz. Nevada, using surface displacements provided by satellite observations. This represents the first step towards practical applications.
This paper deals with the handling of deformable linear objects (DLOs), such as hoses, wires, or leaf springs. It investigates usable features for the vision-based detection of a changing contact situation between a DLO and a rigid polyhedral obstacle and a classification of such contact state transitions. The result is a complete classification of contact state transitions and of the most significant features for each class. This knowledge enables reliable detection of changes in the DLO contact situation, facilitating implementation of sensor-based manipulation skills for all possible contact changes.
Es wurden Untersuchungen zur Expression und Wechsel von Serotypproteinen bei Paramecium primaurelia, Stamm 156 durchgeführt. Zum Nachweis der unterschiedlichen Serotypexpressionen wurden Immunofluoreszenzfärbungen und eine spezifische RT-PCR etabliert. Mit dieser Methode wurde der Ablauf eines temperaturinduzierten Serotypwechsels dokumentiert. Es wurde der Einfluss weiterer Umweltparameter auf die Ausprägung des Serotyps untersucht. Freilandexperimente sollten die Ausprägung der Serotypen unter multifaktorieller Reizeinwirkung zeigen. Zusätzlich konnte die Koexpression von zwei Serotypproteinen auf einer Zelle nachgewiesen werden.
Continuous fibre reinforced thermoplastics are a high competitive material class for
diversified applications because of their inherent properties like light-weight construction
potential, integral design, corrosion resistance and high energy absorption level.
Using these materials, one approach towards a large volume scaled part production
rate is covered by an automated process line, consisting of a pressing process for
semi-finised sheet material production, a thermoforming step and some additional
joining technologies. To allow short cycle times in the thermoforming step, the utilised
semi-finished sheet materials, which are often referred to as “organic sheets”, have
to be fully impregnated and consolidated.
Nowadays even this combination of outstanding physical and chemical material
properties combined with the economic processing technology are no guarantee for
the break-through of continuous fibre reinforced thermoplastics, mainly because of
the high material costs for the semi-finished sheet materials. These costs can be attributed
to a non adapted material selection or choice of process parameters, as well
as by unfavourable pressing process type itself.
Therefore the aim of the present investigations was to generate some alternatives
regarding the choice of raw materials, the set-up or the selection of the pressing
process line and to provide some theoretical tools for the determination of process
parameters and dimensions.
Concerning raw material aspects, the use of the blending technology is one promising
approach towards cost reduction for the matrix component. Novel characteristics
related to the fibre structure are CF-yarns with high filament numbers (e.g. 6K or 12K instead of 3K) or multiaxial fibre orientations. These two approaches were both conducted
for sheet materials with carbon fibre reinforcement and high temperature
thermoplastics.
Two new developed ternary blend matrices consisting of PEEK and PEI as the main
ingredients were tested in comparison with neat PEEK. PES and PSU were used as
the third blend component, which provides a cost reduction potential of approximately
30 % compared to the basis PEEK polymer. The results of the static pressing experiments
pointed out that the processing behaviour of the new blends is similar to
the neat PEEK matrix. A maximum process temperature of 410 °C should not be surpassed, otherwise thermal degradation will occur and will have a negative influence
on mechanical laminat properties. To accelerate the impregnation progress a
process pressure of 25 bar in combination with a sidewise opened tooling concept is
helpful. No differences were identified if film-stacking technique was substituted by
powder-prepreg-technology or vice versa. By increasing the yarn filament number
from 3K over 6K to 12K, which is equal to an increase in bundle diameter and therefore
transverse flow distance, the impregnation time has to be extended. If unspread
yarns are used, the risk of void entrapment rises tremendously, especially with 12K
and UD-structures. To reach full impregnation with a woven 6K-fabric, an increase of
process time of 20 to 30 % compared to a 3K textile structure is required. Furthermore,
it was shown that if only transverse flow is used for the impregnation of a UDstructure,
a maximum area weight of 300-400 g/m² should not be exceeded. Additionally,
the transport of air is strictly affected by the fibre orientation, because the
main amount of displaced air runs in longitudinal fibre direction. These facts play an
important role in the design of a multaxial laminat or an impregnation process for
such a structure and have to be taken into account.
Apart from these static pressing experiments the semi-continuous (stepwise compression
moulding) and continuous (double belt press processing) processing technology
were investigated and compared to each other. The first basic processing
trails on the stepwise compression moulding equipment were carried out with the material
system GF/PA66. Whereas the processing behaviour of this material combination
in a double belt press is known quite well, there is only little information about
semi-continuous processing. The performed trials pointed out that the resulting laminate
quality for both technologies only differs in the achievable local surface quality.
Mechanical laminate properties like three point bending stiffness and strength are
directly comparable. Due to the fact that there is only small experience with the stepwise
compression moulding process, potential improvements regarding surface Quality are feasible by adapting the step procedure and the temperature distribution within
the tooling concept. If laminates, produced by semi-continuous processing, are deployed
in a thermoforming process or in a non visible structural application, the surface
appearance only plays an inferior role.
The present results with high temperature thermoplastic matrices and CF do confirm
the positive assessment for the stepwise compression moulding technology, even though the mechanical laminate values have only reached 90 % of the data received
by static press processing. In comparison to the data from literature, 90 % is already
a high mechanical performance level. The results are quite promising for the use of
the semi-continuous technology, despite the process set-up and processing parameters
not being optimised. Furthermore there are tremendous advantages in processing
equipment costs.
Finally a process model was developed based on the experimental data pool. This
model can be characterised as a tool, which provides useful boundary conditions and
dimension values for the selection of a certain pressing process depending on the
desired material combination, laminate thickness and production output. The applicability
and accuracy of the model was proofed by a direct comparison between experimental
and calculated data.
First of all the temperature profile of the pressing process was generalised by a very
common structure. This profile reflects the main characteristics for the processing of
a thermoplastic composite material. Depending on the material combination, the
laminate thickness and the occurring heat transfers, several process- and processing-
portfolios were calculated. For a defined combination of the aforementioned parameters,
these portfolios directly provide the periods of time for heating and cooling
of the laminate structure. The last step is to convert these information into an equipment
dimension and to decide which machinery configuration fulfils these requirements.
The Earth's surface is an almost perfect sphere. Deviations from its spherical shape are less than 0,4% of its radius and essentially arise from its rotation. All equipotential surfaces are nearly spherical, too. In consequence, multiscale modelling of geoscientifically relevant data on the sphere involving rotational symmetry of the trial functions used for the approximation plays an important role. In this paper we deal with isotropic kernel functions showing local support and (one-dimensional) polynomial structure (briefly called isotropic finite elements) for reconstructing square--integrable functions on the sphere. Essential tool is the concept of multiresolution analysis by virtue of the spherical up function. The main result is a tree algorithm in terms of (low--order) isotropic finite elements.
A hub location problem consists of locating p hubs in a network in order to collect and consolidate flow between node pairs. This thesis deals with the uncapacitated single allocation p-hub center problem (USApHCP) as a special type of hub location problem with min max objective function. Using the so-called radius formulation of the problem, the dimension of the polyhedron of USApHCP is derived. The formulation constraints are investigated to find out which of these define facets. Then, three new classes of facet-defining inequalities are derived. Finally, efficient procedures to separate facets in a branch-and-cut algorithm are proposed. The polyhedral analysis of USApHCP is based on a tight relation to the uncapacitated facility location problem (UFL). Hence, many results stated in this thesis also hold for UFL.
Apoptose in Rattenhepatozyten in Primärkultur- Einfluss von TCDD und polychlorierten Biphenylen
(2003)
Zur Untersuchung der Beeinflussung des apoptotischen Zelltodes durch nicht-dioxinartige polychlorierte Biphenyle in primären Rattenhepatozyten wurden Experimente in Kollagengel- Sandwich-Kultur durchgeführt. Die Auslösung von Apoptose erfolgte mittels Behandlung der Zellen mit UV-Licht. Hierzu wurden die PCB-Kongenere 28, 138 und 183 ausgewählt, als Referenzsubstanz diente Phenobarbital. Es konnte festgestellt werden, dass alle verwendeten PCBs sowie Phenobarbital die UV-induzierte Apoptose konzentrationsabhängig signifikant hemmen. Im Rahmen dieser Studie zeigte sich für die maximalen Hemmeffekte gegenüber der bestrahlten Kontrolle die Reihenfolge PCB 138 (38,7%) > Phenobarbital (30,7%) > PCBs 28, 183 (jeweils 29,1%). Die basale (spontane) Apoptose wurde insgesamt weitaus schwächer beeinflusst. Zur eingehenderen Wirkungscharakterisierung dieser PCBs wäre eine Verifikation der gefundenen Ergebnisse anhand eines Tierexperimentes mit Hinblick auf mögliche tumorpromovierende Effekte dieser Substanzen in der Rattenleber von Interesse. Im weiteren Verlauf der Arbeit wurde versucht, einen Assay zu etablieren, der als biochemischer Marker für Apoptose in primären Rattenhepatozyten eingesetzt werden sollte. In Studien zur DNA-Fragmentierung (DNA-ladder) konnte keine Abhängigkeit der DNAFragmentierung von der eingesetzten UV-Dosis detektiert werden. Somit konnte diese Methode nicht zur Charakterisierung einer Beeinflussung der Apoptose eingesetzt werden. Untersuchungen zur Beeinflussung der Gallensäure-induzierten Caspase-3-Aktivität durch Phenobarbital zeigten keine signifikanten Effekte auf die Caspase-3-Aktivität. Zudem zeichneten sich die Versuche durch eine hohe Schwankungsbreite sowie eine geringe Reproduzierbarkeit aus, so dass keine klare Aussage getroffen werden konnte. Eine biochemische Nachweismethode der Apoptose und deren Beeinflussung durch Xenobiotika konnte somit im zeitlichen Rahmen dieser Arbeit nicht etabliert werden. Abschließend wurde in vorliegender Arbeit der Einfluss von TCDD auf die Apoptose sowie auf die Induktion der 7-Ethoxyresorufin-O-deethylase (EROD)-Aktivität als funktionellem Parameter für die CYP1A-Isoenzym-Induktion in primären Rattenhepatozyten der Stämme Han/Wistar und Long-Evans studiert. In Untersuchungen zum Einfluss von TCDD auf die durch UV-Strahlung ausgelöste Apoptose in Han/Wistar-Hepatozyten konnten keine signifikanten Effekte beobachtet werden. Die maximale Induzierbarkeit der Apoptose lag mit ca. 2,6% deutlich unterhalb der für Hepatozyten des Wistar-Stammes gefundenen Werte. Bei analogen Experimenten mit Long-Evans- Hepatzoyten zeigte sich, dass die Apoptose in diesem Zelltyp nicht induzierbar war. Die Ergebnisse zeigen ferner, dass in beiden Zelltypen eine konzentrationsabhängige Steigerung der EROD-Aktivität festgestellt werden konnte. Die hierbei ermittelten EC50-Werte betrugen für beide Zelltypen ca. 5 x 10-12 M und entsprechen somit annähernd den bereits von Schmitz et al. (1995) publizierten Daten (2 x 10-11 M) für primäre Wistar-Rattenhepatozyten. Die maximale Induktionshöhe lag jedoch in Long-Evans-Hepatozyten deutlich niedriger als in Zellen des Han/Wistar-Stammes.
The Discrete Ordered Median Problem (DOMP) generalizes classical discrete location problems, such as the N-median, N-center and Uncapacitated Facility Location problems. It was introduced by Nickel [16], who formulated it as both a nonlinear and a linear integer program. We propose an alternative integer linear programming formulation for the DOMP, discuss relationships between both integer linear programming formulations, and show how properties of optimal solutions can be used to strengthen these formulations. Moreover, we present a specific branch and bound procedure to solve the DOMP more efficiently. We test the integer linear programming formulations and this branch and bound method computationally on randomly generated test problems.
Radiation therapy planning is always a tight rope walk between dangerous insufficient dose in the target volume and life threatening overdosing of organs at risk. Finding ideal balances between these inherently contradictory goals challenges dosimetrists and physicians in their daily practice. Today’s planning systems are typically based on a single evaluation function that measures the quality of a radiation treatment plan. Unfortunately, such a one dimensional approach cannot satisfactorily map the different backgrounds of physicians and the patient dependent necessities. So, too often a time consuming iteration process between evaluation of dose distribution and redefinition of the evaluation function is needed. In this paper we propose a generic multi-criteria approach based on Pareto’s solution concept. For each entity of interest - target volume or organ at risk a structure dependent evaluation function is defined measuring deviations from ideal doses that are calculated from statistical functions. A reasonable bunch of clinically meaningful Pareto optimal solutions are stored in a data base, which can be interactively searched by physicians. The system guarantees dynamical planning as well as the discussion of tradeoffs between different entities. Mathematically, we model the upcoming inverse problem as a multi-criteria linear programming problem. Because of the large scale nature of the problem it is not possible to solve the problem in a 3D-setting without adaptive reduction by appropriate approximation schemes. Our approach is twofold: First, the discretization of the continuous problem is based on an adaptive hierarchical clustering process which is used for a local refinement of constraints during the optimization procedure. Second, the set of Pareto optimal solutions is approximated by an adaptive grid of representatives that are found by a hybrid process of calculating extreme compromises and interpolation methods.
As the sustained trend towards integrating more and more functionality into systems on a chip can be observed in all fields, their economic realization is a challenge for the chip making industry. This is, however, barely possible today, as the ability to design and verify such complex systems could not keep up with the rapid technological development. Owing to this productivity gap, a design methodology, mainly using pre designed and pre verifying blocks, is mandatory. The availability of such blocks, meeting the highest possible quality standards, is decisive for its success. Cost-effective, this can only be achieved by formal verification on the block-level, namely by checking properties, ranging over finite intervals of time. As this verification approach is based on constructing and solving Boolean equivalence problems, it allows for using backtrack search procedures, such as SAT. Recent improvements of the latter are responsible for its high capacity. Still, the verification of some classes of hardware designs, enjoying regular substructures or complex arithmetic data paths, is difficult and often intractable. For regular designs, this is mainly due to individual treatment of symmetrical parts of the search space by backtrack search procedures used. One approach to tackle these deficiencies, is to exploit the regular structure for problem reduction on the register transfer level (RTL). This work describes a new approach for property checking on the RTL, preserving the problem inherent structure for subsequent reduction. The reduction is based on eliminating symmetrical parts from bitvector functions, and hence, from the search space. Several approaches for symmetry reduction in search problems, based on invariance of a function under permutation of variables, have been previously proposed. Unfortunately, our investigations did not reveal this kind of symmetry in relevant cases. Instead, we propose a reduction based on symmetrical values, as we encounter them much more frequently in our industrial examples. Let \(f\) be a Boolean function. The values \(0\) and \(1\) are symmetrical values for a variable \(x\) in \(f\) iff there is a variable permutation \(\pi\) of the variables of \(f\), fixing \(x\), such that \(f|_{x=0} = \pi(f|_{x=1})\). Then the question whether \(f=1\) holds is independent from this variable, and it can be removed. By iterative application of this approach to all variables of \(f\), they are either all removed, leaving \(f=1\) or \(f=0\) trivially, or there is a variable \(x'\) with no such \(\pi\). The latter leads to the conclusion that \(f=1\) does not hold, as we found a counter-example either with \(x'=0\), or \(x'=1\). Extending this basic idea to vectors of variables, allows to elevate it to the RTL. There, self similarities in the function representation, resulting from the regular structure preserved, can be exploited, and as a consequence, symmetrical bitvector values can be found syntactically. In particular, bitvector term-rewriting techniques, isomorphism procedures for specially manipulated term graphs, and combinations thereof, are proposed. This approach dramatically reduces the computational effort needed for functional verification on the block-level and, in particular, for the important problem class of regular designs. It allows the verification of industrial designs previously intractable. The main contributions of this work are in providing a framework for dealing with bitvector functions algebraically, a concise description of bounded model checking on the register transfer level, as well as new reduction techniques and new approaches for finding and exploiting symmetrical values in bitvector functions.
Die cytogenetische Manifestation von Genamplifikation in humanen Zellen wurde in einem Fall von akuter myeloischer Leukämie (AML) sowie an der humanen Cervixcarcinomzelllinie HeLa S3 untersucht. In dem AML-Fall ergab die Karyotypisierung der Leukämiezellen neben dem Verlust eines X-Chromosoms das Vorliegen einer extrachromosomalen Genamplifikation in Form von Double Minutes. Mit Hilfe der Comparativen Genomischen Hybridisierung (CGH) und der Fluoreszenz-in situ-Hybridisierung (FISH) wurde die Herkunft der amplifizierten Sequenz aus der chromosomalen Region 8q24 ermittelt und eine Amplifikation des Protoonkogens MYC in den Double Minutes nachgewiesen. Die FISH-Analyse zeigte zudem den Verlust von einem der beiden chromosomalen MYC-Loci an, der auf einen Deletionsmechanismus der Genamplifikationsentwicklung schliessen ließ. Die Induktion der Amplifikation des Dihydrofolat-Reduktase-Gens (DHFR) durch Selektion mit Methotrexat (MTX) diente als Modellsystem zur Analyse der frühen Stadien der Genamplifikationsentwicklung. Durch mehrmonatige Mehrschrittselektionen von zwei HeLa-Zellpopulationen wurden unabhängig voneinander zwei HeLa-Sublinien mit jeweils extrachromosomaler DHFR-Amplifikation in Form von Double Minutes erzeugt. Die Veränderungen der 5q-Trägerchromosomen und der intrachromosomalen DHFR-Kopienanzahl, die im Verlauf der MTX-Selektionen in den HeLa-Zellen auftraten, wiesen auf das Zusammenwirken unterschiedlicher Mechanismen zur DHFR-Amplifikation hin. Niedrige MTX-Konzentrationen wirkten in Richtung einer Anreicherung von intrachromosomalen DHFR-Kopien, die hauptsächlich auf den Zugewinn eines Chromosoms 5 zurückzuführen waren. Daneben wies das Auftreten von neuen derivativen DHFR-haltigen Chromosomen auf Bruchereignisse in Chromosom 5 hin. Das Erscheinen eines derivativen Chromosoms mit zwei invertiert angeordneten 5q und drei DHFR-Kopien ließ auf das Ablaufen von Breakage-Fusion-Bridge (BFB)-Zyklen schliessen. Bei höheren MTX-Konzentrationen (ab 0.25 µM) trat dagegen eine Anreicherung von extrachromosomalen DHFR-Kopien in Double Minutes bei gleichzeitigem Rückgang der derivativen DHFR-haltigen Chromosomen in den Vordergrund. Die Sublinien aus Selektion 1 waren in diesem Stadium durch den Verlust eines Chromosoms 5 gekennzeichnet, der auf eine Generierung von extrachromosomalen DHFR-Kopien aus 5q-Bruchstücken hinwies. Im Gegensatz dazu trat bei den Sublinien von Selektion 2 in diesem Stadium zunächst noch eine Zunahme von intrachromosomalen DHFR-Kopien auf, die nachfolgend durch eine sprunghafte Erhöhung von extrachromosomalen DHFR-Kopien in Double Minutes in der Zellpopulation abgelöst wurde. In den Sublinien von Selektion 2 kann daher eine Generierung von extrachromosomalen DHFR-Kopien durch Bruchereignisse an einem zuvor hinzugewonnenen Chromosom 5 angenommen werden. Die letzten Sublinien aus beiden Selektionen wiesen wieder den 5q-Trägerchromosomen- und intrachromosomalen DHFR-Status der Parentallinie auf, der offenbar in den HeLa-Zellen eine besondere Stabilität besitzt. Die unterschiedlichen Veränderungen im 5q- und DHFR-Status in den untersuchten HeLa-Sublinien zeigen, dass eine DHFR-Amplifikation in HeLa-Zellen unter MTX-Selektionsdruck auf verschiedenen Wegen erfolgen kann. In mehrmonatiger Kultivierung ohne Selektionsdruck entwickelte die verwendete HeLa-Zelllinie unter den vorliegenden Kultivierungsbedingungen keine der in den MTX-selektionierten Sublinien beobachteten Veränderungen, so dass diese als selektionsspezifische Prozesse angesehen werden können.
This publication tries to develop mathematical subjects for school from realistic problems. The center of this report are business planning and decision problems which occur in almost all companies. The main topics are: Calculation of raw material demand for given orders, consumption of existing stock and the lot sizing.
A mediados del año 1997 la publicación de los denominados TIMMS-Estudios (Third International Mathematics and Science Study) causó un importante impacto en el público alemán. El motivo de esto fue el rendimiento escolar conseguido en la rama de matemáticas y ciencias naturales del octavo curso, el cual estaba situado en un campo internacional, donde particularmente en el ámbito matemático el conjunto de los estados del norte-, oeste-, y del este de Europa que forman parte del TIMSS - sin mencionar a la mayoría de los paises asiáticos - habían conseguido claramente mejores rendimiento. En definitiva mostraban un peor rendimiento los escolares alemanes con respecto a los paises vecinos y con los ....
Diese Arbeit gehört in die algebraische Geometrie und die Darstellungstheorie und stellt eine Beziehung zwischen beiden Gebieten dar. Man beschäftigt sich mit den abgeleiteten Kategorien auf flachen Entartungen projektiver Geraden und elliptischer Kurven. Als Mittel benutzt man die Technik der Matrixprobleme. Das Hauptergebnis dieser Dissertation ist der folgende Satz: SATZ. Sei X ein Zykel projektiver Geraden. Dann gibt es drei Typen unzerlegbarer Objekte in D^-(Coh_X): - Shifts von Wolkenkratzergarben in einem regulären Punkt; - Bänder B(w,m,lambda), - Saiten S(w). Ganz analog beweist man die Zahmheit der abgeleiteten Kategorien vieler assoziativer Algebren.
In this paper, the reflection and refraction of a plane wave at an interface between .two half-spaces composed of triclinic crystalline material is considered. It is shown that due to incidence of a plane wave three types of waves namely quasi-P (qP), quasi-SV (qSV) and quasi-SH (qSH) will be generated governed by the propagation condition involving the acoustic tensor. A simple procedure has been presented for the calculation of all the three phase velocities of the quasi waves. It has been considered that the direction of particle motion is neither parallel nor perpendicular to the direction of propagation. Relations are established between directions of motion and propagation, respectively. The expressions for reflection and refraction coefficients of qP, qSV and qSH waves are obtained. Numerical results of reflection and refraction coefficients are presented for different types of anisotropic media and for different types of incident waves. Graphical representation have been made for incident qP waves and for incident qSV and qSH waves numerical data are presented in two tables.
The original publication is available at www.springerlink.com. This original publication also contains further results. We study a spherical wave propagating in radius- and latitude-direction and oscillating in latitude-direction in case of fibre-reinforced linearly elastic material. A function system solving Euler's equation of motion in this case and depending on certain Bessel and associated Legendre functions is derived.
Chemische und sensorische Auswirkungen physikalischer Konzentrierungsverfahren auf Most und Wein
(2003)
In dieser Arbeit wurden die Auswirkungen weinbaulicher und kellerwirtschaftlicher Anreicherungsverfahren mit der traditionellen Anreicherung durch Saccharose und der unbehandelten Variante verglichen. Die Auswirkungen wurden analytisch und sensorisch erfasst. Die physikalischen Mostkonzentrierungsverfahren zeichnen sich dadurch aus, dass nicht flüchtige Mostinhaltsstoffe mit einem Molekulargewicht größer als 80g/Mol in erwartetem Maße angereichert werden. Diese Anreicherung ist auch im Wein sowohl analytisch als auch sensorisch feststellbar. Ausnahmen von diesem Anreicherungsverhalten bilden Kalium und Weinsäure, die während des Konzentrierungsvorganges als Weinstein ausfallen. Somit steigt auch die titrierbare Säure nicht in theoretisch erwartbarem Maße und der pH-Wert bleibt nahezu gleich wie beim unbehandelten Most bzw. Wein. Die üblicherweise angewendeten, weil kostengünstigeren und auch für Qualitätswein b.A. zugelassenen physikalischen Konzentrierungsverfahren sind Umkehrosmose (UO) und Vakuumverdampfung (VD). Beide Verfahren eignen sich gleichermaßen zur Anwendung an geklärten Weiß- und Rotmosten. Das Wasser (Permeat bzw. Destillat) wird schonend dem Most entzogen. Dabei treten Verluste von maximal 2% der nicht flüchtigen Inhaltsstoffe auf. Bei den Rotweinen zeigen beide Verfahren die gleichen Effekte. Nach Maischeerwärmung werden die Moste durch die physikalische Konzentrierung in ihrem Phenolgehalt sofort angereichert. Auch bei der Maischegärung werden die Phenolgehalte gegenüber der Saccharoseanreicherung angehoben, aber indirekt über ein reduziertes Saft/Maische-Verhältnis. Mit einem Saftentzug von der Maische können vergleichbare Effekte erzielt werden. Dies führt im Vergleich zur Saccharoseanreicherung zu analytisch reicheren und sensorisch signifikant besser bewerteten Rotweinen. Bei den Weißweinen nach UO- bzw. VD-Mostkonzentrierung im Vergleich zur Saccharosekontrolle besticht vor allem die Aromaintensität dadurch, dass glycosidisch gebundene Vorläufersubstanzen aufkonzentriert und die Aglyca verstärkt freigesetzt werden. Die Weine werden fruchtiger und vollmundiger. In der sensorischen Gesamtbeurteilung der konzentrierten Weißweine im Vergleich zur traditionellen Saccharoseanreicherung werden die genannten positiven Effekte durch die meist zu spitze Säure und einem als unharmonisch, eindimensional und zu breit empfundenen Geschmack überlagert. Deswegen werden nur selten signifikante Verbesserungen erreicht. Von UO werden auch im Most frei vorliegende Aromastoffe mit einem Molekulargewicht größer 80g/Mol angereichert, während bei der VD flüchtige Inhaltsstoffe bereits zu Beginn des Konzentrierungsvorganges zum Großteil ins Destillat übergehen. Bei VD werden deutliche Verluste der freien Terpene, C6-Alkohole und 2-Phenylethanol festgestellt. Das führt bei den Estern, die diese Verbindungen als Alkoholkomponente enthalten zu einer stark eingeschränkten Bildung während der Gärung. Daher ist die Konzentrierung von aromaintensiven Mosten mittels VD nicht ratsam. Die Anwendung der Gefrierkonzentrierung (Kryoextraktion) zeigt die höchste Verlustrate an Mostinhaltsstoffen in das abgetrennte Eiswasser (3% Zucker und 9-11% organische Säuren). Bei den Weißweinen erbringt die Gefrierkonzentrierung sowohl im Aromabereich (Terpenanreicherung) als auch bei der Sensorik der jungen Weine deutliche Vorteile gegenüber der traditionellen Saccharoseanreicherung. Im Rotweinbereich haben sich die Verfahren nicht bewährt. Die Mostkonzentrierung von unreifem oder nicht gesundem Material ist nicht ratsam. Zum einen ist die Mostkonzentrierung beschränkt auf eine Anhebung im Gesamtalkoholgehalt von 2%vol. Dies führt bei Mostgewichten zwischen 50°Oe und 70°Oe nicht zu selbstständigen Weinen. Zum anderen werden Unreifefaktoren und Fäulnisparameter zumindest mit dem UO-Verfahren (hier am Beispiel von C6-Alkohlen und 1-Octen-3-ol nachgewiesen) analytisch angereichert, was in Grenzfällen zu einer Intensivierung dieser unerwünschten Eigenschaften führen kann. Durchschnittlich ist mit Mehrkosten von 50 Cent pro Liter mostkonzentriertem Wein gegenüber herkömmlicher Saccharoseanreicherung zu rechnen. Die bislang noch nicht erlaubte Weinkonzentrierung mittels UO bringt gute Ergebnisse bei der Verdichtung von qualitativ hochwertigen Weinen. Dieses Verfahren kann aber nicht als nachträgliches Alkoholanreicherungsverfahren dienen, da der Alkohol zu einem Großteil permeirt und die Anreicherung im Wein nur etwa halb so stark ist wie die der übrigen Inhaltsstoffe.
We present two heuristic methods for solving the Discrete Ordered Median Problem (DOMP), for which no such approaches have been developed so far. The DOMP generalizes classical discrete facility location problems, such as the p-median, p-center and Uncapacitated Facility Location problems. The first procedure proposed in this paper is based on a genetic algorithm developed by Moreno Vega [MV96] for p-median and p-center problems. Additionally, a second heuristic approach based on the Variable Neighborhood Search metaheuristic (VNS) proposed by Hansen & Mladenovic [HM97] for the p-median problem is described. An extensive numerical study is presented to show the efficiency of both heuristics and compare them.