Refine
Year of publication
- 1999 (525) (remove)
Document Type
- Preprint (397)
- Article (73)
- Doctoral Thesis (28)
- Course Material (6)
- Master's Thesis (6)
- Report (5)
- Lecture (3)
- Study Thesis (3)
- Working Paper (2)
- Diploma Thesis (1)
- Periodical Part (1)
Keywords
- Case-Based Reasoning (11)
- AG-RESY (6)
- Praktikum (6)
- Fallbasiertes Schliessen (5)
- HANDFLEX (5)
- Location Theory (5)
- PARO (5)
- case-based problem solving (5)
- Abstraction (4)
- Fallbasiertes Schließen (4)
Faculty / Organisational entity
- Fachbereich Informatik (267)
- Fachbereich Mathematik (131)
- Fachbereich Physik (76)
- Fachbereich Chemie (19)
- Fachbereich Elektrotechnik und Informationstechnik (10)
- Fachbereich ARUBI (6)
- Fraunhofer (ITWM) (6)
- Fachbereich Wirtschaftswissenschaften (5)
- Fachbereich Biologie (2)
- Fachbereich Maschinenbau und Verfahrenstechnik (2)
Prozeßanalyse und Modellbildung bei der Herstellung gewebeverstarkter, thermoplastischer Halbzeuge
(1999)
Werkstoff- und verarbeitungsspezifische Vorteile gewebeverstärkter, thermoplastischer Faser-Kunststoff-
Verbunde bieten ein erhebliches Potential für die Umsetzung konsequenter Leichtbauweisen in den verschiedenen Anwendungsbereichen der Industrie. In der Regel erfolgt die
Herstellung von Bauteilen in einer Prozeßkette, die sich aus den beiden Kernprozesse Verbundbildung (Imprägnierung und Konsolidierung) und Formgebung zusammensetzt. Die Verbundbildung erfolgt mit Hilfe diskontinuierlicher (Autoklav, Etagenpresse) oder kontinuierliche (Kalander, Doppelbandpresse) Verfahren, die z.B. umformbare Halbzeuge wie ORGANOBLECHEN, zur weiteren Verarbeitung bereitstellen. Diese Entkopplung des Imprägnierungsprozesses der Verstärkungstextilien mit thermoplastischer Matrix von der Bauteilherstellung ermöglicht - analog der Blechumformung - eine großserientaugliche Prozeßtechnik mit kurzen Taktzeiten. Alle wesentlichen Eigenschaften des Verbundwerkstoffes werden so während der Halbzeugherstellung determiniert, während die Bauteilherstellung dann nur der Umformung dient. Auf dem Verbundwerkstoffmarkt ist ein Reihe von Halbzeugen mit verschiedenen Eigenschaftsprofilen verfügbar. Infolge des ständigen Wandels der werkstofflichen Anforderungsprofile
ist jedoch eine permanente Weiterentwicklung der Halbzeuge notwendig. Hieraus resultiert für die Werkstoffhersteller ein großes technisches und wirtschaftliches Risiko, da die
aufwendige Werkstoffentwicklung - aufgrund mangelnder wissenschaftlicher Grundlagen - mit erheblichen Unsicherheiten behaftet ist. Derzeit wird die Neuentwicklung von anforderungsspezifischen Halbzeugen mit Hilfe von Trial- and-Error Versuchen hinsichtlich der universellen Prozeßparameter (Temperatur, Zeit und Druck) betrieben. Derartige Versuchsreihen bedingen einen beträchtlichen finanziellen und zeitlichen Umfang und stellen somit ein wesentliches Entwicklungsrisiko dar. Darüber hinaus sind die Ergebnisse nur für Anlagen gleichen Typs und Bauart uneingeschränkt anwendbar. Eine Übertragbarkeit der Prozeßparameter auf andere Anlagenkonzepte ist nicht gegeben, so daß die Prozeßfenster jeweils immer individuell ermittelt werden müssen. Aufgrund
dieser aufwendigen Vorgehensweise werden deshalb intensive Anstrengungen unternommen, die während der Materialherstellung auftretenden Vorgänge mathematisch zu
modellieren, um dann durch rechnerische Simulation der Verarbeitungsprozesse eine Abschätzung des energetischen und zeitlichen Aufwandes zu ermöglichen. Daraus ergab sich die Aufgabe, das Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter, flächiger thermoplastischer Halbzeuge durch umfangreiche Untersuchungen an verschiedensten Materialkombinationen zu analysieren. Ziel war es, die bei der Halbzeugherstellung
auftretenden Effekte zu charakterisieren, Ansätze zu deren Modellierung zu entwickeln und Erkenntnisse zur Optimierung der Prozeß- und Materialparameter zu gewinnen. Wesentliche Ergebnisse der Prozeßanalyse sind das Auftreten von transversalen Makro- und Mikroströmen sowie das Entstehen von festigkeits- und steifigkeitsreduzierenden Bindenähten
und Lufteinschlüssen. Ferner laufen innerhalb der Faserbündel, temperatur- und druckabhängige Lösungs- und Diffusionsvorgänge bei der Eliminierung der Lufteinschlüsse sowie Wechselwirkungen zwischen elastischen Geweben und strömender Matrix ab. Zentrales Ergebnis der Untersuchung stellt ein abgeleitetes System von funktionalen Abhängigkeiten dar, welches einen ersten, grundlegenden Schritt zur Erstellung eines umfassenden Simulationsmodells des komplexen Prozesses bildet. Hiermit schließt die vorliegende Arbeit erstmals eine Lücke zwischen anlagenspezifischen Versuchsreihen und der allgemeinen numerischen Prozeßsimulation, die es ermöglicht, das
Imprägnierungs- und Konsolidierungsverhalten gewebeverstärkter thermoplastischer Halbzeuge auf experimenteller Basis anlagenunabhängig zu beschreiben. Dazu wurden die regelbaren Prozeßgrößen Verarbeitungstemperatur T (°K), Verarbeitungszeit t (s) und
Konsolidierungsdruck P (Pa) zu einer dimensionslosen, matrixspezifischen Prozeßkonstanten - B-Faktor (tP/n(T))- zusammengefaßt, die den Verarbeitungszyklus energetisch und zeitlich bilanziert. Diese Vorgehensweise erlaubt die Untersuchung des funktionalen Zusammenhangs zwischen Prozeßregelgrößen und Imprägnierungsqualität innerhalb bestimmter Grenzen sowie den Vergleich verschiedenartiger diskontinuierlicher und kontinuierlicher Anlagentypen und
die Ableitung von Substitutionsbeziehungen zwischen den Regelgrößen. Dabei konnte gezeigt werden, daß die imprägnierungsbedingte Abnahme der Halbzeugdicke in Abhängigkeit des B-Faktors unabhängig von der verwendeten Anlagentechnik einem exponentiellen Gesetz folgt, dessen halbzeugspezifische Regressionskoeflizienten die während der Imprägnierung und Konsolidierung auftretenden Effekte zusammenfassen und die Ableitung optimaler Prozeßeinstellungen erlauben. Damit ist es möglich, für bestimmte Materialpaarungen mit Hilfe des B-Faktors einen Verarbeitungsbereich zu identifizieren, der aufgrund der
anlagenunabhängigen Betrachtungsweise der Parameter Temperatur, Imprägnierzeit und Konsolidierungsdruck
unter Berücksichtigung verschiedener Randbedingungen prinzipiell auf jede beliebige Anlagenkonfiguration zur Imprägnierung und Konsolidierung übertragen werden kann. Dies schließt deshalb nicht nur diskontinuierliche und kontinuierliche Prozesse zur Herstellung flächiger Halbzeuge, sondern darüber hinaus auch Verfahren zur Weiterverarbeitung dieser Materialien ein. Für jede potentielle Materialpaarung kann, ähnlich wie bei rheologischen Kennwerten für Kunststoffe, mit standardisierten Methoden eine Datenbasis geschaffen werden, die die Abhängigkeit des Imprägnierungsgrades von den Verarbeitungsbedingungen beschreibt. Damit kann der Versuchsaufwand bei der Einführung eines neuen Werkstoffsystems auf einer Anlage reduziert, die Verarbeitung wirtschaftlich optimiert, die Beanspruchung der Werkstoffkomponenten bei der Verarbeitung minimiert und die Einsatzstoffe verarbeitungsgerecht modifiziert werden.
A fundamental variance reduction technique for Monte Carlo integration in the framework of integro-approximation problems is
presented. Using the method of dependent tests a successive hierarchical function approximation algorithm is developed, which
captures discontinuities and exploits smoothness in the target function. The general mathematical scheme and its highly efficient
implementation are illustrated for image generation by ray tracing,
yielding new and much faster image synthesis algorithms.
We study the global solution of Fredholm integral equations of the second kind by the help of Monte Carlo methods. Global solution means that we seek to approximate the full solution function. This is opposed to the usual applications of Monte Carlo, were one only wants to approximate a functional of the solution. In recent years several researchers developed Monte Carlo methods also for the global problem. In this paper we present a new Monte Carlo algorithm for the global solution of integral equations. We use multiwavelet expansions to approximate the solution. We study the behaviour of variance on increasing levels, and based on this, develop a new variance reduction technique. For classes of smooth kernels and right hand sides we determine the convergence rate of this algorithm and show that it is higher
than those of previously developed algorithms for the global problem. Moreover, an information-based complexity analysis shows that our algorithm is optimal among all stochastic algorithms of the same computational
cost and that no deterministic algorithm of the same cost can reach its convergence rate.
Approximation properties of the underlying estimator are used to improve the efficiency of the method of dependent tests. A multilevel approximation procedure is developed such that in each level the number of samples is balanced with the level-dependent variance, resulting in a considerable reduction of the overall computational cost. The new technique is applied to the Monte Carlo estimation of integrals depending on a parameter.
Im Bereich des Software Engineering werden komplexe Software-Entwicklungsprojekte betrachtet. Im Rahmen dieser Projekte werden große Mengen von Informationen bearbeitet. Diese Informationen werden in Software-Artefakten (z.B. in Projektplänen oder Entwicklungsdokumenten, wie Anforderungsbeschreibungen)
festgehalten. Die Artefakte werden während der Entwicklung und der Wartung eines Softwaresystems häufig geändert. Änderungen einer Information in einem Artefakt haben häufig Änderungen
im selben und in anderen Artefakten zur Folge, da Beziehungen innerhalb und zwischen den in den Artefakten festgehaltenen Informationen bestehen. Die Beziehungen liegen meist nicht explizit vor, so daß die Konsequenzen einer Änderung schwer zu überblicken sind. In dieser Arbeit wurde ein Verfolgbarkeitsansatz ausgewählt, der den Benutzer bei der Durchführung von Änderungen an Artefakten unterstützt. Unterstützung bedeutet hierbei, daß der Aufwand zur Durchführung einer Änderung reduziert wird und weniger Fehler bei der Durchführung gemacht werden.
In der Arbeit wurden Anforderungen an einen auszuwählenden Verfolgbarkeitsansatz gestellt. Eine Anforderung war, daß er auf verschiedene Bereiche des Software Engineering, wie z.B. Systementwurf oder Meßplanung, mit jeweils sehr unterschiedlichen Artefakten, anwendbar sein sollte. Die durchgeführte
Literaturrecherche und die anschließende Bewertung anhand der gestellten Anforderungen ergaben, daß das Prinzip der Metamodellierung in Verbindung mit Wissensbankverwaltungssystemen ein geeigneter Verfolgbarkeitsansatz ist. Eine Evaluation, die sich auf Fallstudien aus den Bereichen
"Objektorientierter Entwurf mit UML" und "Meßplanung mit GQM" bezog, ergab, daß das Wissensbankverwaltungssystem
ConceptBase, das auf der Wissensrepräsentationssprache 0-Telos basiert, ein geeignetes Werkzeug zur Unterstützung des Verfolgbarkeitsansatzes ist.
We consider a Darcy flow model with saturation-pressure relation extended
with a dynamic term, namely, the time derivative of the saturation.
This model was proposed in works of J.Hulshof and J.R.King (1998), S.M.Hassanizadeh and W.G.Gray (1993),
F.Stauffer (1978).
We restrict ourself to one spatial dimension and strictly positive
initial saturation. For this case we transform the initial-boundary value
problem into combination of elliptic boundary-value problem and initial
value problem for abstract Ordinary Differential Equation. This splitting
is rather helpful both for theoretical aspects and numerical methods.
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Die Kenntnis der Transportmechanismen von polaren und unpolaren Molekülen durch biologische Membranen ist notwendig für das Verständnis von vielen biologischen Vorgängen. Die vorliegende Arbeit soll einen Beitrag zum Verständnis des Transportes von kleinen Molekülen durch Phospholipidmodellmembranen liefern. Hierzu wurden kinetische und kalorimetrische Messungen an Lipidvesikeln durchgeführt. Besonders großes Interesse bestand darin, zu klären, wie diese Moleküle die Membran durchqueren. Um das Permeationsverhalten von Wasser zu erforschen, wurden systematische Untersuchungen der osmotisch getriebenen und der diffusionskontrollierten Wasserpermeation an Lipiddoppelschichten, hergestellt aus Phospholipiden mit unterschiedlichen Kopfgruppen und unterschiedlichen Fettsäureketten durchgeführt. Dabei wurde auch die Permeationsgeschwindigkeit im Phasenumwandlungsbereich untersucht. Die diffusionskontrollierte Wasserpermeation wird mit Hilfe des H2O/D2O-Austauschverfahrens gemessen und bei osmotischen Messungen erzeugt man einen Konzentrationsgradienten zwischen intra- und extravesikulärem Raum. Es wurde für alle Lipide und Lipidgemische eine sprunghafte Zunahme der osmotischen und diffusiven Wasserpermeation an der Hauptphasenumwandlung gel -> flüssigkristallin gefunden. Die Permeabilitätskoeffizienten für die osmotische Wasserpermeation lagen bei allen Messungen um den Faktor 100 höher als die Werte für die diffusionskontrollierte Wasserpermeation. Im Phasenumwandlungsbereich durchlaufen die Permeabilitätskoeffizienten ein Maximum. Die experimentell gewonnenen Daten lassen einen Wassertransport durch transiente Poren, die sich durch Defektstellen und thermische Fluktuationen in der Doppelschicht bilden, vermuten und widersprechen einem Löslichkeitsdiffusionsmechanismus. Um den Einfluß des Konzentrationsgradienten auf die Permeation näher zu untersuchen, wurden osmotische Messungen mit unterschiedlichen Harnstoffkonzentrationen durchgeführt. Es zeigte sich, daß die Wasserpermeation abhängig vom angelegten Konzentrationsgradienten war, während die Harnstoffpermeation keine Abhängigkeit zeigte. Die stark unterschiedlichen Permeabilitätskoeffizienten der beiden Moleküle legen den Verdacht nahe, daß sie auf unterschiedlichen Wegen die Lipiddoppelschicht durchdringen. Um das Permeationsverhalten von kleinen Molekülen aufzuklären, wurden Messungen der diffusionskontrollierten Permeation vorgenommen. Desweiteren war von Interesse ob durch den Einbau von Detergensmoleküle in die Lipidmembran die Permeationseigenschaften der Moleküle verändert werden. Mit Hilfe der gewonnen Daten sind Rückschlüsse auf den Mechanismus der Permeation von kleinen Molekülen durch biologische Membranen möglich.
Abstract: Random matrix theory (RMT) is a powerful statistical tool to model spectral fluctuations. In addition, RMT provides efficient means to separate different scales in spectra. Recently RMT has found application in quantum chromodynamics (QCD). In mesoscopic physics, the Thouless energy sets the universal scale for which RMT applies. We try to identify the equivalent of a Thouless energy in complete spectra of the QCD Dirac operator with staggered fermions and SU_(2) lattice gauge fields. Comparing lattice data with RMT predictions we find deviations which allow us to give an estimate for this scale.
Beyond the Thouless energy
(1999)
Abstract: The distribution and the correlations of the small eigenvalues of the Dirac operator are described by random matrix theory (RMT) up to the Thouless energy E_= 1 / sqrt (V), where V is the physical volume. For somewhat larger energies, the same quantities can be described by chiral perturbation theory (chPT). For most quantities there is an intermediate energy regime, roughly 1/V < E < 1/sqrt (V), where the results of RMT and chPT agree with each other. We test these predictions by constructing the connected and disconnected scalar susceptibilities from Dirac spectra obtained in quenched SU(2) and SU(3) simulations with staggered fermions for a variety of lattice sizes and coupling constants. In deriving the predictions of chPT, it is important totake into account only those symmetries which are exactly realized on the lattice.
Abstract: Recently, the chiral logarithms predicted by quenched chiral perturbation theory have been extracted from lattice calculations of hadron masses. We argue that the deviations of lattice results from random matrix theory starting around the so-called Thouless energy can be understood in terms of chiral perturbation theory as well. Comparison of lattice data with chiral perturbation theory formulae allows us to compute the pion decay constant. We present results from a calculation for quenched SU(2) with Kogut-Susskind fermions at ß = 2.0 and 2.2.
Abstract: Recently, the contributions of chiral logarithms predicted by quenched chiral perturbation theory have been extracted from lattice calculations of hadron masses. We argue that a detailed comparison of random matrix theory and lattice calculations allows for a precise determination of such corrections. We estimate the relative size of the m log(m), m, and m^2 corrections to the chiral condensate for quenched SU(2).
Abstract: We describe a general technique that allows for an ideal transfer of quantum correlations between light fields and metastable states of matter. The technique is based on trapping quantum states of photons in coherently driven atomic media, in which the group velocity is adiabatically reduced to zero. We discuss possible applications such as quantum state memories, generation of squeezed atomic states, preparation of entangled atomic ensembles and quantum information processing.
Abstract: We show that it is possible to "store" quantum states of single-photon fields by mapping them onto collective meta-stable states of an optically dense, coherently driven medium inside an optical resonator. An adiabatic technique is suggested which allows to transfer non-classical correlations from traveling-wave single-photon wave-packets into atomic states and vise versa with nearly 100% efficiency. In contrast to previous approaches involving single atoms, the present technique does not require the strong coupling regime corresponding to high-Q micro-cavities. Instead, intracavity Electromagnetically Induced Transparency is used to achieve a strong coupling between the cavity mode and the atoms.
Mirrorless oscillation based on resonantly enhanced 4-wave mixing: All-order analytic solutions
(1999)
Abstract: The phase transition to mirrorless oscillation in resonantly enhanced four-wave mixing in double-A systems are studied analytically for the ideal case of infinite lifetimes of ground-state coherences. The stationary susceptibilities are obtained in all orders of the generated fields and analytic solutions of the coupled nonlinear differential equations for the field amplitudes are derived and discussed.
Abstract: We utilize the generation of large atomic coherence to enhance the resonant nonlinear magneto-optic effect by several orders of magnitude, thereby eliminating power broadening and improving the fundamental signal-to-noise ratio. A proof-of-principle experiment is carried out in a dense vapor of Rb atoms. Detailed numerical calculations are in good agreement with the experimental results. Applications such as optical magnetometry or the search for violations of parity and time reversal symmetry are feasible.
Abstract: Spontaneous emission and Lamb shift of atoms in absorbing dielectrics are discussed. A Green's-function approach is used based on the multipolar interaction Hamiltonian of a collection of atomic dipoles with the quantised radiation field. The rate of decay and level shifts are determined by the retarded Green's-function of the interacting electric displacement field, which is calculated from a Dyson equation describing multiple scattering. The positions of the atomic dipoles forming the dielectrics are assumed to be uncorrelated and a continuum approximation is used. The associated unphysical interactions between different atoms at the same location is eliminated by removing the point-interaction term from the free-space Green's-function (local field correction). For the case of an atom in a purely dispersive medium the spontaneous emission rate is altered by the well-known Lorentz local-field factor. In the presence of absorption a result different from previously suggested expressions is found and nearest-neighbour interactions are shown to be important.
Abstract: We aim to establish a link between path-integral formulations of quantum and classical field theories via diagram expansions. This link should result in an independent constructive characterisation of the measure in Feynman path integrals in terms of a stochastic differential equation (SDE) and also in the possibility of applying methods of quantum field theory to classical stochastic problems. As a first step we derive in the present paper a formal solution to an arbitrary c-number SDE in a form which coincides with that of Wick's theorem for interacting bosonic quantum fields. We show that the choice of stochastic calculus in the SDE may be regarded as a result of regularisation, which in turn removes ultraviolet divergences from the corresponding diagram series.
We show that the solution to an arbitrary c-number stochastic differential equation (SDE) can be represented as a diagram series. Both the diagram rules and the properties of the graphical elements reflect causality properties of the SDE and this series is therefore called a causal diagram series. We also discuss the converse problem, i.e. how to construct an SDE of which a formal solution is a given causal diagram series. This then allows for a nonperturbative summation of the diagram series by solving this SDE, numerically or analytically.
Abstract: We propose a simple method for measuring the populations and the relative phase in a coherent superposition of two atomic states. The method is based on coupling the two states to a third common (excited) state by means of two laser pulses, and measuring the total fluorescence from the third state for several choices of the excitation pulses.
Abstract: We present experimental and theoretical results of a detailed study of laser-induced continuum structures (LICS) in the photoionization continuum of helium out of the metastable state 2s^1 S_0. The continuum dressing with a 1064 nm laser, couples the same region of the continuum to the 4s^1 S_0 state. The experimental data, presented for a range of intensities, show pronounced ionization suppression (by asmuch as 70% with respect to the far-from-resonance value) as well as enhancement, in a Beutler-Fano resonance profile. This ionization suppression is a clear indication of population trapping mediated by coupling to a contiuum. We present experimental results demonstrating the effect of pulse delay upon the LICS, and for the behavior of LICS for both weak and strong probe pulses. Simulations based upon numerical solution of the Schrödinger equation model the experimental results. The atomic parameters (Rabi frequencies and Stark shifts) are calculated using a simple model-potential method for the computation of the needed wavefunctions. The simulations of the LICS profiles are in excellent agreement with experiment. We also present an analytic formulation of pulsed LICS. We show that in the case of a probe pulse shorter than the dressing one the LICS profile is the convolution of the power spectra of the probe pulse with the usual Fano profile of stationary LICS. We discuss some consequences of deviation from steady-state theory.
We present results from a study of the coherence properties of a system involving three discrete states coupled to each other by two-photon processes via a common continuum. This tripod linkage is an extension of the standard laser-induced continuum structure (LICS) which involves two discrete states and two lasers. We show that in the tripod scheme, there exist two population trapping conditions; in some cases these conditions are easier to satisfy than the single trapping condition in two-state LICS. Depending on the pulse timing, various effects can be observed. We derive some basic properties of the tripod scheme, such as the solution for coincident pulses, the behaviour of the system in the adiabatic limit for delayed pulses, the conditions for no ionization and for maximal ionization, and the optimal conditions for population transfer between the discrete states via the continuum. In the case when one of the discrete states is strongly coupled to the continuum, the population dynamics reduces to a standard two-state LICS problem (involving the other two states) with modified parameters; this provides the opportunity to customize the parameters of a given two-state LICS system.
Abstract: In this paper we present a renormalizability proof for spontaneously broken SU (2) gauge theory. It is based on Flow Equations, i.e. on the Wilson renormalization group adapted to perturbation theory. The power counting part of the proof, which is conceptually and technically simple, follows the same lines as that for any other renormalizable theory. The main difficulty stems from the fact that the regularization violates gauge invariance. We prove that there exists a class of renormalization conditions such that the renormalized Green functions satisfy the Slavnov-Taylor identities of SU (2) Yang-Mills theory on which the gauge invariance of the renormalized theory is based.
Spektralsequenzen
(1999)
Magnetic anisotropies of MBE-grown fcc Co(110)-films on Cu(110) single crystal substrates have been determined by using Brillouin light scattering(BLS) and have been correlated with the structural properties determined by low energy electron diffraction (LEED) and scanning tunneling microscopy (STM). Three regimes of film growth and associated anisotropy behavior are identified: coherent growth in the Co film thickness regime of up to 13 Å, in-plane anisotropic strain relaxation between 13 Å and about 50 Å and inplane isotropic strain relaxation above 50 Å. The structural origin of the transition between anisotropic and isotropic strain relaxation was studied using STM. In the regime of anisotropic strain relaxation long Co stripes with a preferential [ 110 ]-orientation are observed, which in the isotropic strain relaxation regime are interrupted in the perpendicular in-plane direction to form isotropic islands. In the Co film thickness regime below 50 Å an unexpected suppression of the magnetocrystalline anisotropy contribution is observed. A model calculation based on a crystal field formalism and discussed within the context of band theory, which explicitly takes tetragonal misfit strains into account, reproduces the experimentally observed anomalies despite the fact that the thick Co films are quite rough.
Absract: We report on measurements of the two-dimensional intensity distribtion of linear and non-linear spin wave excitations in a LuBiFeO film. The spin wave intensity was detected with a high-resolution Brillouinlight scatteringspectroscopy setup. The observed snake-like structure of the spin wave intensity distribution is understood as a mode beating between modes with different lateral spin wave intensity distributions. The theoretical treatment of the linear regime is performed analytically, whereas the propagation of non-linear spin waves is simulated by a numerical solution of a non-linear Schrödinger equation with suitable boundary conditions.
Das Skript vermittelt die für eine Beschlagwortung nach den Regeln für den Schlagwortkatalog (RSWK) notwendigen Grundkenntnisse. Darüber hinaus wird beschrieben, wie die Schlagwortdaten in der Verbunddatenbank des Südwestdeutschen Bibliotheksverbund (SWB) strukturiert sind, welche Prinzipien bei der kooperativen Beschlagwortung im SWB einzuhalten sind und wie die Daten erfasst werden müssen . Des weiteren werden die in der Datenbank des SWB realisierten Suchmöglichkeiten aufgezeigt und aufgelistet, wie die dazugehörigen Suchbefehle lauten. Für Fragen der Organisation des Geschäftsgang der Teilnehmerbibliotheken wird exemplarisch der Arbeitsablauf an der UB Kaiserslautern dargestellt.
Abstract: The periodic bounce configurations responsible for quantum tunneling are obtained explicitly and are extended to the finite energy case for minisuperspace models of the Universe. As a common feature of the tunneling models at finite energy considered here we observe that the period of the bounce increases with energy monotonically. The periodic bounces do not have bifurcations and make no contribution to the nucleation rate except the one with zero energy. The sharp first order phase transition from quantum tunneling to thermal activation is verified with the general criterions.
We consider a (2 + 1)-dimensional mechanical system with the Lagrangian linear in the torsion of a light-like curve. We give Hamiltonian formulation of this system and show that its mass and spin spectra are defined by one-dimensional nonrelativistic mechanics with a cubic potential. Consequently, this system possesses the properties typical of resonance-like particles.
Starting from the Hamiltonian operator of the noncompensated two-sublattice model of a small antiferromagnetic particle, we derive the e effective Lagrangian of a biaxial antiferromagnetic particle in an external magnetic field with the help of spin-coherent-state path integrals. Two unequal level-shifts induced by tunneling through two types of barriers are obtained using the instanton method. The energy spectrum is found from Bloch theory regarding the periodic potential as a superlattice. The external magnetic field indeed removes Kramers' degeneracy, however a new quenching of the energy splitting depending on the applied magnetic field is observed for both integer and half-integer spins due to the quantum interference between transitions through two types of barriers.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
The development of complex software systems is driven by many diverse and sometimes contradictory requirements such as correctness and maintainability of resulting products, development costs, and time-to-market. To alleviate these difficulties, we propose a development method for distributed systems that integrates different basic approaches. First, it combines the use of the formal description technique SDL with software reuse concepts. This results in the definition of a use-case driven, incremental development method with SDL-patterns as the main reusable artifacts. Experience with this approach has shown that there are several other factors of influence, such as the quality of reuse artifacts or the experience of the development team. Therefore, we further combined our SDL-pattern approach with an improvement methodology known from the area of experimental software engineering. In order to demonstrate the validity of this integrating approach, we sketch some representative outcomings of a case study.
Die Entwicklung des Zusammenlebens der Menschen geht immer mehr den Weg zur Informations- und Mediengesellschaft. Nicht zuletzt aufgrund der weltweiten Vernetzung ist es uns in minutenschnelle möglich, fast alle erdenklichen Informationen zu Hause auf den Bildschirm geliefert zu bekommen. Es findet sich so jeder zwar in einer gewissen schützenden Anonymität, aber dennoch einer genauso gewollten, wie erschreckenden Transparenz wieder. Jeder klassifiziert in gewisser Weise Informationen, die er preisgibt etwa in öffentliche, persönliche und vertrauliche Nachrichten. Gerade hier müssen Techniken und Methoden bereitstehen, um in dieser anonymen Transparenz Informationen, die nur für spezielle Empfänger gedacht sind vor unbefugtem Zugriff zu schützen und nur denjenigen zugänglich zu machen, die dazu berechtigt sind. Diesen Wunsch hat nicht nur allgemein die Gesellschaft, sondern im speziellen wird die Entwicklung auf diesem Gebiet gerade von staatlichen und militärischen Einrichtungen gefordert und gefördert. So sind häufig eingesetzte Werkzeuge die Methoden der Kryptologie, aber solange es geheime Nachrichten gibt, wird es Angreifer geben, die versuchen, sich unberechtigten Zugang zu diesen Informationen zu verschaffen. Da die ständig wachsende Leistung von EDV-Anlagen das "Knacken" von Verschlüsselungsmethoden begünstigt, muß zu immer sichereren Chiffrierverfahren übergegangen werden. Dieser Umstand macht das Thema Kryptologie für den Moment hochaktuell und auf lange Sicht zu einem zeitlosen Forschungsgebiet der Mathematik und Informatik.
We consider three applications of impulse control in financial mathematics, a cash management problem, optimal control of an exchange rate, and portfolio optimisation under transaction costs. We sketch the different ways of solving these problems with the help of quasi-variational inequalities. Further, some viscosity solution results are presented.
Continuous and discrete superselection rules induced by the interaction with the environment are investigated for a class of exactly soluble Hamiltonian models. The environment is given by a Boson field. Stable superselection sectors can only emerge if the low frequences dominate and the ground state of the Boson field disappears due to infrared divergence. The models allow uniform estimates of all transition matrix elements between different superselection sectors.
The paper studies quantum states of a Bloch particle in presence of external ac and dc fields. Provided the period of the ac field and the Bloch period are commensurate, an effective scattering matrix is introduced, the complex poles of which are the system quasienergy spectrum. The statistics of the resonance width and the Wigner delay time shows a close relation of the problem to random matrix theory of chaotic scattering.
A novel method is presented which allows a fast computation of complex energy resonance states in Stark systems, i.e. systems in a homogeneous field. The technique is based on the truncation of a shift-operator in momentum space. Numerical results for space periodic and non-periodic systems illustrate the extreme simplicity of the method.
The paper studies metastable states of a Bloch electron in the presence of external ac and dc fields. Provided resonance condition between period of the driving frequency and the Bloch period, the complex quasienergies are numerically calculated for two qualitatively different regimes (quasiregular and chaotic) of the system dynamics. For the chaotic regime an effect of quantum stabilization, which suppresses the classical decay mechanism, is found. This effect is demonstrated to be a kind of quantum interference phenomenon sensitive to the resonance condition.
A new method for calculating Stark resonances is presented and applied for illustration to the simple case of a one-particle, one-dimensional model Hamiltonian. The method is applicable for weak and strong dc fields. The only need, also for the case of many particles in multi-dimensional space, are either the short time evolution matrix elements or the eigenvalues and Fourier components of the eigenfunctions of the field-free Hamiltonian.
Sowohl die gesteigerte Komplexität der Signalverarbeitungsalgorithmen und das umfangreichere Diensteangebot als auch die zum Erzielen der hohen erforderlichen Rechenleistungen erforderliche Parallelverarbeitung führen künftig zu einer stark ansteigenden Komplexität der digitalen Signalverarbeitung in Mobilfunksystemen. Diese Komplexität ist nur mit einem hierarchischen Modellierungs- und Entwurfsprozeß beherrschbar. Während die niedrigeren Hierarchieebenen der Programmierung und des Hardwareentwurfs bereits heute gut beherrscht werden, besteht noch Unklarheit bei den Entwurfsverfahren auf der höheren Systemebene. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs auf höheren Hierarchieebenen. Hierzu wird der Entwurf eines Experimentalsystems für das JD-CDMA-Mobilfunkkonzept auf der Systemebene betrachtet. Es wird gezeigt, daß das Steuerkreismodell ein angemessenes Modell für die digitale Signalverarbeitung in einem Mobilfunksystem auf der Systemebene ist. Das Steuerkreismodell läßt sich einerseits direkt auf die in zukünftigen Mobilfunksystemen einzusetzenden Multiprozessorsysteme abbilden und entspricht andererseits auch der nachrichtentechnischen Sichtweise der Aufgabenstellung, in der das Mobilfunksystem durch die auszuführenden Algorithmen beschrieben wird. Das Steuerkreismodell ist somit ein geeignetes Bindeglied, um von der Aufgabenstellung zu einer Implementierung zu gelangen. Weiterhin wird gezeigt, daß das Steuerkreismodell sehr modellierungsmächtig ist, und sein Einsatz im Gegensatz zu vielen bereits bekannten Entwurfsverfahren nicht auf mittels Datenflußmodellen beschreibbare Systeme begrenzt ist. Die klassischen, aus der von Datenflußmodellen ausgehenden Systemsynthese bekannten Entwurfsschritte Allokierung, Ablaufplanung und Bindung können im Kontext der Steuerkreismodellierung als Verfahren zur Konstruktion der Steuerwerksaufgabe verstanden werden. Speziell für das Experimentalsystem werden zwei verschiedene Ablaufsteuerungsstrategien modelliert und untersucht. Die volldynamische Ablaufsteuerung wird zur Laufzeit durchgeführt und ist daher nicht darauf angewiesen, daß die auszuführenden Abläufe a priori bekannt sind. Bei der selbsttaktenden Ablaufsteuerung werden die hier a priori bekannten Abläufe zum Zeitpunkt der Systemkonstruktion fest geplant, und zur Laufzeit wird dieser Plan nur noch ausgeführt. Schließlich werden noch die Auswirkungen der paketvermittelten burstförmigen Nachrichtenübertragung auf die digitale Signalverarbeitung in zukünftigen Mobilfunksystemen untersucht. Es wird gezeigt, daß es durch Datenpufferung sehr gut möglich ist, die Rechenlast in einem Mobilfunksystem zu mitteln.
We present an entropy concept measuring quantum localization in dynamical systems based on time averaged probability densities. The suggested entropy concept is a generalization of a recently introduced [PRL 75, 326 (1995)] phase-space entropy to any representation chosen according to the system and the physical question under consideration. In this paper we inspect the main characteristics of the entropy and the relation to other measures of localization. In particular the classical correspondence is discussed and the statistical properties are evaluated within the framework of random vector theory. In this way we show that the suggested entropy is a suitable method to detect quantum localization phenomena in dynamical systems.
The Filter-Diagonalization Method is applied to time periodic Hamiltonians and used to find selectively the regular and chaotic quasienergies of a driven 2D rotor. The use of N cross-correlation probability amplitudes enables a selective calculation of the quasienergies from short time propagation to the time T (N). Compared to the propagation time T (1) which is required for resolving the quasienergy spectrum with the same accuracy from auto-correlation calculations, the cross-correlation time T (N) is shorter by the factor N , that is T (1) = N T (N).
The global dynamical properties of a quantum system can be conveniently visualized in phase space by means of a quantum phase space entropy in analogy to a Poincare section in classical dynamics for two-dimensional time independent systems. Numerical results for the Pullen Edmonds systems demonstrate the properties of the method for systems with mixed chaotic and regular dynamics.
In this paper we deal with the determination of the whole set of Pareto-solutions of location problems with respect to Q general criteria.These criteria include median, center or cent-dian objective functions as particular instances.The paper characterizes the set of Pareto-solutions of a these multicriteria problems. An efficient algorithm for the planar case is developed and its complexity is established. Extensions to higher dimensions as well as to the non-convexcase are also considered.The proposed approach is more general than the previously published approaches to multi-criteria location problems and includes almost all of them as particular instances.
In a discrete-time financial market setting, the paper relates various concepts introduced for dynamic portfolios (both in discrete and in continuous time). These concepts are: value preserving portfolios, numeraire portfolios, interest oriented portfolios, and growth optimal portfolios. It will turn out that these concepts are all associated with a unique martingale measure which agrees with the minimal martingale measure only for complete markets.
Facility Location Problems are concerned with the optimal location of one or several new facilities, with respect to a set of existing ones. The objectives involve the distance between new and existing facilities, usually a weighted sum or weighted maximum. Since the various stakeholders (decision makers) will have different opinions of the importance of the existing facilities, a multicriteria problem with several sets of weights, and thus several objectives, arises. In our approach, we assume the decision makers to make only fuzzy comparisons of the different existing facilities. A geometric mean method is used to obtain the fuzzy weights for each facility and each decision maker. The resulting multicriteria facility location problem is solved using fuzzy techniques again. We prove that the final compromise solution is weakly Pareto optimal and Pareto optimal, if it is unique, or under certain assumptions on the estimates of the Nadir point. A numerical example is considered to illustrate the methodology.
Die Untersuchung von semiklassischen Näherungen des Zeitentwicklungsoperators in der Quantenmechanik ist sowohl von fundamentalem als auch von didaktischem Interesse. Das fundamentale Interesse ist in der Beschreibung des Zusammenhangs zwischen klassischer Mechanik und Quantenmechanik begründet, das didaktische erklärt sich aus dem anschaulichen Zugang, den die Beschreibung von quantenmechanischen Prozessen durch klassische Größen liefert. Besonders klar wird dieser Zusammenhang, wenn eine Phasenraumdarstellung der Quantenmechanik betrachtet wird. Eine erste semiklassische Näherung für den Propagator im Phasenraum, den sogenannten "coherent state"-Propagator, wurde von Klauder vorgestellt. Weissman motivierte diese Näherung durch die Erweiterung der semiklassischen Korrespondenzrelationen auf den Begriff der kohärenten Variablen. In späteren Veröffentlichungen wird auf eine rigorose Herleitung mittels Pfadintegralmethoden verwiesen, die aber bis zum heutigen Tage nicht verwirklicht wurde. Ein zentraler Punkt dieser Arbeit wird es sein, zum ersten Mal diese alternative Herleitung vollständig zu präsentieren. Die Eigenschaften der semiklassischen Näherung des Phasenraumpropagators wurden für eine Reihe fundamentaler Quantenprozesse untersucht. Ausgehend von der semiklassischen Näherung des Phasenraumpropagators ergibt sich durch eine Ortsraumdarstellung desselben der Herman-Kluk-Propagator. Dieser gehört zur Klasse der Anfangswertdarstellungen ("initial value representations", IVRs), die die sonst bei semiklassischen Näherungen auftretenden Schwierigkeiten wie Kaustiken, Singularitäten und beidseitige Randbedingungen für die zugrundeliegenden klassischen Bahnen umgehen. Dies erlaubt ihre Anwendung auch auf Quantensysteme, deren klassisches Äquivalent chaotische Phasenraumbereiche enthält. Erste Untersuchungen hierzu wurden in unserer Arbeitsgruppe Ende 1997 durchgeführt. Die Frage nach der Klärung grundsätzlicher Eigenschaften des verwendeten Propagators und der verwendeten Methode sowie die Beleuchtung des theoretischen Hintegrunds lieferten die Anregung für diese Arbeit. Zu dieser Arbeit: In dieser Arbeit wird die semiklassische Näherung für den Phasenraumpropagator und hierauf aufbauend der Herman-Kluk-Propagator hergeleitet und ihre Eigenschaften untersucht. Im einzelnen gliedert sich die Arbeit folgendermaßen: In einem ersten, einführenden Kapitel werden kurz die grundlegenden Begriffe aus den drei Gebieten der klassischen Mechanik, der Quantenmechanik und der Semiklassik erläutert. Das zweite Kapitel gibt einen Überblick über die semiklassische Theorie nach Miller und Weissman. Der zentrale Begriff ist hierbei der der Korrespondenzrelation, der einen direkten Zusammenhang zwischen klassischen Größen (erzeugenden Funtionen) und unitären Transformationen in der Quantenmechanik liefert. Ein Spezialfall dieser Korrespondenz ist der Zusammenhang zwischen der Zeitentwicklung eines quantenmechanischen kohärenten Zustands und der Evolution klassischer Bahnen. Im zentralen dritten Abschnitt wird erstmalig eine vollständige Herleitung des Phasenraumpropagators mittels Pfadintegralmethoden gegeben. Aus dieser Herleitung wird klar, daß eines der Probleme der Semiklassik in der Frage liegt, welche Hamiltonfunktion einem gegebenen Hamiltonoperator zuzuordnen ist. Auch der durch die semiklassischen Näherung eingeführte Fehler wird diskutiert. Anschließend wird aus dem "coherent state"-Propagator der Herman-Kluk-Propagator hergeleitet und dessen Eigenschaften besprochen. Das vierte Kapitel beschreibt in Vorgriff auf den letzten Abschnitt die numerische Implementierung des Herman-Kluk-Propagators und verschiedene Methoden zur Gewinnung von Energieeigenwerten eines Quantensystems. Hierzu wird eine phasenraumsensitive Integrationsroutine vorgestellt. Abschließend werden die Ergebnisse der numerischen Anwendung des Propagators auf verschiedene, charakteristische Quantensysteme vorgestellt und sowohl mit der exakten Quantenmechanik, als auch mit anderen semiklassischen Methoden verglichen. Dabei werden sowohl die Stärken, als auch die Schwächen dieser Methode deutlich werden.
Value Preserving Strategies and a General Framework for Local Approaches to Optimal Portfolios
(1999)
We present some new general results on the existence and form of value preserving portfolio strategies in a general semimartingale setting. The concept of value preservation will be derived via a mean-variance argument. It will also be embedded into a framework for local approaches to the problem of portfolio optimisation.
Discretizations for the Incompressible Navier-Stokes Equations based on the Lattice Boltzmann Method
(1999)
A discrete velocity model with spatial and velocity discretization based on a lattice Boltzmann method is considered in the low Mach number limit. A uniform numerical scheme for this model is investigated. In the limit, the scheme reduces to a finite difference scheme for the incompressible Navier-Stokes equation which is a projection method with a second order spatial discretization on a regular grid. The discretization is analyzed and the method is compared to Chorin's original spatial discretization. Numerical results supporting the analytical statements are presented.
In this paper we derive fluid dynamic equations byperforming asymptotic analysis for the generalized Boltzmann equationfor polyatomic gases. In particular, we consider the steady state,one-dimensional Boltzmann equation with one additional internal energyand different relaxation times. Moreover, we present a new approachto define coupling procedures for the Boltzmann equation and Navier-Stokesequations based on the 14-moments expansion of Levermore. These coupledmodels are validated by numerical simulations.
We consider a scale discrete wavelet approach on the sphere based on spherical radial basis functions. If the generators of the wavelets have a compact support, the scale and detail spaces are finite-dimensional, so that the detail information of a function is determined by only finitely many wavelet coefficients for each scale. We describe a pyramid scheme for the recursive determination of the wavelet coefficients from level to level, starting from an initial approximation of a given function. Basic tools are integration formulas which are exact for functions up to a given polynomial degree and spherical convolutions.
Moment inequalities for the Boltzmann equation and applications to spatially homogeneous problems
(1999)
Some inequalities for the Boltzmann collision integral are proved. These inequalities can be considered as a generalization of the well-known Povzner inequality. The inequalities are used to obtain estimates of moments of solution to the spatially homogeneous Boltzmann equation for a wide class of intermolecular forces. We obtained simple necessary and sufficient conditions (on the potential) for the uniform boundedness of all moments. For potentials with compact support the following statement is proved. .....
Using an experience factory is one possible concept for supporting and improving reuse in software development. (i.e., reuse of products, processes, quality models, ...). In the context of the Sonderforschungsbereich 501: "Development of Large Systems with Generic methods" (SFB501), the Software Engineering Laboratory (SE Lab) runs such an experience factory as part of the infrastructure services it offers. The SE Lab also provides several tools to support the planning, developing, measuring, and analyzing activities of software development processes. Among these tools, the SE Lab runs and maintains an experience base, the SFB-EB. When an experience factory is utilized, support for experience base maintenance is an important issue. Furthermore, it might be interesting to evaluate experience base usage with regard to the number of accesses to certain experience elements stored in the database. The same holds for the usage of the tools provided by the SE LAB. This report presents a set of supporting tools that were designed to aid in these tasks. These supporting tools check the experience base's consistency and gather information on the usage of SFB-EB and the tools installed in the SE Lab. The results are processed periodically and displayed as HTML result reports (consistency checking) or bar charts (usage profiles).
Manipulating deformable linear objects - Vision-based recognition of contact state transitions -
(1999)
A new and systematic approach to machine vision-based robot manipulation of deformable (non-rigid) linear objects is introduced. This approach reduces the computational needs by using a simple state-oriented model of the objects. These states describe the relation of the object with respect to an obstacle and are derived from the object image and its features. Therefore, the object is segmented from a standard video frame using a fast segmentation algorithm. Several object features are presented which allow the state recognition of the object while being manipulated by the robot.
Comprehensive reuse and systematic evolution of reuse artifacts as proposed by the Quality Improvement Paradigm (QIP) do not only require tool support for mere storage and retrieval. Rather, an integrated management of (potentially reusable) experience data as well as project-related data is needed. This paper presents an approach exploiting object-relational database technology to implement the QIP-driven reuse repository of the SFB 501. Requirements, concepts, and implementational aspects are discussed and illustrated through a running example, namely the reuse and continuous improvement of SDL patterns for developing distributed systems. Based on this discussion, we argue that object-relational database management systems (ORDBMS) are best suited to implement such a comprehensive reuse repository. It is demonstrated how this technology can be used to support all phases of a reuse process and the accompanying improvement cycle. Although the discussions of this paper are strongly related to the requirements of the SFB 501 experience base, the basic realization concepts, and, thereby, the applicability of ORDBMS, can easily be extended to similar applications, i. e., reuse repositories in general.
Die zweikernigen Eisenkomplexe [{CpR(OC)2Fe}2] (1) reagieren mit weißem Phosphor unter milden Bedingungen selektiv und in sehr guten Ausbeuten zu den Tetraphosphabicyclobutanderivaten 3, deren P4-Butterflygerüst durch zwei 17VE-{CpR(OC)2Fe}-Fragmente in exo/exo-Konfiguration stabilisiert ist. Mit der Röntgenstrukturanalyse des Tri-tert-butylderivates 3a konnte erstmals ein Molekül mit einem solchen Strukturinkrement vollständig charakterisiert werden. Sowohl die thermische als auch die photochemische Decarbonylierung von 3 führt zu den Cyclopentaphosphaferrocenderivaten [CpRFe(h5-P5)] (4) und den pseudo-Tripeldeckerkomplexen [{CpRFe}2(m-h4:4-P4)] (5), die sich auch durch die Langzeit-Cothermolyse der Eisendimere [{CpR(OC)2Fe}2] (1) mit überschüssigem weißen Phosphor herstellen lassen. Die beiden Tri-tert-butylderivate 4a und 5a konnten röntgenstrukturanalytisch untersucht werden. Die thermische Umsetzung äquimolarer Mengen der P4-Butterflymoleküle 3 mit Bisphenyl-acetylen führt zu sehr interessanten neuartigen Produkten: So konnte bei der Reaktion von 3a mit Tolan ein ferrocenanaloges Sandwichmolekül 7a, dessen zentrales Eisenatom jeweils von einem Tri-tert-butylcyclopentadienyl- und von einem 1,2,3-Triphospholylliganden h5-artig koordiniert ist, isoliert und ein solcher heteroaromatischer Ligand erstmals kristallstrukturanalytisch charakterisiert werden. Darüber hinaus konnte bei dieser Reaktion ein weiteres Sandwichmolekül - (Tri-tert-butylcyclopentadienyl)(tetraphospholyl)eisen(II) (8a) - NMR-spektroskopisch und massenspektrometrisch nachgewiesen werden. Zusätzlich konnte bei der Umsetzung des Pentaisopropylderivates 3c mit Tolan ein zwar theoretisch vorhergesagter, aber bislang nicht experimentell bestätigter Undecaphosphor-Komplex isoliert und kristallstrukturanalytisch untersucht werden.
The paper shows that characterizing the causal relationship between significant events is an important but non-trivial aspect for understanding the behavior of distributed programs. An introduction to the notion of causality and its relation to logical time is given; some fundamental results concerning the characterization of causality are pre- sented. Recent work on the detection of causal relationships in distributed computations is surveyed. The relative merits and limitations of the different approaches are discussed, and their general feasibility is analyzed.
The Hamiltonian of the \(N\)-particle Calogero model can be expressed in terms of generators of a Lie algebra for a definite class of representations. Maintaining this Lie algebra, its representations, and the flatness of the Riemannian metric belonging to the second order differential operator, the set of all possible quadratic Lie algebra forms is investigated. For \(N = 3\) and \(N = 4\) such forms are constructed explicitly and shown to correspond to exactly solvable Sutherland models. The results can be carried over easily to all \(N\).
Trigonometric invariants are defined for each Weyl group orbit on the root lattice. They are real and periodic on the coroot lattice. Their polynomial algebra is spanned by a basis which is calculated by means of an algorithm. The invariants of the basis can be used as coordinates in any cell of the coroot space and lead to an exactly solvable model of Sutherland type. We apply this construction to the \(F_4\) case.
The task of handling non-rigid one-dimensional objects by a robot manipulation system is investigated. To distinguish between different non-rigid object behaviors, five classes of deformable objects from a robotic point of view are proposed. Additionally, an enumeration of all possible contact states of one-dimensional objects with polyhedral obstacles is provided. Finally, the qualitative motion behavior of linear objects is analyzed for stable point contacts. Experiments with different materials validate the analytical results.
We present an approach to learning cooperative behavior of agents. Our ap-proach is based on classifying situations with the help of the nearest-neighborrule. In this context, learning amounts to evolving a set of good prototypical sit-uations. With each prototypical situation an action is associated that should beexecuted in that situation. A set of prototypical situation/action pairs togetherwith the nearest-neighbor rule represent the behavior of an agent.We demonstrate the utility of our approach in the light of variants of thewell-known pursuit game. To this end, we present a classification of variantsof the pursuit game, and we report on the results of our approach obtained forvariants regarding several aspects of the classification. A first implementationof our approach that utilizes a genetic algorithm to conduct the search for a setof suitable prototypical situation/action pairs was able to handle many differentvariants.
The common wisdom that goal orderings can be used to improve planning performance is nearly as old as planning itself. During the last decades of research several approaches emerged that computed goal orderings for different planning paradigms, mostly in the area of state-space planning. For partial-order, plan-space planners goal orderings have not been investigated in much detail. Mechanisms developed for statespace planning are not directly applicable because partial-order planners do not have a current (world) state. Further, it is not completely clear how plan-space planners should make use of goal orderings. This paper describes an approach to extract goal orderings to be used by the plan-space planner CAPlan. The extraction of goal orderings is based on the analysis of an extended version of operator graphs which previously have been found useful for the analysis of interactions and recursion of plan-space planners.
Die Verwendung von existierenden Planungsansätzen zur Lösung von realen Anwendungs- problemen führt meist schnell zur Erkenntnis, dass eine vorliegende Problemstellung im Prinzip zwar lösbar ist, der exponentiell anwachsende Suchraum jedoch nur die Behandlung relativ kleiner Aufgabenstellungen erlaubt. Beobachtet man jedoch menschliche Planungsexperten, so sind diese in der Lage bei komplexen Problemen den Suchraum durch Abstraktion und die Verwendung bekannter Fallbeispiele als Heuristiken, entscheident zu verkleinern und so auch für schwierige Aufgabenstellungen zu einer akzeptablen Lösung zu gelangen. In dieser Arbeit wollen wir am Beispiel der Arbeitsplanung ein System vorstellen, das Abstraktion und fallbasierte Techniken zur Steuerung des Inferenzprozesses eines nichtlinearen, hierarchischen Planungssystems einsetzt und so die Komplexität der zu lösenden Gesamtaufgabe reduziert.
We describe a hybrid architecture supporting planning for machining workpieces. The archi- tecture is built around CAPlan, a partial-order nonlinear planner that represents the plan already generated and allows external control decision made by special purpose programs or by the user. To make planning more efficient, the domain is hierarchically modelled. Based on this hierarchical representation, a case-based control component has been realized that allows incremental acquisition of control knowledge by storing solved problems and reusing them in similar situations.
We describe a hybrid case-based reasoning system supporting process planning for machining workpieces. It integrates specialized domain dependent reasoners, a feature-based CAD system and domain independent planning. The overall architecture is build on top of CAPlan, a partial-order nonlinear planner. To use episodic problem solving knowledge for both optimizing plan execution costs and minimizing search the case-based control component CAPlan/CbC has been realized that allows incremental acquisition and reuse of strategical problem solving experience by storing solved problems as cases and reusing them in similar situations. For effective retrieval of cases CAPlan/CbC combines domain-independent and domain-specific retrieval mechanisms that are based on the hierarchical domain model and problem representation.
In den letzten Jahren wurden Methoden des fallbasierten Schliessens häufig in Bereichen verwendet, in denen traditionell symbolische Verfahren zum Einsatz kommen, beispielsweise in der Klassifikation. Damit stellt sich zwangsläufig die Frage nach den Unterschieden bzw. der Mächtigkeit dieser Lernverfahren. Jantke [Jantke, 1992] hat bereits Gemeinsamkeiten von Induktiver Inferenz und fallbasierter Klassifikation untersucht. In dieser Arbeit wollen wir einige Zusammenhänge zwischen der Fallbasis, dem Ähnlichkeitsmass und dem zu erlernenden Begriff verdeutlichen. Zu diesem Zweck wird ein einfacher symbolischer Lernalgorithmus (der Versionenraum nach [Mitchell, 1982]) in eine äquivalente, fallbasiert arbeitende Variante transformiert. Die vorgestellten Ergebnisse bestätigen die Äquivalenz von symbolischen und fallbasierten Ansätzen und zeigen die starke Abhängigkeit zwischen dem im System verwendeten Mass und dem zu lernenden Begriff.
Die Mehrzahl aller CBR-Systeme in der Diagnostik verwendet für das Fallretrieval ein numerisches Ähnlichkeitsmass. In dieser Arbeit wird ein Ansatz vorgestellt, bei dem durch die Einführung eines an den Komponenten des zu diagnostizierenden technischen Systems orientierten Ähnlichkeitsbegriffs nicht nur das Retrieval wesentlich verbessert werden kann, sondern sich auch die Möglichkeit zu einer echten Fall- und Lösungstransformation bietet. Dies führt wiederum zu einer erheblichen Verkleinerung der Fallbasis. Die Ver- wendung dieses Ähnlichkeitsbegriffes setzt die Integration von zusätzlichem Wissen voraus, das aus einem qualitativem Modell der Domäne (im Sinne der modellbasierten Diagnostik) gewonnen wird.
Patdex is an expert system which carries out case-based reasoning for the fault diagnosis of complex machines. It is integrated in the Moltke workbench for technical diagnosis, which was developed at the university of Kaiserslautern over the past years, Moltke contains other parts as well, in particular a model-based approach; in Patdex where essentially the heuristic features are located. The use of cases also plays an important role for knowledge acquisition. In this paper we describe Patdex from a principal point of view and embed its main concepts into a theoretical framework.
In nebenläufigen Systemen erleichtert das Konzept der Atomarität vonOperationen, konkurrierende Zugriffe in größere, leichter beherrschbareAbschnitte zu unterteilen. Wenn wir aber Spezifikationen in der forma-len Beschreibungstechnik Estelle betrachten, erweist es sich, daß es un-ter bestimmten Umständen schwierig ist, die Atomarität der sogenanntenTransitionen bei Implementationen exakt einzuhalten, obwohl diese Ato-marität eine konzeptuelle Grundlage der Semantik von Estelle ist. Es wirdaufgezeigt, wie trotzdem sowohl korrekte als auch effiziente nebenläufigeImplementationen erreicht werden können. Schließlich wird darauf hinge-wiesen, daß die das Problem auslösenden Aktionen oft vom Spezifiziererleicht von vorneherein vermieden werden können; und dies gilt auch überden Kontext von Estelle hinaus.
Bestimmung der Ähnlichkeit in der fallbasierten Diagnose mit simulationsfähigen Maschinenmodellen
(1999)
Eine Fallbasis mit bereits gelösten Diagnoseproblemen Wissen über die Struktur der Maschine Wissen über die Funktion der einzelnen Bauteile (konkret und abstrakt) Die hier vorgestellte Komponente setzt dabei auf die im Rahmen des Moltke-Projektes entwickelten Systeme Patdex[Wes91] (fallbasierte Diagnose) und iMake [Sch92] bzw. Make [Reh91] (modellbasierte Generierung von Moltke- Wissensbasen) auf.
The feature interaction problem in telecommunications systems increasingly obstructsthe evolution of such systems. We develop formal detection criteria which render anecessary (but less than sufficient) condition for feature interactions. It can be checkedmechanically and points out all potentially critical spots. These have to be analyzedmanually. The resulting resolution decisions are incorporated formally. Some prototypetool support is already available. A prerequisite for formal criteria is a formal definitionof the problem. Since the notions of feature and feature interaction are often used in arather fuzzy way, we attempt a formal definition first and discuss which aspects can beincluded in a formalization (and therefore in a detection method). This paper describeson-going work.
We present two techniques for reasoning from cases to solve classification tasks: Induction and case-based reasoning. We contrast the two technologies (that are often confused) and show how they complement each other. Based on this, we describe how they are integrated in one single platform for reasoning from cases: The Inreca system.
Zur schnellen Kommunikation zwischen Rechnern werden laufzeiteffiziente Implementationen von Protokoll-Spezifikationen benötigt. Die herkömmliche Schichten-Aufteilung verursacht hohe Kosten. In dieser Projektarbeit wurde eine andere Spezifikationsform, die Methode des strukturierten Produktautomaten, am Beispiel der OSI-Schichten 5 und 6 untersucht. Der Aufwand zur Erstellung und Wartung der Spezifikation und die Laufzeiteffizienz der daraus entstandenen Inplementation wurden mit mehreren anderen Spezifikationsformen verglichen und bewertet. Die Methode des strukturierten Produktautomaten erwies sich dabei als ein geeigneter Spezifikationsstil.
Contrary to symbolic learning approaches, which represent a learned concept explicitly, case-based approaches describe concepts implicitly by a pair (CB; sim), i.e. by a measure of similarity sim and a set CB of cases. This poses the question if there are any differences concerning the learning power of the two approaches. In this article we will study the relationship between the case base, the measure of similarity, and the target concept of the learning process. To do so, we transform a simple symbolic learning algorithm (the version space algorithm) into an equivalent case- based variant. The achieved results strengthen the hypothesis of the equivalence of the learning power of symbolic and case-based methods and show the interdependency between the measure used by a case-based algorithm and the target concept.
Collecting Experience on the Systematic Development of CBR Applications using the INRECA Methodology
(1999)
This paper presents an overview of the INRECA methodology for building and maintaining CBR applications. This methodology supports the collection and reuse of experience on the systematic development of CBR applications. It is based on the experience factory and the software process modeling approach from software engineering. CBR development experience is documented using software process models and stored in different levels of generality in a three-layered experience base. Up to now, experience from 9 industrial projects enacted by all INRECA II partners has been collected.
Automata-Theoretic vs. Property-Oriented Approaches for the Detection of Feature Interactions in IN
(1999)
The feature interaction problem in Intelligent Networks obstructs more and morethe rapid introduction of new features. Detecting such feature interactions turns out to be a big problem. The size of the systems and the sheer computational com-plexity prevents the system developer from checking manually any feature against any other feature. We give an overview on current (verification) approaches and categorize them into property-oriented and automata-theoretic approaches. A comparisonturns out that each approach complements the other in a certain sense. We proposeto apply both approaches together in order to solve the feature interaction problem.
Planning means constructing a course of actions to achieve a specified set of goals when starting from an initial situation. For example, determining a sequence of actions (a plan) for transporting goods from an initial location to some destination is a typical planning problem in the transportation domain. Many planning problems are of practical interest.
MOLTKE is a research project dealing with a complex technical application. After describing the domain of CNCmachining centers and the applied KA methods, we summarize the concrete KA problems which we have to handle. Then we describe a KA mechanism which supports an engineer in developing a diagnosis system. In chapter 6 weintroduce learning techniques operating on diagnostic cases and domain knowledge for improving the diagnostic procedure of MOLTKE. In the last section of this chapter we outline some essential aspects of organizationalknowledge which is heavily applied by engineers for analysing such technical systems (Qualitative Engineering). Finally we give a short overview of the actual state of realization and our future plans.
Most automated theorem provers suffer from the problem that theycan produce proofs only in formalisms difficult to understand even forexperienced mathematicians. Efforts have been made to transformsuch machine generated proofs into natural deduction (ND) proofs.Although the single steps are now easy to understand, the entire proofis usually at a low level of abstraction, containing too many tedioussteps. Therefore, it is not adequate as input to natural language gen-eration systems.To overcome these problems, we propose a new intermediate rep-resentation, called ND style proofs at the assertion level . After illus-trating the notion intuitively, we show that the assertion level stepscan be justified by domain-specific inference rules, and that these rulescan be represented compactly in a tree structure. Finally, we describea procedure which substantially shortens ND proofs by abstractingthem to the assertion level, and report our experience with furthertransformation into natural language.
In this paper we show that distributing the theorem proving task to several experts is a promising idea. We describe the team work method which allows the experts to compete for a while and then to cooperate. In the cooperation phase the best results derived in the competition phase are collected and the less important results are forgotten. We describe some useful experts and explain in detail how they work together. We establish fairness criteria and so prove the distributed system to be both, complete and correct. We have implementedour system and show by non-trivial examples that drastical time speed-ups are possible for a cooperating team of experts compared to the time needed by the best expert in the team.
Constructing an analogy between a known and already proven theorem(the base case) and another yet to be proven theorem (the target case) oftenamounts to finding the appropriate representation at which the base and thetarget are similar. This is a well-known fact in mathematics, and it was cor-roborated by our empirical study of a mathematical textbook, which showedthat a reformulation of the representation of a theorem and its proof is in-deed more often than not a necessary prerequisite for an analogical inference.Thus machine supported reformulation becomes an important component ofautomated analogy-driven theorem proving too.The reformulation component proposed in this paper is embedded into aproof plan methodology based on methods and meta-methods, where the latterare used to change and appropriately adapt the methods. A theorem and itsproof are both represented as a method and then reformulated by the set ofmetamethods presented in this paper.Our approach supports analogy-driven theorem proving at various levels ofabstraction and in principle makes it independent of the given and often acci-dental representation of the given theorems. Different methods can representfully instantiated proofs, subproofs, or general proof methods, and hence ourapproach also supports these three kinds of analogy respectively. By attachingappropriate justifications to meta-methods the analogical inference can oftenbe justified in the sense of Russell.This paper presents a model of analogy-driven proof plan construction andfocuses on empirically extracted meta-methods. It classifies and formally de-scribes these meta-methods and shows how to use them for an appropriatereformulation in automated analogy-driven theorem proving.
Following Buchberger's approach to computing a Gröbner basis of a poly-nomial ideal in polynomial rings, a completion procedure for finitely generatedright ideals in Z[H] is given, where H is an ordered monoid presented by a finite,convergent semi - Thue system (Sigma; T ). Taking a finite set F ' Z[H] we get a(possibly infinite) basis of the right ideal generated by F , such that using thisbasis we have unique normal forms for all p 2 Z[H] (especially the normal formis 0 in case p is an element of the right ideal generated by F ). As the orderingand multiplication on H need not be compatible, reduction has to be definedcarefully in order to make it Noetherian. Further we no longer have p Delta x ! p 0for p 2 Z[H]; x 2 H. Similar to Buchberger's s - polynomials, confluence criteriaare developed and a completion procedure is given. In case T = ; or (Sigma; T ) is aconvergent, 2 - monadic presentation of a group providing inverses of length 1 forthe generators or (Sigma; T ) is a convergent presentation of a commutative monoid ,termination can be shown. So in this cases finitely generated right ideals admitfinite Gröbner bases. The connection to the subgroup problem is discussed.
The hallmark of traditional Artificial Intelligence (AI) research is the symbolic representation and processing of knowledge. This is in sharp contrast to many forms of human reasoning, which to an extraordinary extent, rely on cases and (typical) examples. Although these examples could themselves be encoded into logic, this raises the problem of restricting the corresponding model classes to include only the intended models.There are, however, more compelling reasons to argue for a hybrid representa-tion based on assertions as well as examples. The problems of adequacy, availability of information, compactness of representation, processing complexity, and last but not least, results from the psychology of human reasoning, all point to the same conclusion: Common sense reasoning requires different knowledge sources and hybrid reasoning principles that combine symbolic as well as semantic-based inference. In this paper we address the problem of integrating semantic representations of examples into automateddeduction systems. The main contribution is a formal framework for combining sentential with direct representations. The framework consists of a hybrid knowledge base, made up of logical formulae on the one hand and direct representations of examples on the other, and of a hybrid reasoning method based on the resolution calculus. The resulting hybrid resolution calculus is shown to be sound and complete.