Refine
Year of publication
- 2000 (152) (remove)
Document Type
- Preprint (81)
- Doctoral Thesis (34)
- Article (18)
- Report (7)
- Lecture (5)
- Master's Thesis (3)
- Diploma Thesis (1)
- Periodical (1)
- Periodical Part (1)
- Study Thesis (1)
Keywords
- resonances (6)
- Quantum mechanics (5)
- lifetimes (5)
- AG-RESY (4)
- HANDFLEX (4)
- Internet (4)
- Wannier-Stark systems (4)
- Hypermediale Umweltberichte (3)
- Internetbasierte Umweltberichterstattung (3)
- branch and cut (3)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Physik (53)
- Kaiserslautern - Fachbereich Mathematik (44)
- Kaiserslautern - Fachbereich Chemie (16)
- Kaiserslautern - Fachbereich Informatik (13)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (9)
- Fraunhofer (ITWM) (4)
- Kaiserslautern - Fachbereich ARUBI (4)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (4)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
A new and systematic basic approach to force- and vision-based robot manipulation of deformable (non-rigid) linear objects is introduced. This approach reduces the computational needs by using a simple state-oriented model of the objects. These states describe the relation between the deformable and rigid obstacles, and are derived from the object image and its features. We give an enumeration of possible contact states and discuss the main characteristics of each state. We investigate the performance of robust transitions between the contact states and derive criteria and conditions for each of the states and for two sensor systems, i.e. a vision sensor and a force/torque sensor. This results in a new and task-independent approach in regarding the handling of deformable objects and in a sensor-based implementation of manipulation primitives for industrial robots. Thus, the usage of sensor processing is an appropriate solution for our problem. Finally, we apply the concept of contact states and state transitions to the description of a typical assembly task. Experimental results show the feasibility of our approach: A robot performs several contact state transitions which can be combined for solving a more complex task.
Dynamics of Excited Electrons in Copper and Ferromagnetic Transition Metals: Theory and Experiment
(2000)
Both theoretical and experimental results for the dynamics of photoexcited electrons at surfaces of Cu and the ferromagnetic transition metals Fe, Co, and Ni are presented. A model for the dynamics of excited electrons is developed, which is based on the Boltzmann equation and includes effects of photoexcitation, electron-electron scattering, secondary electrons (cascade and Auger electrons), and transport of excited carriers out of the detection region. From this we determine the time-resolved two-photon photoemission (TR-2PPE). Thus a direct comparison of calculated relaxation times with experimental results by means of TR-2PPE becomes possible. The comparison indicates that the magnitudes of the spin-averaged relaxation time t and of the ratio t_up/t_down of majority and minority relaxation times for the different ferromagnetic transition metals result not only from density-of-states effects, but also from different Coulomb matrix elements M. Taking M_Fe > M_Cu > M_Ni = M_Co we get reasonable agreement with experiments.
The increasing parallelisation of development processes as well as the ongoing trends towards virtual product development and outsourcing of development activities strengthen the need for 3D co-operative design via communication networks. Regarding the field of CAx, none of the existing systems meets all the requirements of very complex process chain. This leads to a tremendous need for the integration of heterogeneous CAx systems. Therefore, MACAO, a platform-independent client for a distributed CAx component system, the so-called ANICA CAx object bus, is presented. The MACAO client is able to access objects and functions provided by different CAx servers distributed over a communication network. Thus, MACAO is a new solution for engineering design and visualisation in shared distributed virtual environments. This paper describes the underlying concepts, the actual prototype implementation, as well as possible application scenarios in the area of co-operative design and visualisation.
Der Trend der letzten Jahre im CAx-Bereich geht eindeutig in Richtung 3D-Modellierung. Der Einsatz dieser Technologie ist jedoch erst dann wirtschaftlich sinnvoll, wenn die generierten Daten nicht ausschließlich als Ersatz für 2D-Zeichnungen dienen, sondern während des gesamten Produkt-entstehungsprozesses eingesetzt werden und auf diese Weise Datendurchgängigkeit gewährleistet wird. Mittlerweile wird ein umfangreiches Spektrum von Anwendungen eingesetzt. Beispielhaft sei-en hier Berechnungs- und Simulationsprogramme oder die 3D-Produktvisualisierung in nicht-technischen Bereichen (z. B. Marketing, Vertrieb) genannt. Viele CA-Systeme bieten zwar eine große Auswahl an Modulen für nahezu alle Bereiche der Produktentwicklung, allerdings ist kein System, unabhängig von seiner Komplexität, in der Lage, alle Anforderungen seiner Anwender zu erfüllen. Deshalb kommen in immer größerem Umfang spezielle Programme für individuelle Probleme zum Einsatz. Der Anwender sieht sich jedoch mit Schwierigkeiten konfrontiert, wenn er versucht, für spezielle Probleme spezielle Anwendungen unterschiedlicher Systemhersteller einzusetzen. Um die Integrati-on der verschiedenen Programme zu ermöglichen, muß er sich auf neutrale Standardschnittstellen für den Produktdatenaustausch (IGES, VDAFS, STEP) verlassen, wobei hier mit Informationsverlusten zu rechnen ist. Außerdem muß er sich mit differierenden Benutzerführungen vertraut machen. Im Bewußtsein dieser Probleme entwickelte die Arbeitsgruppe "CAD/CAM-Strategien der deut-schen Automobilindustrie" einen Vorschlag für eine offene CAx-Systemarchitektur /1/, /2/, /3/. Diese sollte in der Lage sein, alle CAx-Komponenten, die im Laufe des Produktent-stehungsprozesses verwendet werden, zu integrieren. Es sollte unter anderem die folgenden Anforderungen erfüllen: ° Offenheit ° Interoperabilität ° Investitionssicherheit ° Aufhebung der Zwangsbindung des Anwenders an einen Systemhersteller ° Vermeidung redundanter Systeme Die Berücksichtigung der internationalen Standards STEP für den Bereich der Produktdatenmo-dellierung und CORBA für den Bereich der verteilten objektorientierten Systeme, die in den folgen-den Abschnitten kurz dargestellt sind, war für die Erfüllung dieser Anforderungen eine wichtige Voraussetzung
For the next generation of high data rate magnetic recording above 1 Gbit/s, a better understanding of the switching processes for both recording heads and media will be required. In order to maximize the switch-ing speed for such devices, the magnetization precession after the magnetic field pulse termination needs to be suppressed to a maximum degree. It is demonstrated experimentally for ferrite films that the appropriate adjustment of the field pulse parameters and/or the static applied field may lead to a full suppression of the magnetization precession immediately upon termination of the field pulse. The suppression is explained by taking into account the actual direction of the magnetization with respect to the static field direction at the pulse termination.
Wir beschreiben eine Methode zur Approximation von Spannungsgradienten aus diskreten Spannungsdaten. Eine herkömmliche Diskretisierung der Ableitungen aus Funktionswerten führt zu Stabilitätsproblemen, weswegen eine Möglichkeit zur Kontrolle der Ableitungen notwendig ist (Regularisierung). Wir bestimmen zunächst das Funktional der potentiellen Energie und führen zusätzlich ein Fehlerfunktional ein, das die Anpassung an die vorgegebenen diskreten Werte ermöglicht. Durch Gewichtung der beiden Funktionale und Minimierung des Gesamtfunktionals erhält man den gewünschten Ausgleich zwischen der Fehlerkontrolle beim Ableiten einerseits und Kontrolle der Fehler bei den Randwerten andererseits.
Within this paper we review image distortion measures. A distortion measure is a criterion that assigns a "quality number" to an image. We distinguish between mathematical distortion measures and those distortion measures in-cooperating a priori knowledge about the imaging devices ( e.g. satellite images), image processing algorithms or the human physiology. We will consider representative examples of different kinds of distortion measures and are going to discuss them.
The quality of freeform surfaces is one of the major topics of CAD/CAM. Aesthetic and technical demands require the construction of high quality surfaces with strong shape conditions. Quality diminishing properties like dents or flat points have to be eliminated while approximation conditions must hold at the same time. Our approach combines quality and approximation criteria to a nonlinear multicriteria optimization problem and achieves an automatic approximation and fitting process.
In multicriteria optimization problems the connectedness of the set of efficient solutions (pareto set) is of special interest since it would allow the determination of the efficient solutions without considering non-efficient solutions in the process. In the case of the multicriteria problem to minimize matchings the set of efficient solutions is not connected. The set of minimal solutions E pot with respect to the power ordered set contains the pareto set. In this work theorems about connectedness of E pot are given. These lead to an automated process to detect all efficient solutions.
We consider the problem of locating a line or a line segment in three- dimensional space, such that the sum of distances from the linear facility to a given set of points is minimized. An example is planning the drilling of a mine shaft, with access to ore deposits through horizontal tunnels connecting the deposits and the shaft. Various models of the problem are developed and analyzed, and effcient solution methods are given.
Many polynomially solvable combinatorial optimization problems (COP) become NP when we require solutions to satisfy an additional cardinality constraint. This family of problems has been considered only recently. We study a newproblem of this family: the k-cardinality minimum cut problem. Given an undirected edge-weighted graph the k-cardinality minimum cut problem is to find a partition of the vertex set V in two sets V 1 , V 2 such that the number of the edges between V 1 and V 2 is exactly k and the sum of the weights of these edges is minimal. A variant of this problem is the k-cardinality minimum s-t cut problem where s and t are fixed vertices and we have the additional request that s belongs to V 1 and t belongs to V 2 . We also consider other variants where the number of edges of the cut is constrained to be either less or greater than k. For all these problems we show complexity results in the most significant graph classes.
It is well-known that some of the classical location problems with polyhedral gauges can be solved in polynomial time by finding a finite dominating set, i.e. a finite set of candidates guaranteed to contain at least one optimal location. In this paper it is first established that this result holds for a much larger class of problems than currently considered in the literature. The model for which this result can be proven includes, for instance, location problems with attraction and repulsion, and location-allocation problems. Next, it is shown that the approximation of general gauges by polyhedral ones in the objective function of our general model can be analyzed with regard to the subsequent error in the optimal objective value. For the approximation problem two different approaches are described, the sandwich procedure and the greedy algorithm. Both of these approaches lead - for fixed epsilon - to polynomial approximation algorithms with accuracy epsilon for solving the general model considered in this paper.
The paper concerns the equilibrium state of ultra small semiconductor devices. Due to the quantum drift diffusion model, electrons and holes behave as a mixture of charged quantum fluids. Typically the involved scaled Plancks constants of holes, \(\xi\), is significantly smaller than the scaled Plancks constant of electrons. By setting formally \(\xi=0\) a well-posed differential-algebraic system arises. Existence and uniqueness of an equilibrium solution is proved. A rigorous asymptotic analysis shows that this equilibrium solution is the limit (in a rather strong sense) of quantum systems as \(\xi \to 0\). In particular the ground state energies of the quantum systems converge to the ground state energy of the differential-algebraic system as \(\xi \to 0\).
Mean field equations arise as steady state versions of convection-diffusion systems where the convective field is determined as solution of a Poisson equation whose right hand side is affine in the solutions of the convection-diffusion equations. In this paper we consider the repulsive coupling case for a system of 2 convection-diffusion equations. For general diffusivities we prove the existence of a unique solution of the mean field equation by a variational technique. Also we analyse the small-Debye-length limit and prove convergence to either the so-called charge-neutral case or to a double obstacle problem for the limiting potential depending on the data.
Die mechanischen Eigenschaften von Verbundwerkstoffen und Werkstoffverbunden werden
in erheblichem Maß durch die Eigenschaften der Grenzfläche bestimmt. Oftmals ist die
Grenzfläche sogar das schwächste Element. Eine zuverlässige Beschreibung der mechanischen
Grenzflächenqualität ist von großer Bedeutung für die Wahl optimaler Werkstoffkombinationen
und Kontaktbildungsverfahren. Bei mechanisch-technologischen Charakterisierungsmethoden
unterliegen die Zielgrößen, wie etwa die Grenzflächenscherfestigkeit, oftmals
einer starken Streuung. In der vorliegenden Arbeit wird deshalb das Konzept der linearelastischen
Bruchmechanik zur Grenzflächencharakterisierung herangezogen. Für die dazu
notwendige Spannungsanalyse des Prüfkörpers mit einem öffnungsdominierten Grenzflächenriß
werden FE-Modelle erstellt. Im Nachgang zu Experiment und Datenreduktion werden die
Voraussetzungen für die Anwendbarkeit des linear-elastischen Konzeptes verifiziert.
Da die Grenzflächenzähigkeit c G empfindlich von der Zweiachsigkeit ψ des örtlichen Beanspruchungszustandes
abhängt, wird eine Belastungseinrichtung konzipiert, mit der ψ im gesamten,
der linear-elastischen Bruchmechanik zugänglichen Mixed-Mode-Intervall stufenlos
variiert werden kann. Ergänzend zur Bestimmung der (ψ ) c G -Grenzflächenbruchkurve
wurde das Rißwachstum lichtmikroskopisch verfolgt und der Einfluß thermischer Eigenspannungen
abgeschätzt.
An nicht-linearen FE-Modellen wird der Einfluß des Rißuferkontaktes sowie des plastischen
Fließens als Kleinbereichstörung auf die Modenabhängigkeit der Grenzflächenbruchenergie
untersucht. In beiden Beispielen wird durch Annahme von Verzerrungskriterien im Inneren
der jeweiligen Nichtlinearitätszone eine Verbindung zwischen Festigkeitslehre und Bruchmechanik
hergestellt. Für den Fall der Kleinbereichplastizität werden außerdem die Ligamentnormalspannungen
im Rahmen eines weakest-link-Modells für rißbehaftete Körper bewertet.Es zeigt sich, daß die U-Gestalt der (ψ ) c G -Grenzflächenbruchkurve qualitativ nachvollzogen
werden kann, wenn man die Ligamentnormalspannungen als rißtreibende Kraft bewertet.
The aim of this article is to show that moment approximations of kinetic equations based on a Maximum Entropy approach can suffer from severe drawbacks if the kinetic velocity space is unbounded. As example, we study the Fokker Planck equation where explicit expressions for the moments of solutions to Riemann problems can be derived. The quality of the closure relation obtained from the Maximum Entropy approach as well as the Hermite/Grad approach is studied in the case of five moments. It turns out that the Maximum Entropy closure is even singular in equilibrium states while the Hermite/Grad closure behaves reasonably. In particular, the admissible moments may lead to arbitrary large speeds of propagation, even for initial data arbitrary close to global eqilibrium.
Performance of some preconditioners for the p - and hp -version of the finite element method in 3D
(2000)
The balance space approach (introduced by Galperin in 1990) provides a new view on multicriteria optimization. Looking at deviations from global optimality of the different objectives, balance points and balance numbers are defined when either different or equal deviations for each objective are allowed. Apportioned balance numbers allow the specification of proportions among the deviations. Through this concept the decision maker can be involved in the decision process. In this paper we prove that the apportioned balance number can be formulated by a min-max operator. Furthermore we prove some relations between apportioned balance numbers and the balance set, and see the representation of balance numbers in the balance set. The main results are necessary and sufficient conditions for the balance set to be exhaustive, which means that by multiplying a vector of weights (proportions of deviation) with its corresponding apportioned balance number a balance point is attained. The results are used to formulate an interactive procedure for multicriteria optimization. All results are illustrated by examples.
This paper provides an annotated bibliography of multiple objective combinatorial optimization, MOCO. We present a general formulation of MOCO problems, describe the main characteristics of MOCO problems, and review the main properties and theoretical results for these problems. One section is devoted to a brief description of the available solution methodology, both exact and heuristic. The main part of the paper is devoted to an annotation of the existing literature in the field organized problem by problem. We conclude the paper by stating open questions and areas of future research. The list of references comprises more than 350 entries.
In this paper we address the question of how many objective functions are needed to decide whether a given point is a Pareto optimal solution for a multicriteria optimization problem. We extend earlier results showing that the set of weakly Pareto optimal points is the union of Pareto optimal sets of subproblems and show their limitations. We prove that for strictly quasi-convex problems in two variables Pareto optimality can be decided by consideration of at most three objectives at a time. Our results are based on a geometric characterization of Pareto, strict Pareto and weak Pareto solutions and Helly's Theorem. We also show that a generalization to quasi-convex objectives is not possible, and state a weaker result for this case. Furthermore, we show that a generalization to strictly Pareto optimal solutions is impossible, even in the convex case.
In this paper we investigate the problem offending the Nadir point for multicriteria optimization problems (MOP). The Nadir point is characterized by the component wise maximal values of efficient points for (MOP). It can be easily computed in the bicriteria case. However, in general this problem is very difficult. We review some existing methods and heuristics and propose some new ones. We propose a general method to compute Nadir values for the case of three objectives, based on theoretical results valid for any number of criteria. We also investigate the use of the Nadir point for compromise programming, when the goal is to be as far away as possible from the worst outcomes. We prove some results about (weak) Pareto optimality of the resulting solutions. The results are illustrated by examples.
Ein Teilaspekt der formalen Logik besteht in der Untersuchung wie die logischen Konsequenzen (insbesondere die Tautologien) einer vorgegebenen Formelmenge unter Verwendung gewisser Reglements schrittweise hergeleitet werden können. Hierbei ist die Logik bestimmt durch eine konsequente Trennung von Syntax und Semantik. Diese Abhandlung stellt exemplarisch das Tableau-Kalkül und das Kalkül des natürlichen Schließens vor.
Aufgrund der vernetzten Strukturen und Wirkungszusammenhänge dynamischer Systeme werden die zugrundeliegenden mathematischen Modelle meist sehr komplex und erfordern ein hohes mathematisches Verständnis und Geschick. Bei Verwendung von spezieller Software können jedoch auch ohne tiefgehende mathematische oder informatorische Fachkenntnisse komplexe Wirkungsnetze dynamischer Systeme interaktiv erstellt werden. Als Beispiel wollen wir schrittweise das Modell einer Miniwelt entwerfen und Aussagen bezüglich ihrer Bevölkerungsentwicklung treffen.
We consider some continuous-time Markowitz type portfolio problems that consist of maximizing expected terminal wealth under the constraint of an upper bound for the Capital-at-Risk. In a Black-Scholes setting we obtain closed form explicit solutions and compare their form and implications to those of the classical continuous-time mean-variance problem. We also consider more general price processes which allow for larger uctuations in the returns.
For transferring existing knowledge into new projects, reuse has become an important factor in today's software industry. However, to set reuse into practice, reusable artifacts have to be stored somewhere, and must be offered to (re-)users on demand. For this purpose, advanced reuse repository systems like, for instance, instantiations of the Experience Base concept, are quite frequently used. Many people, from different projects, have to access such a repository at various phases of software development processes to retrieve or store reusable data. In order to fulfill the given tasks, each of these user has specific needs. Taking this into account, a reuse repository has to offer tailored user interfaces and functions for different user groups. Furthermore, since the contents of such a repository usually represent the state of the art of an organization's (core) competencies, not everyone should be allowed to freely access each and every repository entry. This isespecially true for persons that are not part of the organization. This report discusses role concepts that can be applied to reuse repository systems to overcome some of the stated access problems. Commonly used roles for software development and reuse repository management are listed. Based on these roles, a basic set of roles, as implemented in the SFB 501 Experience Base, is introduced.
Comprehensive reuse and systematic evolution of reuse artifacts as proposed by the Quality Improvement Paradigm (QIP) do not only require tool support for mere storage and retrieval. Rather, an integrated management of (potentially reusable) experience data as well as project-related data is needed. This paper presents an approach exploiting object-relational database technology to implement QIP-driven reuse repositories. Requirements, concepts, and implementational aspects are discussed and illustrated through a running example, namely the reuse and continuous improvement of SDL patterns for developing distributed systems. Our system is designed to support all phases of a reuse process and the accompanying improvement cycle by providing adequate functionality. Its implementation is based on object-relational database technology along with an infrastructure well suited for these purposes.
Software development organizations are recognizing the increasing importance of investing in the build-up of core competencies for their competitiveness in software system development. This is supported by reuse and experience repository systems that assist in capturing and reusing all kinds of software artifacts (e. g., code, patterns, frameworks) and processes as well as experiences related to these artifacts and processes. To justify such an investment and guide its improvement, it must be evaluated according to the business case, that is, a measurement program has to be developed that is oriented towards the business goals of such a reuse and experience repository system. In this paper, we suggest an approach to iteratively build up measurement programs for gaining feedback and, thereby, controlling and improving such a reuse and experience repository system. The focus is placed on guidelines for the evolution of such measurement programs over time, rather than providing directly applicable metrics or questionnaires. In order to illustrate the feasibility of the approach, examples of running measurement programs at different stages of evolutions are given.
Abstract: The recently proposed idea to generate entanglement between photon states via exchange interactions in an ensemble of atoms (J. D. Franson and T. B. Pitman, Phys. Rev. A 60 , 917 (1999) and J. D. Franson et al., (quant- ph/9912121)) is discussed using an S -matix approach. It is shown that if the nonlinear response of the atoms is negligible and no additional atom-atom interactions are present, exchange interactions cannot produce entanglement between photons states in a process that returns the atoms to their initial state. Entanglement generation requires the presence of a nonlinear atomic response or atom-atom interactions.
Abstract: Local field effects on the rate of spontaneous emission and Lamb shift in a dense gas of atoms are discussed taking into account correlations of atomic center-of-mass coordinates. For this the exact retarded propagator in the medium is calculated in independent scattering approximation and employing a virtual-cavity model. The resulting changes of the atomic polarizability lead to modi cations of the medium response which can be of the same order of magnitude but of opposite sign than those due to local field corrections of the dielectric function derived by Morice, Castin, and Dalibard [Phys.Rev.A 51, 3896 (1995)].
Abstract: We identify form-stable coupled excitations of light and matter ("dark-state polaritons") associated with the propagation of quantum fields in Electromagnetically Induced Transparency. The properties of the dark-state polaritons such as the group velocity are determined by the mixing angle between light and matter components and can be controlled by an external coherent field as the pulse propagates. In particular, light pulses can be decelerated and "trapped" in which case their shape and quantum state are mapped onto metastable collective states of matter. Possible applications of this reversible coherent-control technique are discussed.
Abstract: We analyze the above-threshold behavior of a mirrorless parametric oscillator based on resonantly enhanced four wave mixing in a coherently driven dense atomic vapor. It is shown that, in the ideal limit, an arbitrary small flux of pump photons is sufficient to reach the oscillator threshold. We demonstrate that due to the large group velocity delays associated with coherent media, an extremely narrow oscillator linewidth is possible, making a narrow-band source of non-classical radiation feasible.
Abstract: We analyze systematic (classical) and fundamental (quantum) limitations of the sensitivity of optical magnetometers resulting from ac-Stark shifts. We show that incontrast to absorption-based techniques, the signal reduction associated with classical broadening can be compensated in magnetometers based on phase measurements using electromagnetically induced transparency (EIT). However due to ac-Stark associated quantum noise the signal-to-noise ratio of EIT-based magnetometers attains a maximum value at a certain laser intensity. This value is independent on the quantum statistics of the light and defines a standard quantum limit of sensitivity. We demonstrate that an EIT-based optical magnetometer in Faraday configuration is the best candidate to achieve the highest sensitivity of magnetic field detection and give a detailed analysis of such a device.
The basic idea behind selective multiscale reconstruction of functions from error-affected data is outlined on the sphere. The selective reconstruction mechanism is based on the premise that multiscale approximation can be well-represented in terms of only a relatively small number of expansion coefficients at various resolution levels. An attempt is made within a tree algorithm (pyramid scheme) to remove the noise component from each scale coefficient using a priori statistical information (provided by an error covariance kernel of a Gaussian, stationary stochastic model).
Spherical Tikhonov Regularization Wavelets in Satellite Gravity Gradiometry with Random Noise
(2000)
This paper considers a special class of regularization methods for satellite gravity gradiometry based on Tikhonov spherical regularization wavelets with particular emphasis on the case of data blurred by random noise. A convergence rate is proved for the regularized solution, and a method is discussed for choosing the regularization level a posteriori from the gradiometer data.
Being interested in (rotation-)invariant pseudodi erential equations of satellite problems corresponding to spherical orbits, we are reasonably led to generating kernels that depend only on the spherical distance, i. e. in the language of modern constructive approximation form spherical radial basis functions. In this paper approximate identities generated by such (rotation-invariant) kernels which are additionally locally supported are investigated in detail from theoretical as well as numerical point of view. So-called spherical di erence wavelets are introduced. The wavelet transforms are evaluated by the use of a numerical integration rule, that is based on Weyl's law of equidistribution. This approximate formula is constructed such that it can cope with millions of (satellite) data. The approximation error is estimated on the orbital sphere. Finally, we apply the developed theory to the problems of satellite-to-satellite tracking (SST) and satellite gravity gradiometry (SGG).
The satellite-to-satellite tracking (SST) problems are characterized from mathematical point of view. Uniqueness results are formulated. Moreover, the basic relations are developed between (scalar) approximation of the earth's gravitational potential by "scalar basis systems" and (vectorial) approximation of the gravitational eld by "vectorial basis systems". Finally, the mathematical justication is given for approximating the external geopotential field by finite linear combinations of certain gradient fields (for example, gradient fields of multi-poles) consistent to a given set of SST data.
In this short note we prove some general results on semi-stable sheaves on P_2 and P_3 with arbitrary linear Hilbert polynomial. Using Beilinson's spectral sequence, we compute free resolutions for this class of semi-stable sheaves and deduce that the smooth moduli spaces M_{r m + s}(P_2) and M_{r m + r - s}(P_2) are birationally equivalent if r and s are coprime.
A simple method of calculating the Wannier-Stark resonances in 2D lattices is suggested. Using this method we calculate the complex Wannier-Stark spectrum for a non-separable 2D potential realized in optical lattices and analyze its general structure. The dependence of the lifetime of Wannier-Stark states on the direction of the static field (relative to the crystallographic axis of the lattice) is briefly discussed.
The paper studies the dynamics of transitions between the levels of a Wannier-Stark ladder induced by a resonant periodic driving. The analysis of the problem is done in terms of resonance quasienergy states, which take into account the metastable character of the Wannier-Stark states. It is shown that the periodic driving creates from a localized Wannier-Stark state an extended Bloch-like state with a spatial length varying in time as ~ t^1/2. Such a state can find applications in the field of atomic optics because it generates a coherent pulsed atomic beam.
The statistics of the resonance widths and the behavior of the survival probability is studied in a particular model of quantum chaotic scattering (a particle in a periodic potential subject to static and time-periodic forces) introduced earlier in Ref. [5,6]. The coarse-grained distribution of the resonance widths is shown to be in good agreement with the prediction of Random Matrix Theory (RMT). The behavior of the survival probability shows, however, some deviation from RMT.
The quasienergy spectrum of a Bloch electron affected by dc-ac fields is known to have a fractal structure as function of the so-called electric matching ratio, which is the ratio of the ac field frequency and the Bloch frequency. This paper studies a manifestation of the fractal nature of the spectrum in the system "atom in a standing laser wave", which is a quantum optical realization of a Bloch electron. It is shown that for an appropriate choice of the system parameters the atomic survival probability (a quantity measured in laboratory experiments) also develops a fractal structure as a function of the electric matching ratio. Numerical simulations under classically chaotic scattering conditions show good agreement with theoretical predictions based on random matrix theory.
The paper studies the effect of a weak periodic driving on metastable Wannier-Stark states. The decay rate of the ground Wannier-Stark states as a continuous function of the driving frequency is calculated numerically. The theoretical results are compared with experimental data of Wilkinson et at. [Phys.Rev.Lett.76, 4512 (1996)] obtained for cold sodium atoms in an accelerated optical lattice.
We study the transitions between the ground and excited Wannier states induced by a weak ac field. Because the upper Wannier states are several order of magnitude less stable than the ground states, these transitions decrease the global stability of the system characterized by the rate of probability leakage or decay rate. Using nonhermitian resonant perturbation theory we obtain an analytical expression for this induced decay rate. The analytical results are compared with exact numerical calculations of the system decay rate.
Die Polyurethane stellen eine extrem vielgestaltige Kunststoffklasse dar, außerdem zählen
sie, von den Produktionskosten her, zu den höherwertigen Kunststoffen. Ersteres erschwert die
Entwicklung von Recyclingverfahren, letzteres ist der Grund, weshalb trotzdem seit längerem
an Wiederverwertungsmethoden für Polyurethane gearbeitet wird. Eine ganze Reihe von
Verfahren existieren bereits und werden mit Erfolg angewendet. Da es aber immer noch PURTypen
gibt, die bisher nicht erfolgreich wiederverwertet werden können, besteht weiterhin
Bedarf an zusätzlichen Verfahren.
Bei der Hydrolyse von Polyurethan-Abfällen wird das Material unter Zugabe von Wasser
weitgehend in seine Ausgangsbestandteile zerlegt. Aufgrund einiger schwierig zu bewältigender
Verfahrensschritte wird die Hydrolyse bisher nur im Labor- und Technikumsmaßstab
angewendet. In dieser Arbeit wurde nun ein Hydrolyseverfahren entwickelt, bei dem die
Auftrennung in die Bestandteile nur bis zu einem bestimmten Grad durchgeführt wird, also ein
partieller Abbau stattfindet.
Der partielle hydrolytische Abbau wurde in einem Doppelschneckenextruder ausgeführt. Die
Produkte („hygrothermisch a bgebautes P olyur ethan“; HA-PUR) wurden durch Bestimmung
des unlöslichen Rückstands und der Viskosität, mittels Infrarotspektroskopie sowie mit Hilfe
der Thermogravimetrie mit angeschlossener Massenspektrometrie charakterisiert.
Ausgehend von den Eigenschaften des Zwischenproduktes HA-PUR wurde nach
Anwendungsmöglichkeiten gesucht.
HA-PUR lässt sich hervorragend mit Duromeren mischen. Diese Tatsache wurde genutzt,
um die heute als Zähmodifikator für Duromere gebräuchlichen, aber teuren funktionalisierten
Flüssigkautschuke durch ein preisgünstiges Recyclingprodukt zu ersetzen. Tatsächlich wirkte
sich ein Zusatz von HA-PUR zu Duromeren günstig auf deren mechanische Eigenschaften, wie
Bruchzähigkeit, Bruchenergie und Schlagzähigkeit aus. Weiterhin konnte HA-PUR auch als
Härter für Epoxidharze eingesetzt werden.
Die kautschukähnlichen Eigenschaften von HA-PUR legten dessen Verwendung als Füllstoff in Kautschukrezepturen nahe. In Anteilen von 10-20 Gew.-% bewirkte HA-PUR bei einigen
Kautschuksorten eine beschleunigte Vulkanisation sowie eine Verbesserung der mechanischen
Eigenschaften. Im Falle einer Verschlechterung des Eigenschaftsprofils war es möglich, diese
durch geringfügige Variationen der Rezeptur auszugleichen.
HA-PUR besitzt gewisse thermoplastische Eigenschaften. Daher wurde auch die Möglichkeit
erprobt, es als Zähmodifikator für Polyoxymethylen (POM) einzusetzen. (Die Verwendung von
thermoplastischem Polyurethan für diese Zwecke ist heute bereits Stand der Technik.) Bei
Zusatz von 5 Gew.-% HA-PUR wurde eine leichte Erhöhung der Schlagzähigkeit festgestellt.
This work was aimed at studying the hygrothermal decomposition of polyester urethanes and
the usability of the products in thermosets, rubbers and thermoplastics.
Polyurethanes (PUR) are one of the most versatile groups of plastic materials. The variety of
PUR types reaches from flexible foams and rigid foams over thermoplastic elastomers to
adhesives, paints and varnishes. This variety is one of the reasons, why the development of
cost-efficient reycling methods is very difficult. On the other hand, the production of PUR is
rather expensive - compared to the mass-produced plastic materials like the polyolefins. This
fact was the reason for the development of recycling methods for PUR since the 60s. The
recycling routes for PUR can be devided in mechanical and chemical methods. Mechanical
methods cover e.g. grinding of PUR waste, compression moulding, adhesive pressing,
bonding. Chemical methods (also called feedstock recycling) change the chemistry of the
material. A third group of recycling methods is the recovery of energy. This can mean simple
incineration of the PUR waste or the decomposition by pyrolysis or hydrogenation and the
combustion of the products.
Chemical methods are e.g. glycolysis and hydrolysis. Glycolysis, which is already used on a
commercial scale, means the decomposition of PUR by diols (e.g. glycol) at elevated
temperatures through a transesterification reaction. The reaction products are polyols which are
similar to the virgin components and can be directly used for the manufacture of new PUR.
Amines can be products of side reactions of the glycolysis.
Hydrolysis of polyurethane waste means decomposition of the material to its virgin
components by treatment with water at elevated temperatures. The products are polyols and
amines which are related to the virgin isocyanates. After purification, the polyols can be used
for the production of new PUR, as well as the amines - after conversion into isocyanates by
phosgenation. Since there are still some problems with the processing (e.g. the separation of the amines), the hydrolysis of PUR waste has not yet been used on a commercial scale.
In this work, a process of hydrolysis has been worked out which does not lead to the virgin
components. The formation of these virgin components can be avoided by stopping the process
before reaching the state of complete decomposition.
This partial hygrothermally decomposition was carried out in a twin-screw extruder at
temperatures between 150 and 250 °C and addition of 10 wt.-% of water. The material used
for this process was polyester-PUR waste from the footwear industry and was ground into particles of 1-3 mm size. The products („hygrothermally decomposed polyurethane“; HDPUR)
were characterized by determination of the insoluble residue and melt viscosity. The
hygrothermal decomposition was traced by infrared spectroscopy and by thermogravimetry
combined with mass spectrometry. These examinations allowed a monitoring of the
decomposition degree. Further, some information about the chemical processes during
decomposition could be obtained.
Based on the specific properties (consistency upon decomposition stage, compound
containing primary and secondary amines) of HD-PUR attempts were made to check its use in
selected thermoset, rubber and thermoplastic combinations.
HD-PUR is quite well miscible with thermosets such as epoxy resins (EP) phenolic resins
(PF), and unsaturated polyester resins (UP). This fact was utilized for replacing the expensive
functionalized liquid rubbers, which are used for toughening of thermosets, by this costefficient
recycling product. The mixing of HD-PUR, especially with EP, leads to a clear
improvement of the mechanical properties like fracture toughness, fracture energy, and impact
toughness. Due to this promising results, the emphasis for further investigations was placed on
experiments with HD-PUR in EP. Two EPs (one trifunctional and one tetrafunctional) of Ciba
were used. Examinations of fracture surfaces by scanning electron microscopy gave some
information about the phase structure and the toughening mechanism. Dynamic-mechanical
thermoanalysis made it possible - apart from the investigation of other mechanical properties - to
determine the crosslink density which was then correlated with the fracture mechanical data. The
addition of HD-PUR in small amounts (up to 20 wt.-%) led to improved toughness along with
only slightly reduced stiffness. It should be noted, that even mixtures with 80 wt.-% HD-PUR
gave a curable resin yet with reduced stiffness and temperature resistance. HD-PUR alone could
act as hardener for epoxy resins. Further, one phenolic resin, one unsaturated polyester resin,and one vinylester-urethane hybrid resin were examined. The results were, compared to the
experiments with EP, less promising.
Due to its rubber-like properties, especially when extruded at lower temperatures, HD-PUR
seemed to be qualified for using as polymeric filler and extender in rubber recipes. Five sorts of
rubbers (natural rubber, nitrile-butadiene-rubber, styrene-butadiene-rubber, epoxidized rubber
and fluoro rubber) were mixed with HD-PUR in ratios of 10-20 wt.-%. If possible, standard
recipes without further additives were used. The changes of the rheological properties and the
vulcanization behaviour were checked. The results showed, that HD-PUR not only could be
regarded as neutral filler, but also as a kind of reactive plasticizer which could influence the vulcanization behaviour and the mechanical properties. Indeed, the vulcanization rate and the
tear strength of natural rubber was increased. If there was any deterioration of the performance,
this could be compensated by small variations of the related recipes. Some experiments were
conducted with regard to the comparison of two different vulcanization systems and two
different grades of carbon black.
The applicability of HD-PUR as modifier for thermoplastics has been checked by adding
HD-PUR to poly(oxymethylene) (POM). The modification of POM with thermoplastic PUR is
already the state of the art. Due to its thermoplastic properties, HD-PUR should be suitable for
this application. Mixing of HD-PUR with POM was possible in amounts from 5 - 40 wt.-%. If
5 wt.-% of HD-PUR was added, the impact toughness of POM was slightly increased. Higher
amounts of HD-PUR led to a decrease of impact toughness, tensile strength and Young’s
modulus.
Future works could provide the complete clarification of the chemical reactions during the
hygrothermal decomposition.The related information could serve for improved process control
and for extending the decomposition on PURs of polyether type. Further, the applicability of
HD-PUR as toughening agent for other (brittle) materials should be checked. The modification
of thermoplastics still offers a wide field of applications. Also the use of HD-PUR as reactive
filler in rubber recipes could be worked out. Finally, some other applications for HD-PUR, e.g.
as pressure sensitve adhesive, as sealing material or for sound and vibration damping could be
tested.
Lineare Algebra I & II
(2000)
Inhalte der Grundvorlesungen Lineare Algebra I und II im Winter- und Sommersemester 1999/2000: Gruppen, Ringe, Körper, Vektorräume, lineare Abbildungen, Determinanten, lineare Gleichungssysteme, Polynomring, Eigenwerte, Jordansche Normalform, endlich-dimensionale Hilberträume, Hauptachsentransformation, multilineare Algebra, Dualraum, Tensorprodukt, äußeres Produkt, Einführung in Singular.
In der vorliegenden Arbeit zeigen wir, wie man Masse für die Leptonen, insbesondere die Neutrinos erzeugen kann. Dazu erweitern wir das Standard Modell der Elementarteilchenphysik um eine weitere abelsche Eichgruppe. Diese Erweiterung erlaubt uns die Einführung eines Higgs Bosons zur Generierung der Masse zu vermeiden.Wir zeigen, daß aus der Forderung der Anomalifreiheit der Theorie keine Einschränkungen für die Hyperladungen der zusätzlichen abelschen Eichgruppe folgen.Die Masse der Leptonen werden wir durch die sogenannte dynamische Massengenerierung erzeugen. Dabei zeigen wir, daß obwohl kein Massenterm für die Leptonen in der Lagrangedichte existiert, man doch eine Masse finden kann. Zur Untersuchung, ob dynamische Massengenerierung auftritt, verwenden wir die Dyson-Schwinger Gleichung für die Leptonen. Dabei erhält man ein System gekoppelter Integralgleichungen, das wir mit Hilfe von verschiedenen Näherungen zu lösen versuchen. Als Anhaltspunkt, ob unsere Näherungen sinnvoll sind, fordern wir, daß die Ward-Takahashi Identitäten erfüllt werden. Alle Lösungen die wir finden sind auch mit der Annahme verschwindender Leptonenmasse verträglich. In der "massenlosen quenched rainbow" Näherung, in der wir den Vertex durch den nackten Vertex ersetzt und in dem Bosonenpropagator die Anzahl der Leptonenflavor gleich Null gesetzt haben, gelingt es zu zeigen, daß die Wellenfunktionsrenormierung in der Landau-Eichung verschwindet. In zwei Näherungen für die gefundene Integralgleichung gelingt es uns zu zeigen, daß eine Masse für die Leptonen auftritt. Die erste Näherung benutzt die Ward-Takahashi Identität und löst das Integral direkt. Bei der zweiten Lösunsmethode führen wir die Integralgleichung in eine Differentialgleichung über, die wir mit der Methode der Bifurkationsanalyse analysieren. Wir finden eine kritische Kopplung, so daß nur für Kopplungen die größer sind als die kritische Kopplung man eine dynamische Massengenerierung findet.In der "massive quenched rainbow" Näherung, in der wir den Vertex durch den nackten Vertex ersetzt und in dem massiven Bosonenpropagator die Anzahl der Neutrinoflavor gleich Null gesetzt haben, zeigen wir die Probleme auf, die eine Erweiterung auf dieses Modell aufwirft. Insbesondere das Problem, daß die Wellenfunktionsrenormierung in keiner Eichung verschwindet wird diskutiert. Eine in der Literatur übliche Verallgemeinerung dieser Näherung, die "Landau ähnliche" Eichung, wird auch diskutiert. Danach deuten wir an, wie man unsere Ergebnisse aus der "quenched rainbow" Näherung verwenden kann und eine Massenhierarchie für die Neutrinos aus den Massenverhältnissen der geladenen Leptonen berechnen kann.
Ein Hauptziel der vorliegenden Arbeit war die Etablierung von in vitro Testsystemen zur Erfassung androgener und vor allem antiandrogener Aktivität. Es gelang, drei in der Gruppe neue, unterschiedliche in vitro Testsysteme zu etablieren und mittels der bekannten Antiandrogene zu validieren. Zunächst konnte ein transienter Transaktivierungsassay unter Verwendung des Androgenrezeptor-Expressionsplasmids pSG5AR, des Reportergenplasmids pMamneoLuc und des Kontrollplasmids pSV in COS-7 Affennierenzellen aufgebaut werden. Dadurch wurde eine erste Untersuchung potentieller Androgene/Antiandrogene ermöglicht. Ein für ein effizienteres Screening benötigtes stabil transfiziertes Testsystem konnte gleichzeitig in T47D Brustkrebszellen nach stabiler Transfektion des Reportergenplasmids pMamneoLuc und entsprechender Selektion gewonnen werden. Dagegen war ein nach Transfektion von CV-1 Affennierenzellen mit pMamneoLuc und pSG5AR gewonnenes Testsystem nicht über einen längeren Zeitraum stabil. Das Plasmid pSG5AR enthält keinen Selektionsmarker und wurde daher vermutlich im Laufe der Selektionsphase von den Zellen wieder ausgeschleust. Ein transgenes Reportergentestsystem in den Osteosarkomazellen SaOS-2, wie von Wiren et al. 1997 entwickelt, konnte aufgrund des mittels RT-PCR nachgewiesenen zu geringen Androgenrezeptorgehaltes nicht nachvollzogen werden. Die beiden etablierten transgenen Reportergenassays (transienter Transaktivierungsassay in COS-7 Zellen; Transaktivierungsassay in stabilen T47D- Luc Zellen) wiesen in etwa vergleichbare Sensitivität und Präzision auf. Der zum Vergleich erfolgreich etablierte und validierte nicht transgene Reportergenassay auf Basis des endogenen Reporters PSA war dagegen deutlich sensitiver und präziser. Ein Proliferationsassay konnte weder in MFM-223 Brustkrebszellen noch in SaOS-2 Zellen etabliert werden. Dies ist im Falle der SaOS-2 Zellen auf eine veränderte Steroidhormonrezeptorausstattung zurückzuführen. In den drei etablierten in vitro Testsystemen wurden mittels online Strukturdatenbank-Recherche ausgehend von zwei vorselektierten Leitstrukturen identifizierte Verbindungen untersucht. Bei den Benzophenon-Analoga wurden Oxybenzon, p,p'-Dihydroxybenzophenon, p,p'-Dichlorbenzophenon, p,p'-Dibrom- benzophenon, p,p'-Dimethoxybenzophenon, Benzophenon und Xanthon stellvertretend herausgegriffen, bei den Phenylharnstoff-Analoga Linuron, Monolinuron, Metobromuron, Diuron, Fluometuron und Phenylharnstoff. Die Benzophenon-Analoga wurden im transienten Transaktivierungsassay und im PSA Assay, die Phenylharnstoff-Analoga im stabilen T47D-Luc Transaktivierungsassay und im PSA Assay untersucht. Im transienten Transaktivierungsassay zeigten alle untersuchten Benzophenone eindeutig antiandrogene Aktivität. Dies bestätigte sich im PSA Assay mit einer Ausnahme. Für das unsubstituierte Benzophenon konnte in diesem Testsystem auch bei hoher Konzentration (10 microM) keine antiandrogene Aktivität nachgewiesen werden. Die untersuchten Phenylharnstoff-Analoga zeigten ebenfalls in den eingesetzten Testsystemen, PSA Assay und stabiler Transaktivierungsassay, eindeutig antiandrogene Wirkung, die aber im Vergleich zu den etablierten Verbindungen Hydroxyflutamid und Vinclozolin M2 schwächer ausfiel. Der unsubstituierte Phenylharnstoff war in beiden Testsystemen auch bei 10 microM nicht antiandrogen aktiv. Androgene Effekte wurden im transienten Transaktivierungsassay in COS-7 Zellen untersucht. Anhand einer Signifikanzschwelle wurden lediglich Vinclozolin M2, p,p'- DDE und Hydroxyflutamid als eindeutig androgen aktiv identifiziert. Die erhaltenen Ergebnisse wurden zum Aufstellen von dreidimensionalen Struktur- Aktivitätsbeziehungen (3D-QSAR) herangezogen. Zur Generierung des dazu benötigten einzelnen Zahlenwertes wurden die IC50 R bzw. IC30 RWerte der gemessenen Dosis-Wirkungskurven errechnet. Dabei mußte ein erheblicher Fehler in Kauf genommen werden. Unter Verwendung der Daten aus dem PSA Assay konnte für die Phenylharnstoff-Analoga dennoch ein signifikantes Modell mit einem kreuzvalidierten q 2 -Wert von 0,36 erhalten werden. Für die Benzophenon-Analoga dagegen war aufgrund eines negativen q 2 -Wertes das erhaltene Modell nicht zuverlässig. In diesem Fall ergaben die Daten aus dem transienten Transaktivierungsassay aber ein aussagefähiges Modell mit einem q 2 -Wert von 0,47. Die beiden signifikanten Modelle können zur Vorhersage der antiandrogenen Aktivität von bisher nicht getesteten, strukturell ähnlichen Verbindungen herangezogen werden. Insgesamt konnte in dieser Arbeit ein wichtiger Beitrag zur Identifizierung endokriner Disruptoren geleistet werden. Mit Hilfe der validierten in vitro Testsysteme konnten die ausgewählten Leitstrukturen bestätigt und ein QSAR Ansatz zur schnellen theoretischen Prüfung von Antiandrogenen entwickelt werden.
Linearized flows past slender bodies can be asymptotically described by a linear Fredholm integral equation. A collocation method to solve this equation is presented. In cases where the spectral representation of the integral operator is explicitly known, the collocation method recovers the spectrum of the continuous operator. The approximation error is estimated for two discretizations of the integral operator and the convergence is proved. The collocation scheme is validated in several test cases and extended to situations where the spectrum is not explicit.
Im Rahmen der vorliegenden Arbeit wurde die apoptoseinduzierende und wachstumshem-mende Potenz der Mistelextrakte Helixor Abietis (Tannenmistel), Mali (Apfelbaummistel) und Pini (Kiefernmistel) sowie der isolierten Mistellektine I und III auf die humane Leukämiezellli-nie MOLT-4 und isolierte Lymphozyten gesunder Probanden mittels 1- und 2-Parameter-Durchflusszytometrie und Fluoreszenzmikroskopie bestimmt. Eine mögliche antimutagene und DNA-stabilisierende Wirkung der Frischpflanzenextrakte Helixor A, M und P auf kulti-vierte Lymphozyten gesunder Versuchspersonen wurde anhand des SCE- und Mikronuk-leus- Tests untersucht. Sowohl bei der durchflusszytometrischen und fluoreszenzmikroskopi-schen Auswertung als auch bei den Mutagenitätstests sollten außerdem eventuelle ge-schlechtsspezifische und wirtsbaumspezifische Wirkungen der drei unfermentierten Mis-telpräparate analysiert werden. Nach 72 h Inkubation der lymphatischen Leukämiezellen mit den Mistelextrakten Helixor A, M und P (2,5 150 microg/ml) bei unterschiedlichen FKS-Konzentrationen (15 2,5 %) konnte eine dosisabhängige Zunahme der apoptotischen Zellpopulation bei abnehmendem FKS-Gehalt festgestellt werden. Dabei zeigte das Präparat aus der Kiefernmistel die stärkste apopto-seinduzierende und wachstumshemmende Potenz, gefolgt von dem Präparat aus der Apfel-baummistel und dem Extrakt aus der Tannenmistel. Eine 72 h Kultivierung mononukleärer Zellen des peripheren Blutes gesunder weiblicher und männlicher Probanden mit den drei Helixor-Präparaten (50 200 microg/ml) resultierte ebenfalls in der Induktion des programmierten Zelltodes, wobei auch hier Helixor Pini das stärkste a-poptoseinduzierende Potential aufwies. Durchflusszytometrisch und fluoreszenzmikrosko-pisch konnten keine signifikanten geschlechtsspezifischen Unterschiede nachgewiesen wer-den. Die Bestimmung der Wachstumsrate mithilfe des Trypanblau-Ausschlusstests ergab je-doch eine signifikant niedrigere Wachstumsrate für Lymphozyten weiblicher Probanden bei Helixor Mali Konzentrationen von 100 und 200 microg/ml. Für die Leukämiezelllinie MOLT-4 konnte nach 72 h Inkubation mit den Mistellektinen I und III im Konzentrationsbereich von 0,05 20 ng/ml die Induktion des programmierten Zelltodes sowohl durchflusszytometrisch als auch fluoreszenzmikroskopisch nachgewiesen werden, wobei Mistellektin III die stärkere Wirkung zeigte. Nach 72 h Kultivierung isolierter Lymphozyten gesunder weiblicher und männlicher Proban-den mit den beiden isolierten Lektinen konnte ebenfalls ein signifikanter Anstieg der apopto-tischen Zellpopulation verzeichnet werden. Auch hier wies Mistellektin III die stärkere apop-toseinduzierende Potenz auf, signifikante geschlechtsspezifische Unterschiede traten nicht auf. Die Auswertung des SCE-Tests ergab nach 71 h Inkubation mit den Mistelpräparaten Helixor A, M und P (2,5 20 microg/ml) eine signifikante Abnahme der SCE-Rate bei Vollblutkulturen ge-sunder weiblicher und männlicher Probanden. Es traten jedoch keine wirtsbaumspezifischen oder geschlechtsspezifischen Unterschiede auf und auch die Zellzyklusverteilung und das Proliferationsverhalten veränderten sich unter Einwirkung der drei Extrakte nicht. Nach einer 71 h Kombinationsbehandlung der Helixor-Präparate mit den Zytostatika Cyc-lophosphamid (40 microg/ml), 5-Fluorouracil (5 microg/ml) bzw. Methotrexat (3 microg/ml) konnte eben-falls eine Abnahme der SCE-Rate, die durch die drei Zytostatika signifikant erhöht wurde, nachgewiesen werden. Die durch CP, 5 FU und MTH induzierten Veränderungen der Zell-zykluskinetik und des Proliferationsindexes konnten durch Helixor A, M und P jedoch nicht signifikant beeinflusst werden. Die Bestimmung der SCE-Rate ergab keine wirtsbaumspezifi-schen oder geschlechtsspezifischen Unterschiede. Nach Durchführung des Mikronukleus-Tests an Vollblutkulturen gesunder männlicher und weiblicher Blutspender konnte unter Einwirkung der Helixor-Extrakte Abietis, Mali und Pini (2,5 20 microg/ml) eine schwach signifikante Abnahme der MN-Rate festgestellt werden, wäh-rend der Mitose-Index unbeeinflusst blieb. Auch hier traten keine geschlechtsspezifischen o-der wirtsbaumspezifischen Unterschiede auf. Eine 71 h Kombinationsbehandlung der Lymphozyten mit den Frischpflanzenextrakten (2,5 20 microg/ml) und den Zytostatika CP (40 microg/ml), 5 FU (5 microg/ml) bzw. MTH (3 microg/ml) ergab eine signifikante bzw. hoch signifikante Abnahme der MN-Rate. Geschlechtsspezifische oder wirtsbaumspezifische Unterschiede wurden nicht gefunden. Der Mitose-Index wurde durch die Behandlung nicht wesentlich verändert.
We examine the feasibility polyhedron of the uncapacitated hub location problem (UHL) with multiple allocation, which has applications in the fields of air passenger and cargo transportation, telecommunication and postal delivery services. In particular we determine the dimension and derive some classes of facets of this polyhedron. We develop some general rules about lifting facets from the uncapacitated facility location (UFL) for UHL and projecting facets from UHL to UFL. By applying these rules we get a new class of facets for UHL which dominates the inequalities in the original formulation. Thus we get a new formulation of UHL whose constraints are all facet–defining. We show its superior computational performance by benchmarking it on a well known data set.
Given a public transportation system represented by its stops and direct connections between stops, we consider two problems dealing with the prices for the customers: The fare problem in which subsets of stops are already aggregated to zones and "good" tariffs have to be found in the existing zone system. Closed form solutions for the fare problem are presented for three objective functions. In the zone problem the design of the zones is part of the problem. This problem is NP hard and we therefore propose three heuristics which prove to be very successful in the redesign of one of Germany's transportation systems
We examine the feasibility polyhedron of the uncapacitated hub location problem (UHL) with multiple allocation, which has applications in the fields of air passenger and cargo transportation, telecommunication and postal delivery services. In particular we determine the dimension and derive some classes of facets of this polyhedron. We develop some general rules about lifting facets from the uncapacitated facility location (UFL) for UHL and projecting facets from UHL to UFL. By applying these rules we get a new class of facets for UHL which dominates the inequalities in the original formulation. Thus we get a new formulation of UHL whose constraints are all facet defining. We show its superior computational performance by benchmarking it on a well known data set.
Entwurf, Realisierung und Test eines objektorientierten CAD-Datenmodells für die Tragwerksplanung
(2000)
Elektronen in einem kristallinen Festkörper oder, allgemeiner formuliert, Teilchen in einem räumlich periodischen Potential bilden ein System, das schon seit den Anfängen der Quantenmechanik von fundamentalem Interesse ist. Ein wichtiges physikalisches Problem ist dabei die Berechnung der quantenmechanischen Zustände solcher Teilchen, die zusätzlich einem homogenen elektrischen Feld ausgesetzt sind. Die exakte Lösung dieses Problems ist jedoch selbst für eindimensionale Systeme nicht möglich, da der Versuch einer analytischen Berechnung auf unüberwindliche mathematische Probleme stößt. Diese versuchte Wannier 1960 zu umgehen, indem er die nach ihm benannten Wannierzustände einführte. Mit seiner Veröffentlichung stieß er eine jahrzehntelange Diskussion an. Vor allem die Begriffe Blochoszillationen, Zener-Tunneln und Wannier-Stark-Quantisierung standen im Mittelpunkt einiger Kontroversen. Ein physikalisch wichtiges Ergebnis der Diskussion ist die Erkenntnis, daß es sich bei den Eigenzuständen des betrachteten Systems um Resonanzen, d.h. metastabile Zustände, handelt, die sich auf eine ganz bestimmte Art und Weise anordnen lassen. Jede Resonanzenergie ist nämlich Teil einer Folge von äquidistanten Energieeigenwerten, den sogenannten Wannier-Stark-Leitern. Die Wannier-Stark-Quantisierung wurde zuvor lange Zeit in Frage gestellt, denn Zak zeigte, daß der Hamiltonoperator des Systems ein kontinuierliches Spektrum besitzt und widersprach damit der Aussage, das Systeme habe diskrete Energieeigenwerte. Tatsächlich ist das Spektrum, wenn man nur die reelle Achse betrachtet, kontinuierlich. Die Diskretisierung ergibt sich erst, wenn man zur Betrachtung der komplexen Ebene übergeht. Den ersten experimentellen Hinweis auf die Existenz von Wannier-Stark-Leitern fand man in Versuchen zur optischen Absorption in einem Festkörperkristall. In jüngster Zeit wurde das Interesse an diesem Gebiet der Physik durch Experimente mit Halbleiter-Übergittern und optischen Gittern erneut geweckt, denn man findet hier weitere Realisierungen des untersuchten Hamiltonoperators. Insbesondere erweisen sich neutrale Atome in stehenden Laserwellen als geeignete Studienobjekte. Die Untersuchungen mit Hilfe dieser Experimente haben den Vorteil, daß sie nicht wie Versuche mit Elektronen in Festkörpern durch spezifische Probleme wie Gitterfehler, Verunreinigungen, Phonon-Elektron-Wechselwirkung, Elektron-Elektron-Wechselwirkung, etc. gestört werden. Genauer gesagt, viele theoretische Aussagen über das System lassen sich erst durch das Fehlen der festkörpereigenen Störeinflüsse experimentell überprüfen. Andererseits lösen die neuen Ergebnisse der Experimentalphysik eine Weiterentwicklung der zugehörigen Theorie aus. Den Ausgangspunkt der Untersuchungen zu dieser Thematik in unserer Arbeitsgruppe bildete die Entwicklung einer effizienten Methode zur Berechnung von Wannierzuständen. Anschließend wurden verschiedene Aspekte des Wannier-Stark-Systems betrachtet, u.a. die Auswirkungen eines zusätzlichen zeitperiodischen äußeren Feldes, wie es beispielsweise im Experiment auftaucht. Die vorliegende Arbeit soll in diesem Zusammenhang klären, wie die Lebensdauer der Wannier-Stark-Resonanzen durch den periodischen Antrieb beeinflußt wird.
Aufgrund des spezifischen Eigenschaftsprofils weisen Faser-Kunststoff-Verbunde (FKV) wesentliche
komparative technische Vorteile gegenüber den Konkurrenzwerkstoffen in einer Reihe
von industriellen Anwendungsfeldern auf. Trotz des daraus resultierenden Marktpotenzials
konnten sich die FKV noch nicht in dem erwarteten Maße durchsetzten. Ursache hierfür ist die
im Allgemeinen zwischen FKV und traditionellen Materialien bestehende signifikante "Wirtschaftlichkeitslücke".
Um eine Lösung dieses Problems voranzutreiben, wurden neue Ansätze bei der Entwicklung
innovativer FKV-Anwendungen erforderlich. Optimierungspotenziale sind möglichst früh im
Entwicklungsprozess zu identifizieren und konsequent zu erschließen. Hierzu wird ein geeignetes
Analyse- und Planungsinstrument benötigt. Die bisher zur Verfügung stehenden Methoden
der Wirtschaftlichkeitsanalyse auf Basis von Herstellkosten erweisen sich als unzureichend, da
innovative FKV-Anwendungen, die hohe Herstellkosten bedingen, aber gleichzeitig im Betrieb
Kostenvorteile gegenüber herkömmlichen Alternativprodukten aufweisen, benachteiligt werden.
Deshalb wurde ein neuartiges, werkstoffgerechtes Instrument der Wirtschaftlichkeitsanalyse
für FKV entwickelt, welches sich auf die Methode der Lebenszykluskostenrechnung stützt.
Das neuartige Instrument wurde auf verschiedene Fallstudien aus den Bereichen Verkehrstechnik,
Anlagenbau, Bauwesen und Offshore-Industrie angewendet. Dies diente der Modellvalidierung,
dem Aufzeigen von Anwendungsoptionen der Methodik bzw. des Modells im Rahmen
von konkreten FKV-Entwicklungsaufgaben sowie der Bereitstellung einer Grundlage für die
abschließende Ableitung einer wirtschaftlichkeits- und damit zukunftsorientierten Entwicklungsstrategie
für FKV.
Diese Arbeit widmete sich der Aufgabe, quantitative Abschätzungen für Emissionsspektren eines geladenen Teilchens in starken äußeren Feldern zu liefern. Es wurde hierzu in Kapitel 2 der Weg beschritten, zuerst das System mit klassischer Dynamik zu beschreiben, wobei man unter Umständen aus den klassischen Hamilton'schen Bewegungsgleichungen analytische Ausdrücke ableiten kann, und mit diesen Ergebnissen die Grenzen abzustecken, innerhalb derer sich das Quantensystem entwickeln kann. Ähnlich wie bei dem in der Einleitung erwähnten Modell, das die Cutoff-Frequenz für ein Atomelektron aus semiklassischen Überlegungen ableitet, konnten hier für ein Bloch-Teilchen zwei Cutoff-Gesetze abgeleitet werden. Sie gingen aus Näherungen der Hamilton'schen Bewegungsgleichungen hervor, wenn die Bewegung entweder durch das Stark-Feld oder das zeitliche Wechselfeld beherrscht wird, und stimmten mit den numerischen Ergebnissen der klassischen Dynamik gut überein. Darüber hinaus konnten sie sogar die quantenmechanischen Resultate bestätigen, was von Bedeutung ist, da die Ableitung quantitativer Ausdrücke bei der Quantendynamik solcher zeitabhängiger Systeme sehr große Schwierigkeiten bereitet und meist nur numerisch - nicht analytisch - möglich ist. Im zweiten Teil der Arbeit (Kapitel 3) wurde mit dem Zwei-Niveau-System ein quantenmechanisches System behandelt, das aufgrund seiner einfacheren Stuktur analytische Ausdrücke zulässt. Hier wurde aus der Formel für den Erwartungwert des Dipolmoments ein Ausdruck abgeleitet, der die Größe des Plateaus im HHG-Spektrum bestimmt. Außerdem konnte man bei der näherungsweisen Berechnung des Spektrums mittels stationärer Phase zeigen, dass die Fluktuationen im Bereich des Plateaus durch die Überlagerung der Beiträge der beiden stationären Punkte verursacht wird.
Da gerade in der heutigen Zeit viele zusammenarbeitende Softwareentwickler benötigt werden, um immer komplexer werdende Applikationen zu entwerfen, geht der Trend mehr und mehr in die Richtung des räumlich getrennten Arbeitens. Begünstigt wird diese Entwicklung nicht zuletzt durch die Möglichkeiten der Kommunikation und des Datenaustauschs, die durch das Internet geboten werden. Auf dieser Basis sollen Werkzeuge konzipiert und entwickelt werden, die eine effiziente verteilte Softwareentwicklung ermöglichen. Die Nutzung des Internet zu diesem Zweck löst das Verbindungsproblem für sehr große Entfernungen, die Nutzung von Webservern und -browsern wird der Anforderung der Betriebssystemunabhängigkeit und der Realisierung der Verteiltheit im Sinne des Client/Server-Prinzips gerecht. Unter dem Oberbegriff "Software Configuration Management" versteht man die Menge aller Aufgaben, die bei der Produktverwaltung im Bereich der Softwareherstellung anfallen. In dieser Ausarbeitung sollen zunächst die Anforderungen an ein webbasiertes SCM-System formuliert, einige technische Möglichkeiten genannt und verschiedene existierende SCM-Produkte, die eine Web-Schnittstelle bieten auf die Anforderungen überprüft und miteinander verglichen werden.
Gerade in einer Zeit, in der das Internet in nahezu alle Bereiche des menschlichen Lebens vorgedrungen ist und sich nicht zuletzt aufgrund seiner unbegrenzt scheinenden Möglichkeiten zur Beschaffung und zum Austausch von Informationen und zur weltweiten Kommunikation eines sehr starken Zuspruchs erfreut, liegt es nicht nur im Sinne von Rechenzentren und Dienstanbietern, eine Möglichkeit zur Abrechnung der in Anspruch genommenen Ressourcen in die Hand zu bekommen. Die Erschließung neuer Regionen, sowie der Ausbau vorhandener Netze in Richtung einer Bereitstellung höherer Bandbreiten zur Verbesserung der Übertragungsgeschwindigkeiten ist mit immensen Kosten verbunden. Es ist nicht Aufgabe dieser Arbeit zu entscheiden, auf welche Art und Weise die Kosten auf die Benutzer umgelegt oder verteilt werden sollen. Wir wollen hier auch keine Vorschläge zu solchen Überlegungen einbringen, da dergleichen die Domäne anderer Disziplinen, wie beispielsweise der Betriebs- und Volkswirtschaftslehre und der Politik, darstellt. Unsere Aufgabe ist es aber, die informatikspezifischen Probleme der rechnerinternen Erfassung von Accountinginformationen zu beleuchten und so gesammelte Werte den Spezialisten anderer Fachgebiete zur weiteren Verarbeitung zu überlassen. So befasst sich diese Arbeit zunächst mit den grundlegenden Eigenschaften und Modellen des zu betrachtenden Datenverkehrs, um im folgenden Voraussetzungen und Möglichkeiten zur Realisierung einer benutzerorientierten Erfassung und Abrechung der genutzten Netzwerkressourcen aufzuzeigen und herauszuarbeiten.
Da die zweiwertige Aussagenlogik nicht nur innerhalb der Logik insgesamt, sondern auch schon in der Aussagenlogik einen vergleichbaren Platz wie die euklidische Planimetrie im Rahmen der gesamten modernen Geometrie einnimmt, soll hier eine Einführung in eine vom tertium non datur unabhängige mehrwertige Logik gegeben werden. Neben Definition und Beispielen mehrwertiger Logiken soll auch auf die Möglichkeit der Axiomatisierung sowie auf Fragen des Entscheidungsproblems in solchen Logiken eingegangen werden.
Zerlegungen und Parkettierungen der Ebene spielen in vielen wissenschaftlichen, praktischen und künstlerischen Bereichen eine wichtige Rolle. In dieser Abhandlung werden solche diskrete Systeme von Punktmengen betrachtet. Zunächst werden Packungen einfacher Figuren durch Polyominos, diskrete Zerlegungen der Ebene sowie Zerlegungen von Polygonen in Polygone behandelt. Weiterführend werden sowohl Mosaike, als auch Parkette und deren Anwendungsbeispiele vorgestellt.
Besides the work in the field of manipulating rigid objects, currently, there are several research and development activities going on in the field of manipulating non-rigid or deformable objects. Several papers have been published on international conferences in this field from various projects and countries. But there has been no comprehensive work which provides both a representative overview of the state of the art and identifies the important aspects in this field. Thus, we collected these activities and invited the corresponding working groups to present an overview of their research. Altogether, nineteen authors coming from Japan, Germany, Italy, Greece, United Kingdom, and Australia contributed to this book. Their research work covers all the different aspects that occur when manipulating deformable objects. The contributions can be characterized and grouped by the following four aspects: * object modeling and simulation, * planning and control strategies, * collaborative systems, and * applications and industrial experiences. In the following, we give a short motivation and overview of the single chapters of the book. The simulation of deformable objects is one way to approach the problem of manipulating these objects by robots. Based on a physical model of the object and the occurring constraints, the resulting object shape is calculated. In Chapter 2, Hirai presents an energy-based approach, where the internal energy under the geometric constraints is minimized. Frugoli et al. introduce a force-based approach, where the forces between discrete particles are minimized meeting given constraints. Finally, Remde and Henrich extend the energy-based approach to plastic deformation and give a solution of the inverse simulation problem. Even if the object behavior is predicted by simulation, there is still the question of how to control the robot during a single manipulation operation. An additional question is how to retrieve an overall plan for the concatenated manipulation operations. In Chapter 3, Wada investigates the control problems when positioning multiple points of a planar deformable object. McCarrager proposes a control scheme exploiting the flexibility, rather than minimizing it. Abegg et al. use a simple contact state model to describe typical assembly tasks and to derive robust manipulation primitives. Finally, Ono presents an automatic sewing system and suggests a strategy for unfolding fabric. In several manipulation tasks, it is reasonable to apply more than one robot. Especially in cases, where the deformable object has to take a specific shape. Since the robots working at the same object are influencing each other, different control algorithms have to be introduced. In Chapter 4, Yoshida and Kosuge investigates this problem for the task of bending a sheet of metal and exploits the relation ship between the static object deformation and the bending moments. Tanner and Kyriakopoulos regard the deformable object as underactuated mechanical system and make use of the existence of non-holonomic constraints. Both approaches model the deformable object as finite elements. All of the above aspects have their counterpart in different applications and industrial experiences. In Chapter 5, Rizzi et al. present test cases and applications of their approach to simulate the manipulation of fabric, wires, cables, and soft bags. Buckingham and Graham give an overview of two European projects processing white fish including locating, gripping, and deheading the fish. Maruyama outlines the three development phases of a robot system for performing outage-free maintenance of live-line power supply in Japan. Finally, Kämper presents the development of a flexible automatic cabling unit for the wiring of long-tube lighting with plug components.
Annual Report 1999
(2000)
In the Black-Scholes type financial market, the risky asset S 1 ( ) is supposed to satisfy dS 1 ( t ) = S 1 ( t )( b ( t ) dt + Sigma ( t ) dW ( t ) where W ( ) is a Brownian motion. The processes b ( ), Sigma ( ) are progressively measurable with respect to the filtration generated by W ( ). They are known as the mean rate of return and the volatility respectively. A portfolio is described by a progressively measurable processes Pi1 ( ), where Pi1 ( t ) gives the amount invested in the risky asset at the time t. Typically, the optimal portfolio Pi1 ( ) (that, which maximizes the expected utility), depends at the time t, among other quantities, on b ( t ) meaning that the mean rate of return shall be known in order to follow the optimal trading strategy. However, in a real-world market, no direct observation of this quantity is possible since the available information comes from the behavior of the stock prices which gives a noisy observation of b ( ). In the present work, we consider the optimal portfolio selection which uses only the observation of stock prices.
Abstract: We develop a method of singularity analysis for conformal graphs which, in particular, is applicable to the holographic image of AdS supergravity theory. It can be used to determine the critical exponents for any such graph in a given channel. These exponents determine the towers of conformal blocks that are exchanged in this channel. We analyze the scalar AdS box graph and show that it has the same critical exponents as the corresponding CFT box graph. Thus pairs of external fields couple to the same exchanged conformal blocks in both theories. This is looked upon as a general structural argument supporting the Maldacena hypothesis.
In der vorliegenden Arbeit wird ein neuer präparativer Zugang für das gemischtvalente Tetraphosphet 5, einem Homologen des Cyclodiphosphazens, beschrieben. Durch Umsetzung des Bis(amino)chlorphosphans 26 mit Tris(trimethylsilyl)phosphan (31) bzw. Lithiumbis(trimethylsilyl)phosphanid (32) kann 5 erstmals in größeren Mengen hergestellt werden. NMR-spektroskopische Untersuchungen sowie die Stöchiometrie der Reaktion weisen darauf hin, dass hierbei das Tris(phosphanyl)phosphan 30 als Zwischenstufe beteiligt ist. Das für die Synthese von 5 angewandte Konzept ermöglicht die Herstellung weiterer Homologer. So reagiert das Bis(amino)chlorphosphan 26 mit Tris(trimethylsilyl)arsan (51) auf analoge Weise zum Diarsadiphosphet 52. Eine Tris(phosphanyl)arsan-Zwischenstufe (55) kann vermutet werden. 52 kristallisiert isotyp zu 5. Die Winkel im rautenförmig verzerrten zentralen Vierring von 52 unterscheiden sich mit Werten von 100.81(4)° an P1 bzw. 79.19(4)° an As1 nur geringfügig von den entsprechenden Werten in 5 (100.6(1)° an P1 bzw. 79.4(1)° an P2). Die ermittelten P-As- Bindungslängen liegen mit 2.2836(13) bzw. 2.2837(13) Å in der Mitte der Werte typischer P-As-Einfach- und Doppelbindungen. Bei der Umsetzung des Bis(amino)chlorarsans 66 mit Tris(trimethyl)silylphosphan (31) bzw. Lithiumbis(trimethylsilyl)phosphanid (32) kann das Tris(arsanyl)phosphan 67 isoliert werden. Die Molekülstruktur von 67 zeigt eine schaufelradartige "all-trans"-Anordnung der drei Arsanyl-Substituenten um das pyramidale Phosphoratom (Winkelsumme: 333°). Die P-As-Bindungslängen entsprechen mit mittleren 2.377 Å typischen P-As-Einfachbindungswerten. Im Vergleich zu seinen Analoga 30 und 55 ist das Tris(arsanyl)phosphan 67 wesentlich stabiler. Erst bei Temperaturen über 150°C beobachtet man eine deutliche Zersetzung von 67. NMR-spektroskopisch lässt sich hierbei das Tetrakis(amino)diarsan 72 als Thermolyseprodukt nachweisen. Man findet keine konkreten Hinweise für die Bildung eines zu 5 bzw. 52 homologen Diphosphadiarsets. Einen vollkommen unerwarteten Verlauf nimmt die Umsetzung des Bis(amino)chlorarsans 66 mit einem Überschuss an Lithiumbis(trimethylsilyl)phosphanid (32). Neben dem bereits bekannten Tetraphosphet 5 erhält man mit dem Arsatriphosphet 84 einen weiteren Vertreter aus der Familie der cyclodiphosphazenähnlichen Verbindungen. 5 und 84 bilden "echte" Mischkristalle, die ermittelte Molekülstruktur entspricht deshalb einem statistischen Doppelbild. Die durch die unsymmetrische Verteilung der Pnikogenatome in 84 bedingte drachenförmige Verrzerrung des zentralen Vierringes dokumentiert sich im spitzen Winkel von 74.3(2)° an As1. Demgegenüber weisen die Winkel an P1 (103.4(3)°), P1a (100.8(3)°) und P2 (81.4(3)°) nur geringe Unterschiede zu den entsprechenden Werten in 5 und 52 auf. Die P-As-Bindungslängen liegen mit Werten von 2.317(8) und 2.273(8) Å im gleichen Größenordnungsbereich wie die entsprechenden Werte in 52. Bei der Umsetzung des Bis(amino)chlorarsans 66 mit Tris(trimethylsilyl)arsan konnte die Bildung des Tris(arsanyl)arsans 91 NMR-spektroskopisch und massenspektrometrisch nachgewiesen werden. Hinsichtlich seiner thermischen Stabilität ordnet sich 91 zwischen dem Tris(phosphanyl)phosphan 30 und dem Tris(arsanyl)phosphan 67 ein. Die bei Raumtemperatur langsam verlaufende Zersetzung von 91 verläuft analog zur Thermolyse von 67. Auch hier lässt sich NMR-spektroskopisch das Tetrakis(amino)diarsan 72 als Zersetzungsprodukt nachweisen. Hinweise auf die Bildung eines zu 5 bzw. 52 homologen Tetraarsets werden nicht beobachtet. Auch von dem Tetrakis(amino)arsan 72 liegen Ergebnisse einer Kristallstrukturanalyse vor. Die Konformation in 72 weicht um 61.5° von einer idealen trans-Anordnung ab. Der As-As-Abstand ist mit 2.673(3) Å der größte bislang ermittelte. "Sekundäre" As-As-Bindungen zwischen benachbarten Molekülen werden nicht beobachtet. 72 ist extrem empfindlich gegenüber Luftsauerstoff. Durch Oxidation entsteht das Bis(arsanyl)oxid 94, von dem ebenfalls eine Kristallstruktur vorliegt. Die As-O-Bindungslängen in 94 betragen 1.808(4) und 1.806(4) Å, der As-O-As-Winkel 126.1(3)°.Erste orientierende Untersuchungen belegen die Eignung des Tetraphosphets 5 und des Diarsadiphosphets 52 als Bausteine für die Synthese neuartiger Heterocyclen. 5 setzt sich mit Acetylendicarbonsäuredimethylester (6a) in glatter Reaktion zu dem Tetraphosphinin 110 um. Die ermittelten Strukturparameter für 110 (Torsion des Sechsringes, P-P-Bindungs-längen zwischen 2.1182(8) und 2.1335(8) Å, P-C-Abstände von 1.799(2) und 1.741(2) Å sowie die C-C-Bindungslänge von 1.402(3) Å) und die 31 P- und 13 C-NMR- Daten weisen auf einen ylidischen Charakter der Bindungen innerhalb des zentralen Sechsringes hin. Erst unter drastischeren Reaktionsbedingungen (mehrere Tage bei 150°C im geschlossenen Rohr) und wesentlich unselektiver verläuft dagegen die Umsetzung von 5 mit Diphenylacetylen (6b). Neben einem weiteren Tetraphosphinin-Derivat 122 lässt sich hierbei 31 P-NMR-spektroskopisch und massenspektrometrisch das 1ao -Diphosphet 123 nachweisen. Dieses resultiert formal aus der 2+2-Cycloaddition des Phosphidophosphorans Me 2 Si(N t Bu)2 P P (29) an das Alkin 6b. Bei der Reaktion des Diarsadiphosphets 52 mit Acetylendicarbonsäuredimethylester 6a weisen die experimentellen Befunde auf die Bildung des 2ao-Arsaphosphets 124 hin. Darüberhinaus findet man Hinweise für die achtgliedrigen Acht-A' -Elektronen-P/As-Heterocyclen 125 und 126, die formal aus der Insertion von 2 Äquivalenten 6a in die P/As-Bindungen des Diarsadiphosphets 52 resultieren.
Circulardichroismus und Helical Twisting Power als Chiralitätsmessungen an anisotropen Systemen
(2000)
Die Ergebnisse von Messungen an chiralen anisotropen Systemen sind entweder nur oder gar nicht oder nur teilweise durch deren Chiralität bestimmt. Um Ergebnisse von Messungen an chiralen anisotropen Phasen so zu klassifizieren, daß sie entweder nur durch die Chiralität oder nicht durch sie bestimmt sind, bedarf es der Erweiterung der Definition des Begriffs "Chiralitätsmessung" auf anisotrope Systeme, die für isotrope Systeme erstmals von Ruch und Schönhofer gegeben wurde. Für optische Messungen ergibt sich dabei, daß mindestens eine C3-Symmetrie um die Richtung, entlang der die Messung durchgeführt wird, existieren muß oder durch mehrere unabhängige Messungen der um diese Richtung gedrehten Probe in die Auswertung der Messung eingebracht werden muß, um eine Chiralitätsmessung zu erhalten. Beispiele dafür sind der Circulardichroismus anisotroper Phasen (ACD) und chirale Induktion (Helical Twisting Power (HTP)). Für die Analyse des ACD's und der HTP von Binaphthylen stehen aus früheren Arbeiten Strukturdaten und Ordnungstensoren zur Verfügung, so daß für diese Verbindungen die Circulardichroismustensoren und die Chiralitätswechselwirkungstensoren bestimmt werden konnten. Wenn mindestens zwei Verbindungen zu Verfügung stehen, die den gleichen Chromophor besitzen, sich aber strukturell in anderen Bereichen unterscheiden und damit in einer flüssigkristallinen Phase andere Ordnungstensoren haben, dann sind die unterschiedlichen ACD-Spektren dieser Verbindungen auf die unterschiedliche Orientierung der Moleküle und damit der Chromophore im Flüssigkristall zurückzuführen. In diesem Fall kann dann die Bestimmung der Tensorkoordinaten des Circulardichroismustensors mit guter Genauigkeit erfolgen und mit den Strukturmerkmalen der Verbindungen in Beziehung gesetzt werden. Obwohl der ACD mit dem Circulardichroismustensor und die HTP mit dem Chiralitätswechselwirkungstensor mit der gleichen Gleichungsstruktur beschrieben werden können, sind bei der Auswertung und Behandlung der HTP der Binaphthyle mit dem Chiralitätswechselwirkungstensor Besonderheiten zu beachten. Dieser Tensor ist keine reine molekulare Größe, denn er enthält Wechselwirkungen des Gastmoleküls mit der Wirtsphase. Daher mußte der Chiralitätswechselwirkungstensor über zwei Näherungen bestimmt werden. Die Ergebnisse, die in einer der Näherungen erhalten werden, lassen sich hier ebenfalls mit der Molekülstruktur korrelieren. Aus der Auswertung innerhalb der anderen Näherung ergaben sich jedoch Ergebnisse, die widersprüchlich sind und im Rahmen der vorliegenden Arbeit physikalische nicht interpretiert werden konnten. Wichtig ist aber der Befund, daß der Circulardichroismustensor und der Chiralitäts-wechselwirkungstensor, die für die verbrückten Binaphthyle erhalten werden, auf die gleichen strukturellen Elemente der Verbindungen zurückgeführt werden können. Beide von der Art her sehr unterschiedlichen Phänomene - optische Messungen resp. Wechselwirkungen von Molekülen in einer Phase - können demnach auf ein gleiches Strukturelement zurückgeführt werden. Die unverbrückten Binaphthyle zeigen CD-Spektren, die in ihrer spektralen Lage und der Amplitude des Couplets zu denen der verbrückten Binaphthylen ähnlich sind, während bei der HTP ein grundsätzlicher Unterschied besteht. Dieser Unterschied zeigt, daß die flachen Potentialkurven der unverbrückten Binaphthyle bei der Drehung um die Naphthyl-Naphthyl-Bindung beim CD und ACD und bei der HTP zu sehr unterschiedlichen Effekten führen. Dieser Unterschied in den Effekten ist bisher nicht vollständig verstanden. Während bei der Messung des CD's über die Konformeren mit verschiedenen Diederwinkeln gemittelt wird, wird bei der chiralen Induktion über verschieden geordnete Konformere - verschiedene Ordnungstensoren - gemittelt. In diesem Fall sieht man die Meßgröße als eine über die Ordnung gewichtete molekulare Größe eines Konformerengemisches.
Zur Untersuchung des Abflussverhaltens gängiger Befestigungsarten wurden mit Hilfe des Modells KOSMO Niederschlag-Abfluss-Simulationen durchgeführt. Betrachtet wurden hier-bei sowohl Einheitsflächen als auch ganze Einzugsgebiete verschiedener städtebaulicher Struktur. Die Berechnungen erfolgten unter Vorgabe empfohlener Verlustparameter zur Benetzung und zur Muldenauffüllung sowie angepasster Parameterwerte zur Beschreibung der Versickerung. Die Abflusssimulationen wurden für ein weitreichendes Spektrum bemessungsrelevanter Niederschlagsbelastungen vollzogen. Es wurden Einzelregen konstanter und variabler Intensität unterschiedlicher Regendauer sowie eine neunmonatige Nieder-schlagsreihe simuliert. Aus der Bilanzierung des Niederschlag-Abfluss-Prozesses wurden die verschiedenen Abflussbeiwerte der unterschiedlichen Flächenarten ermittelt. Die Modellsimulationen haben gezeigt, dass eine signifikante Abhängigkeit der rechneri-schen Abflussbeiwerte von der zugrunde gelegten Niederschlagsbelastung besteht, die mit zunehmender Versickerungsfähigkeit der Flächen ansteigt. Während die weitestgehend undurchlässigen Flächentypen recht konstante Werte aufweisen, sind die Abflussbeiwerte der durchlässig befestigten Flächen großen niederschlagsbedingten Schwankungen von bis zu 0,5 unterlegen. Hierbei spielen sowohl die Regenintensität als auch die Regendauer und der zeitliche Verlauf des Regens eine Rolle. Die Berechnungsergebnisse für den mittleren Abflussbeiwert, den Endabflussbeiwert sowie den Spitzenabflussbeiwert zeigten für die Simulation von Einzelereignissen unter Berück-sichtigung der belastungsbezogenen Abhängigkeit eine gute Übereinstimmung mit den Richtwerten. Den Berechnungen des mittleren Abflussbeiwertes und des Endabflussbeiwertes wurden hierbei wesentlich geringere Parameterwerte zur Versickerung zugrunde gelegt als für den Spitzenabflussbeiwert, für den die Richtwerte nur mit deutlich höher angesetzten Infiltrationsleistungen bestätigt werden konnten. Diese Versickerungsleistungen liegen zwar noch deutlich unter den von Borgwardt und Muth in neueren Untersuchungen festgestellten Werten und sind somit wissenschaftlich begründet. Dennoch erscheint es fraglich, ob das Versickerungsvermögen durchlässig befestigter Flächen tatsächlich derart hoch ist. Diese Frage kann jedoch anhand der vorliegenden Untersuchung nicht geklärt werden. Des Weiteren wurde festgestellt, dass die Langzeitsimulation von Niederschlagsreihen mit den an Einzelereignisse angepassten Modellparametern sehr geringe Ergebniswerte für den mittleren Abflussbeiwert und teilweise auch für den Endabflussbeiwert der durchlässigen Flächenbefestigungen liefert. Hier stellt sich die Frage, ob der Abflussbeitrag von diesen Flächen im Jahresmittel tatsächlich derart gering ausfällt. Dies wäre aufgrund der Abhängigkeit der Abflussbeiwerte von der Regenbelastung durchaus plausibel, da ein Großteil der jährlichen Niederschlagsereignisse nur geringe Intensitäten aufweist. Der Ansatz geringerer Parameterwerte zur Versickerung erscheint im Hinblick auf die in der Literatur genannten Untersuchungsergebnisse nicht sinnvoll. Darüber hinaus trat hinsichtlich der Endabflussbeiwerte die Problematik auf, dass sich aus der Definitionsgleichung für stark durchlässige Flächenbefestigungen unzutreffenden Werte ergeben. Die Langzeitsimulation von Einzugsgebieten mit einem hohen Anteil versickerungsintensiver Flächen muss daher als problematisch beurteilt werden. Betrachtungen zur Genauigkeit der durchgeführten Untersuchungen (hier nicht aufgeführt) haben gezeigt, dass zahlreiche gebiets- und modellspezifische Faktoren Einfluss auf die Zuverlässigkeit der Berechnungsergebnisse haben. Die rechnerischen Abflussbeiwerte weisen insbesondere hinsichtlich der Parameterwerte im Versickerungsansatz nach Horton eine starke Sensitivität auf, die bei der Anwendung von Abflussmodellen zur Berechnung des Oberflächenabflusses berücksichtigt werden muss. Aufgrund der im Rahmen dieser Arbeit durchgeführten Modellberechnungen kann die Kompatibilität von Berechnungen des Oberflächenabflusses durch Abflusssimulation mit den empfohlenen Standardwerten der einschlägigen Literatur grundsätzlich festgestellt werden. Durch die Anwendung gängiger Modellansätze zur Beschreibung der Abflussbildung unter Ansatz angepasster Parameterwerte können insbesondere bei der Simulation von Einzelereignissen weitgehend übereinstimmende Ergebnisse erzielt werden. Es ist jedoch zu beachten, dass die Simulationsergebnisse entscheidend von der angesetzten Niederschlagsbelastung bestimmt werden, so dass die Anwendung von Berechnungsmodellen nur bezogen auf bestimmte Niederschlagsbelastungen erfolgen kann. Darüber hinaus empfiehlt es sich dringendst, das eingesetzte Modell vorab unter Berück-sichtigung der gebietsspezifischen Gegebenheiten bezüglich der angesetzten Parameterwerte zu eichen. Die Anwendung von Abfluss- und Schmutzfrachtmodellen setzt daher stets voraus, dass die abflussrelevanten Randbedingungen sorgfältig erfasst und bei der Abflusssimulation ausreichend berücksichtigt werden. Die Anwendung von Abflussmo-dellen zur Berechnung des Oberflächenabflusses ist insbesondere im Hinblick auf eine differenzierte Betrachtung der Teilflächen und der Berücksichtigung des Versickerungsbei-trages durchlässiger Befestigungsarten sinnvoll, während diesbezüglich die Angaben des ATV-Arbeitsblattes A 118 nicht ausreichend sind. Des Weiteren machten die Untersuchungen deutlich, dass der derzeitige Kenntnisstand bezüglich des Infiltrationsvermögens durchlässig befestigter Flächen nicht ausreicht. Die vorzugebenden Modellparameter zur Versickerung sind bislang noch mit größeren Unsicherheiten behaftet, die sich unmittelbar auf die Zuverlässigkeit der Berechnungsergebnisse niederschlagen. Hier werden langfristige und großflächig angelegte Freilandmessungen empfohlen, die zur Erarbeitung von Versickerungswerten als Eingangsgrößen in die Abflussberechnungen und zur Festlegung von Abflussbeiwerten dienen können.
Hier werden die im Internet verfügbaren Umweltberichte von Unternehmen ausgewertet, Praxiserfahrungen von im Internet umweltberichterstattenden Unternehmen dokumentiert, generelle Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen, eine Klassifikation von Umweltberichten im Internet entworfen und Entwicklungstendenzen in der Umweltberichterstattung skizziert. Die Studie ist in sechs Kapitel gegliedert: Zur thematischen Einführung werden Umweltberichte als Kern der Umweltkommunikation von Unternehmen behandelt (Kapitel 2). Es schließen sich die spezifischen informations- und kommunikationstechnischen (IKT) Herausforderungen an umweltberichterstattende Unternehmen an. Diese werden als Ansatzpunkte für eine Umweltberichterstattung im Internet sowie zur Ausschöpfung der technischen Unterstützungspotentiale des Internet betrachtet (Kapitel 3). Damit ist die Basis für eine Übersicht über die verschiedenen technischen Unterstützungspotentiale beim Einsatz von Internettechnologien und -diensten für die Umweltberichterstattung gelegt (Kapitel 4). Der Übersicht folgt eine detaillierte Bestandsaufnahme zu Umweltberichten von Unternehmen im Internet für Deutschland (Kapitel 5). Auf der Grundlage der Bestandsaufnahme wird abschließend für den Einsatz des Internet zur Umweltberichterstattung argumentiert (Kapitel 6).
Die Umweltberichterstattung spielt sowohl für den ökonomischen Erfolg von Unternehmen als auch für eine ökologisch nachhaltige Entwicklung eine zunehmend wichtige Rolle. Dafür sprechen drei Gründe: Erstens können Unternehmen kön-nen durch eine freiwillige und informative Umweltberichterstattung ökologische Schwachstellen aufdecken, Umweltbelastungen reduzieren und Wettbewerbsvorteile im Markt erzielen. Zweitens nehmen gesetzliche und moralische Verpflichtungen zur Umweltberichterstattung zu. Drittens sind die technischen Möglichkeiten zur Umweltberichterstattung durch den Einsatz des Internet enorm gestiegen. Alle drei Tendenzen sind gute Gründe für den Einsatz des Internet zur Umweltberichterstattung. Allerdings sind bei den Umweltberichten von kleinen und mittelständischen Unternehmen (KMU) insgesamt bisher erst weniger als 3% im Internet veröffentlicht, die Tendenz ist jedoch steigend. Bislang nutzen überwiegend internationale und weltweit tätige Großunternehmen das Internet zur Umweltberichterstattung. KMU präsentieren bislang nur selten Umweltberichte im Internet. Hier werden die im Internet verfügbaren Umweltberichte von KMU ausgewertet, generelle Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen und die Möglichkeiten von KMU für eine internetbasierte Umweltbe-richterstattung am Beispiel von Umweltberichten dargestellt. Die Studie ist in sechs Kapitel gegliedert: Zur thematischen Einführung werden Umweltberichte als Kern der Umweltkommunikation von Unternehmen behandelt (Kapitel 2). Es schließen sich die informations- und kommunikationstechnischen (IKT) Herausforderungen an umweltberichterstattende Unternehmen an. Sie werden als Ansatzpunkte für Umweltberichte im Internet und zur Ausschöpfung der technischen Unterstützungspotentiale des Internet betrachtet (Kapitel 3). Damit ist die Basis für eine Übersicht über die verschiedenen technischen Unterstützungspotentiale beim Einsatz von Internettechnologien und -diensten für die Umweltbe-richterstattung gelegt (Kapitel 4). Der Übersicht folgt eine detaillierte Bestandsauf-nahme von Umweltberichten im Internet von KMU in Deutschland (Kapitel 5). Auf der Grundlage der empirischen Bestandsaufnahme werden dann die Möglichkeiten einer internetbasierten Umweltberichterstattung für KMU abgeleitet (Kapitel 6).
Von den Umweltberichten deutscher Unternehmen werden bisher erst unter 3% im Internet veröffentlicht. Die Tendenz ist steigend. Hier werden die im Internet verfügbaren Umweltberichte ausgewertet und Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen. Der Beitrag ist in fünf Abschnitte gegliedert: Zur thematischen Einführung werden betriebliche Umweltberichte durch eine Morphologie charakterisiert (Abschnitt 2). Es schließen sich die IKT-spezifischen Herausforderungen an umweltberichterstattende Unternehmen als Ansatzpunkte für Umweltberichte im Internet an (Abschnitt 3). Damit ist die Basis für eine Systematisierung der internetbasierten Unterstützungspotenziale zur Umweltberichterstattung gelegt (Abschnitt 4). Der Systematik folgt eine detaillierte Bestandsaufnahme der Umweltberichte deutscher Unternehmen im Internet in fünffacher Hinsicht (Abschnitt 5): Die zugrunde gelegte Untersuchungsmethodik zur Bestandsaufnahme wird erläutert (Abschnitt 5.1). Die ergänzend herangezogenen empirischen Studien zu Umweltberichten im Internet werden ausgewertet (Abschnitt 5.2). Die Ergebnisse bzgl. Inhalt und Darstellung von Umweltberichten im Internet werden ausführlicher beschrieben (Abschnitt 5.3) und durch Erklärungsansätze interpretiert (Abschnitt 5.4). Abschließend werden auf der Grundlage der konzeptionell erschließbaren Unterstützungspotenziale einerseits und der empirischen Studien andererseits zentrale Tendenzen zur zukünftigen Entwicklung von Umweltberichten im Internet vorgetragen (Abschnitt 5.5).
Corporate environmental reporting makes good business and environmental sense. A big challenge for companies is to utilize the technical benefit of state of the art IT, especially of Internet-technologies and Internet-services. In this paper an approach of internet-based environmental reports by companies is presented. Three different levels are discussed: The first level deals with the basics of corporate environmental reports (CER) by companies. Illustrating the order within the emerging field of CERs a morphological box is suggested (section 1). Building on this, general requirements for corporate environmental reports are outlined (section 2). On the second level, the general reporting requirements are specified by IT-relevant challenges, seen as starting points for internet-based environmental reports (section 3). The immense technical benefit of using the Internet towards efficient, integrated, interactive, hypermedia-featured, dialog-oriented, and customised environmental reporting is analysed (section 4). On the basis of the technical benefit analysis, the state of the art of internet-based CERs is presented (section 5). The third level refers to the IT-application turning from the basics, IT-challenges and technical benefit to consequences for environmental reporting companies in practice. Thereby a fundamental framework for internet-based CERs is sketched (section 6). Grounded on this framework a basic architecture of an IT-implementation is explained (section 7).
Starting with general hyperbolic systems of conservation laws, a special sub - class is extracted in which classical solutions can be expressed in terms of a linear transport equation. A characterizing property of this sub - class which contains, for example, all linear systems and non - linear scalar equations, is the existence of so called exponentially exact entropies.
Based on general partitions of unity and standard numerical flux functions, a class of mesh-free methods for conservation laws is derived. A Lax-Wendroff type consistency analysis is carried out for the general case of moving partition functions. The analysis leads to a set of conditions which are checked for the finite volume particle method FVPM. As a by-product, classical finite volume schemes are recovered in the approach for special choices of the partition of unity.
Aktin und Myosin sind die beiden wichtigsten molekularen Komponenten der Myofibrillen, die für die Muskelkontraktion verantwortlich sind. In Nichtmuskelzellen bildet Aktin die Mikrofilamente, die wiederum über Wechselwirkungen mit Myosin kontraktile Einheiten bilden. In der vorliegenden Arbeit wurden strukturelle Aspekte und Funktion der beiden Motor-proteine sowie ihre Interaktion mittels der hochauflösenden Kernspinresonanz-Spektroskopie (NMR) untersucht. Die Struktur von filamentösem Aktin (F-Aktin) wird durch das komplexierte bivalente Ion beeinflußt. Mit drei voneinander unabhängigen Methoden wurde gezeigt, daß in Mg 2+ -F-Aktin im Gegensatz zu Ca 2+ -F-Aktin die N-terminalen Domänen der Monomereinheiten hochmobil sind. Sie sind durch 1 H-NMR-Signale mit schmaler Linienbreite charakterisiert, die selbst im polymeren Zustand im Filament zu beobachten sind. Die chemische Modifikation des Cys 374 mit dem Markierungsreagenz 4-Perfluorotert.-butylphenyliodacetamid (PFP) ermöglichte die Untersuchung des C-Terminus mit der 19 F-NMR-Spektroskopie. Unabhängig vom gebundenen Ion wurden die intensiven 19 F-Signale des G-Aktins nach der Polymerisation zu F-Aktin sehr stark verbreitert. Dies bewies die Immobilisierung des C-Terminus und damit, daß die scharfen NMR-Signale des Mg 2+ -F-Aktins von anderen Domänen stammen müssen. Die Bindung von Antikörperfragmenten (Fab) gegen die ersten sieben Aminosäurereste des Aktins führte zur Unterdrückung der scharfen 1 H-NMR-Signale des Mg 2+ -F-Aktins, die der mobilen Region zugeordnet waren. Dies deutete auf stark bewegliche Aminosäurereste im N-Terminus nach der Polymerisation hin. Schließlich wurden in sehr konzentrierten Mg 2+ -F-Aktin-Proben mit der homonuklearen 2D-NMR-Spektroskopie die Resonanzlinien der 25 N-terminalen Aminosäurereste des Aktins sequentiell zugeordnet. Anhand der Quantifizierung der TOCSY-Kreuzsignal-Volumina wurde nachgewiesen, daß die ersten sechs Aminosäurereste am beweglichsten sind. Die Aminosäurereste in den beiden folgenden b-Faltblattsträngen bis Position 20 besitzen eine intermediäre Mobilität. In der folgenden Schleife verringert sich die Beweglichkeit weiter und die Amino-säurereste des dritten b-Faltblattstranges sind durch die Umgebung im Protein vollständig fixiert. Die Dynamik des N-Terminus bleibt dabei unabhängig von pH-Wert und Temperatur. In Mg 2+ -F-Aktin wurde eine niederaffine Mg 2+ -Bindungsstelle durch eine Gleichgewichts-titration bestimmt. Da die N-terminale Acetylgruppe beobachtet wurde, sollte sich die Bin-dungsstelle in der Nähe des N-Terminus befinden. Allerdings könnten auch konformationelle Änderungen induziert worden sein, die nur indirekt den N-Terminus beeinflussen. Der Austausch des im Aktin gebundenen Ca 2+ durch Mg 2+ war eine neue und sehr schonende Methode, um das Cys 10 in der Subdomäne I von Aktin für Markierungsreagenzien zugänglich zu machen. Anhand der sehr sensitiven PFP-Markierung an Cys 10 wurden in der 19 F-NMR-Spektroskopie zwei verschiedene Zustände der Bindung von Myosin S1 an das Aktinfilament beobachtet. Solange ATP im Überschuß vorhanden war, schien die im Fließgleichgewicht dominierende Konformation des Myosin-Nukleotid-Komplexes mit der Subdomäne I von Aktin zu interagieren und die PFP-Markierung zu immobilisieren. Nach der Hydrolyse von ATP erhöhte sich die Mobilität der Markierung signifikant. Durch NMR-Experimente mit gepulsten Feldgradienten wurde der Diffusionskoeffizient von Mg 2+ -G-Aktin und Mg 2+ -F-Aktin bestimmt. Der relativ große Wert, der für den Diffusionskoeffizient von filamentösem Aktin (0,34 x 10 -6 cm 2 /s) erhalten wurde, deutete daraufhin, daß die Aktindiffusionsmessungen nicht durch ein einfaches starres Körpermodell erklärt werden können, sondern die interne Bewegung im Filament einen zusätzlichen Beitrag leistet. Um das Muskelaktin aus Kaninchen mit Nichtmuskelaktin zu vergleichen, wurde Aktin aus dem Schleimpilz Dictyostelium discoideum in ausreichenden Mengen für erstmalige NMR-spektroskopische Untersuchungen isoliert. Im weiteren Verlauf dieser Arbeit wurden auch Studien am Interaktionspartner von Aktin durchgeführt. Mit der 31 P-NMR-Spektroskopie wurden die strukturellen Änderungen der Nukleotidbindungsstelle im Myosin S1 bei verschiedenen Temperaturen verfolgt. Die Komplexe von Myosin S1.ADP und Myosin S1.ADP.VO4 3- lagen bei 298 K jeweils in einer bevorzugten Konformation vor, die strukturell dem ADP.Pi-Zustand zuzuordnen ist. Bei tieferen Temperaturen liegt wahrscheinlich eine Vielzahl von Konformeren im Gleichgewicht vor. Die Reso-nanzlinien sind dann durch Austauschprozesse bis auf das Rauschniveau verbreitert und können nicht mehr detektiert werden. Im Gegensatz zum Myosin S1.ADP- bzw. Myosin S1.ADP.VO4 3- -Komplex existiert eine diskrete Tieftemperaturkonformation von Myosin S1.ADP.AlF4 - und Myosin S1.ADP.BeFx. Durch Temperaturerhöhung kann Myosin S1.ADP.AlF4 - in eine weitere Konformation überführt werden. Die Existenz einer zweiten Konformation von Myosin S 1.ADP.BeFx bei höheren Temperaturen war nicht eindeutig nachzuweisen. Die in Dictyostelium discoideum exprimierte Motordomäne M754 besitzt eine verkürzte Halsregion und kann im Gegensatz zu Myosin S1 keine leichten Ketten mehr binden. Die 1 H-NMR- spektroskopischen Untersuchungen beider Motorproteine ergab, daß die Motordomäne selbst sehr kompakt strukturiert ist. Die in der 1 H-NMR-Spektroskopie beobachtbaren mobilen Bereiche des Myosin S1 sind fast ausschließlich in den leichten Ketten lokalisiert und wurden durch die Bindung an Aktin im Aktomyosinkomplex immobilisiert. Die Veränderung des Nukleotidbesetzungszustands von Myosin S1.ADP zu Myosin S1.ADP.VO4 3- führt zu einer anderen Proteinkonformation und verschiebt das Gleichgewicht von gebundenem zu freiem Myosin S1. Die im ersten Teil der Arbeit als mobil charakterisierte N-terminale Acetylgruppe von Aktin wurde im ADP-Zustand des Myosins entgegen der Erwartung nicht immobilisiert.
The analyticity property of the one-dimensional complex Hamiltonian system H(x,p)=H_1(x_1,x_2,p_1,p_2)+iH_2(x_1,x_2,p_1,p_2) with p=p_1+ix_2, x=x_1+ip_2 is exploited to obtain a new class of the corresponding two-dimensional integrable Hamiltonian systems where H_1 acts as a new Hamiltonian and H_2 is a second integral of motion. Also a possible connection between H_1 and H_2 is sought in terms of an auto-B"acklund transformation.
The photon map provides a powerful tool for approximating the irradiance in global illumination computations independent from geometry. By presenting new importance sampling techniques, we dramatically improve the memory footprint of the photon map, simplify the caustic generation, and allow for a much faster sampling of direct illumination in complicated models as they arise in a production environment.
Bilanzierungen über die Eintrags- und Austragswege von Schwermetallen in landwirtschaftlich genutzte Flächen deuten darauf hin, daß auch in Zukunft mit einer Erhöhung der Schwermetallbelastung, insbesondere durch die Verwendung von sogenannten Sekundärrohstoffdüngern wie z.B. Klärschlamm, zu rechnen ist. Die Gehalte an Schwermetallen, insbesondere von Cd, sollten aber möglichst gering sein, um Toxizitäten und Ertragseinbußen bei Pflanzen sowie Gesundheitsschäden von Mensch und Tier zu vermeiden. Deshalb ist es notwendig, neben einer Minimierung des Neueintrages von Schwermetallen in landwirtschaftlich genutzte Flächen auch nach Wegen zu suchen, die Schwermetallaufnahme in die Pflanzen zu senken. Da es große Unterschiede in der Schwermetallakkumulation zwischen Pflanzenarten und auch -sorten gibt, sollte es möglich sein, Sorten mit besonders niedriger Schwermetallaufnahme bzw. -akkumulation in den Ernteprodukten zu züchten. Daraus leitet sich die Zielstellung der vorliegenden Arbeit ab, Zusammenhänge zwischen wichtigen Parametern der Nährstoffaufnahme, die auch für die Schwermetalle von Bedeutung sind, und den Schwermetallgehalten in den Pflanzen herzustellen, um so mögliche Wege für eine gezielte Selektion auf niedrige Schwermetallgehalte zu finden. Insbesondere die Rolle von Wurzelexsudaten bei der Mobilisierung und Aufnahme der Schwermetalle Kupfer, Zink und Cadmium soll dabei näher untersucht werden da bekannt ist, daß Pflanzen, insbesondere unter Phosphatmangel, vermehrt organische Säuren über die Wurzeln in den Boden ausscheiden und damit die chemischen Eigenschaften im nahen Bodenraum (Rhizosphäre) meßbar verändern können. Die durchgeführten Untersuchungen zeigen, daß die Mechanismen der Schwermetallmobilisierung und Aufnahme durch Pflanzen sehr komplex sind. Neben physikochemischen Bodeneigenschaften spielen insbesondere morphologische und physiologische Pflanzeneigenschaften eine große Rolle. Die Bodeneigenschaften bilden dabei die Ausgangssituation, wobei neben den Schwermetall-Gesamtgehalten insbesondere der pH-Wert, der Gehalt an organischer Substanz und der Tongehalt, sowie die Bindungsformen der Schwermetalle im Boden über den Anteil der mobilen und pflanzenverfügbaren Fraktion entscheiden. Diese Ausgangssituation wird von den Pflanzen in unterschiedlicher Weise genutzt und beeinflußt. Pflanzen mit großen Wurzelsystemen stehen zu einer größeren Bodenmenge in Kontakt. Die Ergebnisse zeigen, daß es eine positive Beziehung zwischen den Kupfer-, Zink- und Cadmiumgehalten der Sprosse von 11 Spinatsorten und dem Wurzel-Sproß-Verhältnis gibt. Die insbesondere bei P-Mangel beobachtete verstärkte Exsudation von organischen Säuren erhöht die Löslichkeit von Cu, Zn und Cd in der Rhizosphäre bei Spinat deutlich. Wenn auch das WSV offenbar für hohe Schwermetallgehalte in den Spinatsorten eine große Bedeutung hat, so wirkt sich offenbar die genotypisch variierte Säureexsudation und damit veränderte Schwermetallöslichkeit in der Rhizosphäre klar auf die Schwermetallgehalte in den Sprossen aus. Diesen Schluß lassen jedenfalls die Differenzen zwischen den Sorten Monnopa (niedrige Schwermetallgehalte, niedrige Exsudationsraten) und Tabu (hohe Schwermetallgehalte, hohe Exsudationsraten) zu. Betrachtet man die Wirkung der organischen Säuren im Boden, so zeigt sich, daß diese die Löslichkeit von Cu, Zn und Cd erhöhen. Dabei gibt es allerdings große Unterschiede in der Effektivität der einzelnen Säuren sowie in den Wirkmechanismen. Die Löslichkeit von Cu ist vor allem auf die Komplexierung mit den Säureanionen zurückzuführen. Bei den Elementen Zn und Cd wird die Löslichkeit zum Teil durch Komplexierung der Ionen, in erster Linie aber durch Änderungen im pH-Wert beeinflußt. Erst bei hohen pH-Werten tritt der Anioneneffekt in den Vordergrund. Signifikante Unterschiede bei den Aufnahmeraten von Schwermetallen aus komplexierten und unkomplexieren Schwermetallösungen konnten im Versuch nicht festgestellt werden. Daraus ergibt sich der Schluß, daß Spinatsorten mit geringer Exsudationsrate organischer Säuren in Hinsicht auf geringe Schwermetallgehalte der Sprosse positiv zu bewerten sind. Die Eigenschaften "kleines WSV" und "niedrige Exsudationsraten organischer Säuren" könnten somit aufgrund der vorliegenden Ergebnisse als Selektionskriterium für Spinat auf niedrige Schwermetallgehalte geeignet sein.
An asymptotic preserving numerical scheme (with respect to diffusion scalings) for a linear transport equation is investigated. The scheme is adopted from a class of recently developped schemes. Stability is proven uniformly in the mean free path under a CFL type condition turning into a parabolic CFL condition in the diffusion limit.
Abstract: We analyse 4-dimensional massive "phi" ^ 4 theory at finite temperature T in the imaginary-time formalism. We present a rigorous proof that this quantum field theory is renormalizable, to all orders of the loop expansion. Our main point is to show that the counterterms can be chosen temperature independent, so that the temperature flow of the relevant parameters as a function of T can be followed. Our result confirms the experience from explicit calculations to the leading orders. The proof is based on flow equations, i.e. on the (perturbative) Wilson renormalization group. In fact we will show that the difference between the theories at T > 0 and at T = 0 contains no relevant terms. Contrary to BPHZ type formalisms our approach permits to lay hand on renormalization conditions and counterterms at the same time, since both appear as boundary terms of the renormalization group flow. This is crucial for the proof.
We consider investment problems where an investor can invest in a savings account, stocks and bonds and tries to maximize her utility from terminal wealth. In contrast to the classical Merton problem we assume a stochastic interest rate. To solve the corresponding control problems it is necessary to prove averi cation theorem without the usual Lipschitz assumptions.
We consider the determination of optimal portfolios under the threat of a crash. Our main assumption is that upper bounds for both the crash size and the number of crashes occurring before the time horizon are given. We make no probabilistic assumption on the crash size or the crash time distribution. The optimal strategies in the presence of a crash possibility are characterized by a balance problem between insurance against the crash and good performance in the crash-free situation. Explicit solutions for the log-utility case are given. Our main finding is that constant portfolios are no longer optimal ones.
Chaotic Billiards
(2000)
The frictionless motion of a particle on a plane billiard table The frictionless motion of a particle on a plane billiard table bounded by a closed curve provides a very simple example of a conservative classical system with non-trivial, chaotic dynamics. The limiting cases of strictly regular ("integrable") and strictly irregular ("ergodic") systems can be illustrated, as well as the typical case which shows an intricate mixture of regular and irregular behavior. Irregular orbits are characterized by an extremely sensitivity with respect to the initial conditions. Such billiard systems are exemplarily suited for educational purposes as models for simple systems with complicated dynamics as well as for far-reaching fundamental investigations.
An extremely simple and convenient method is presented for computing eigenvalues in quantum mechanics by representing position and momentum operators in a simple matrix form. The simplicity and success of the method is illustrated by numerical results concerning eigenvalues of bound systems and resonances for hermitian and non-hermitian Hamiltonians as well as driven quantum systems.
Rafts sind Mikrodomänen in der Zellmembran, die stark angereichert sind mit Sphingolipiden, Cholesterin, signaltransduzierenden Molekülen, GPI-geankerten Proteinen und einigen transmembranen Molekülen. Rafts spielen eine wichtige Rolle in der T-Zell-Funktionalität. In der vorliegenden Dissertation wurde die Rolle der Rafts bei der Regulation der Zelladhäsion untersucht. Ausgehend von der Integrinaktivierung über das GPI-geankerte Molekül CD24 wurde ein genereller Mechanismus zur Regulation der Aktivität des Leukozyten-Funktions-Antigens-1 (LFA-1) in T-Lymphozyten aufgeklärt. Es konnte gezeigt werden, daß Antikörper gegen das GPI-geankerte Molekül CD24 eine Aktivierung des LFA-1- Integrins zu induzieren vermögen. Diese Aktivierung hängt ab von der Kolokalisation des Integrins mit CD24 in den Rafts der Zellmembran und ist bedingt durch eine Vernetzung der Rafts, was zu einer Erhöhung der Avidität des Integrins führt. Das Vernetzen des Raft-Markers GM1 kann die Avidität in gleicher Weise erhöhen. In den o. g. Aktivierungsmechanismus sind die PI3-Kinase, Tyrosin-Kinasen und das Zytoskelett involviert. Cholesterin-Depletion inhibiert den Aktivierungsmechanismus des LFA-1 über Raft-Clustern. Eine physiologische Relevanz des vorgestellten Aktivierungsmechanismus konnte für aktivierte T-Zellen gezeigt werden. Durch Cholesterin-Depletion kann das basale Bindungsvermögen der Zellen reduziert werden. Die Rolle von CD24 als Raft-Molekül wurde bei der Regulation des alpha-4-Integrin in präB-Lymphozyten untersucht. In diesem System führte die Anwesenheit von CD24 auf der Zelloberfläche zur erhöhten Bindung an ein alpha-4-Integrin-Substrat. Auch in diesen Zellen ist CD24 und das alpha-4-Integrin z. T. in den Rafts lokalisiert. Der in T-Lymphozyten nachgewiesene Aktivierungsweg des Integrins durch Clustern der Rafts ist auch hier aktiv. Ein Einfluß von CD24 auf die Aktivität des alpha-4-Integrins konnte auch in der alpha-4-abhängigen Migration gezeigt werden. In CD24-negativen Zellen konnte durch externe Gabe von löslichem CD24 die alpha-4-vermittelte Bindung rekonstituiert werden. Der Effekt kann durch Cholesterin-Depletion wieder aufgehoben werden. Der gleiche Effekt gilt für die Inkubation der Zellen mit DIG-Fraktionen, die CD24 enthielten. Der Effekt war spezifisch für CD24 und wurde nicht mit GPI-geankerten Kontrollmolekülen beobachtet. PI-PLC-Behandlung von CD24-positiven Zellen reduziert die alpha-4-vermittelte Bindung. Die Ergebnisse werden im Sinne einer Funktion des CD24 bei der Stabilisierung von Raft-Clustern in der Membran diskutiert.
In der vorliegenden Arbeit wurde an einem kleinen Spektrum humaner Xenograft-Tumoren exemplarisch die cAMP-hydrolysierende PDE-Aktivität untersucht. Dabei konnte gezeigt werden, dass sich Tumoren unterschiedlichen Gewebeursprungs stark in ihrer cAMP-hydrolysierenden PDE-Aktivität unterscheiden können, aber dass auch bei verschiedenen Tumoren des gleichen Gewebes die PDE-Aktivität ebenfalls stark variiert. Gleichzeitig wurden große Unterschiede im prozentualen Anteil an PDE4 gefunden. In nahezu der Hälfte der untersuchten Xenografts stellen Isoenzyme der PDE4-Familie weniger als 50% an der Gesamt-PDE-Aktivität dar. Bei Untersuchungen des großzelligen humanen Lungenxenografts LXFL529, der verglichen mit allen anderen untersuchten Tumoren die höchste PDE-Aktivität aufweist, konnte gezeigt werden, dass dieses Tumorgewebe PDE4D3 zu enthalten scheint, die jedoch sehr leicht proteolytisch gespalten wird. Außerdem wurden kurze Formen des PDE4D-Gens detektiert. Dabei könnte es sich um PDE4D1, PDE4D2 oder die von Eyschen (1999) aus LXFL529-Tumorgewebe isolierte trunkierte PDE4D3 handeln. Möglicherweise wird in LXFL529-Xenograftgewebe auch eine kurze Form einer nicht zur PDE4D-Isoenzymfamilie gehörenden PDE exprimiert. Zur genauen Bestimmung müssen noch weitere Untersuchungen durchgeführt werden. Bislang wurden wirkmechanistische Untersuchungen mit PDE4-Hemmstoffen ausschließlich an Permanent-Zelllinien durchgeführt. Um Aussagen über die Übertragbarkeit der Ergebnisse in vitro auf die in vivo-Situation zu ermöglichen, wurde Tumorgewebe zweier unterschiedlicher Lungentumor-Xenografts, LXFL529 und das humane kleinzellige Lungenkarzinom LXFS650, bezüglich seiner cAMP-hydrolysierenden PDE-Aktivität und dem Gehalt an PDE4 mit den entsprechenden Permanent-Zelllinien verglichen. Dabei wiesen beide Zelllinien eine wesentlich niedrigere PDE-Gesamtaktivität als die entsprechenden soliden Xenograft-Tumoren auf. Der Anteil an PDE4 liegt in LXFL529L-Zellen und soliden Tumor in der gleichen Größenordnung. Auch im Cytosol von LXFS650 (Zelllinie und Tumor) wird der gleiche Prozentsatz PDE4 nachgewiesen, während er im Partikular der Zelllinie deutlich höher liegt im entsprechenden Tumor. Ein wesentlicher Bestandteil dieser Arbeit waren Untersuchungen zum Wirkmechanismus des potenten PDE4-Inhibitors DC-TA-46. Dieser Hemmstoff zeigt große Unterschiede in den IC50-Werten der Hemmung isolierter PDE4 aus LXFL529-Tumorgewebe (0,016 microM) bzw. der Wachstumshemmung von LXFL529L-Zellen (2,3 microM). Im Rahmen dieser Arbeit konnte gezeigt werden, dass die subzelluläre Verteilung des Hemmstoffs vermutlich eine wesentliche Rolle spielt. Die PDE-Aktivität von Proteinpräparationen aus LXFL529L-Zellen wird durch DC-TA-46 mit IC50-Werten von 0,22 microM (Cytosol) und 0,5 microM (Partikular) gehemmt und unterscheidet sich in der Sensitivität damit nicht von Proteinpräparationen aus solidem Tumorgewebe. Inkubiert man jedoch LXFL529L-Zellen mit der Substanz, so erreicht man erst bei Konzentrationen > 10 -6 M eine Hemmung der cytosolischen PDE-Aktivität. Im Partikular der Zellen zeigt sich hingegen durch die Anreicherung von DC-TA-46 in Membranstrukturen eine deutliche Erhöhung der Hemmwirkung im Vergleich zur entsprechenden isolierten Proteinpräparation. Die Hemmung der intrazellulären PDE-Aktivität scheint dabei auch zelltyp-spezifisch zu sein. Analoge Versuche mit LXFS650L-Zellen zeigten eine deutlich höhere Hemmung der cytosolischen PDE im Vergleich zu LXFL529L-Zellen. Dies scheint mit der höheren Sensitivität von LXFS650L-Zellen gegenüber der wachstumshemmenden Wirkung von DC-TA-46 im Sulforhodamin B-Test zu korrelieren. Diese Untersuchungen zeigten, dass die Bestimmung der intrazellulären Hemmwirkung eine wesentliche Messgröße zur Untersuchung potentieller PDE-Hemmstoffe darstellt. Deshalb wurde für die bislang in unserem Arbeitskreis zur Verfügung stehenden Pteridinderivate die Hemmung der intrazellulären PDE untersucht. Fluoreszenzmikroskopische Untersuchungen an LXFL529L-Zellen ergaben keine Anhaltspunkte für Unterschiede in der subzellulären Lokalisation der verschiedenen Derivate. Alle Substanzen scheinen sich ebenso wie DC-TA-46 in Membranstrukturen in der perinuklearen Region anzureichern. Die Derivate unterscheiden sich jedoch deutlich in ihrer Hemmung. Durch Variation der Substituenten in 4- und 7-Position bzw. an 6-Position konnte am ehesten eine gute PDE-Hemmung erreicht werden. Zwei an 7-Position substituierte Derivate mit basischem Stickstoff ohne H-Donorfunktion zeigten sogar eine bessere Inhibition der zellulären PDE als DC-TA-46. Durch Variationen der Substituenten in 2-Position des Grundgerüsts kann keine bzw. nur geringe Hemmung zellulärer PDE erreicht werden. Die meisten Veränderungen an 4 -Position konnten keine PDE-Hemmung erzielen. Für die Hemmung zellulärer PDE scheint also ein größerer Rest an 6-Position als Wasserstoff wichtig zu sein bzw. eine Wasserstoffdonorfunktion des basischen Stickstoffs in 4 -Position. Lediglich eine an 4 -Position mit einem Acetylrest substituierte Verbindung war in LXFL529L-Zellen ein potenter PDE-Hemmstoff, nicht jedoch am isolierten Enzym, was auf die Freisetzung der Leitsubstanz DC-TA-46 durch metabolische Prozesse in der Zelle zurückzuführen sein kann. Deshalb sollte bei zukünftigen biologischen Testungen nicht nur am isolierten Enzym, sondern auch in Zellen getestet werden sollte, da nur so pharmakologische Prozesse einbezogen werden. In vitro führt die Behandlung von Tumorzellen mit DC-TA-46 zu einem Zellzyklusarrest in der G1-Phase des und zur Induktion von Apoptose [Wagner, 1998; Marko et al., 1998]. Im Rahmen dieser Arbeit konnte gezeigt werden, dass dieser Zellzyklus-Arrest nicht durch die Wirkung des Pteridinderivats auf die Cyclin-abhängigen Kinase-Inhibitoren p21 cip1 und p27 kip1 zustande kommt. Der cAMP-Gehalt von Zellen kann während des Zellzyklus periodischen Schwankungen unterliegen [Millis et al., 1974]. In LXFL529L-Zellen konnte eine positive Korrelation zwischen der PDE-Aktivität im Cytosol und dem Anteil der Zellen in der G0/G1-Phase des Zellzyklus detektiert werden. Im Partikular hingegen ist ein deutlicher Zusammenhang zwischen der PDE-Aktivität und des Gehalts von G2/M-Phase-Zellen bzw. eine negative Korrelation zwischen partikulärer PDE-Aktivität und dem Anteil der G1-Phase-Zellen zu sehen. Da DC-TA-46 aufgrund seiner subzellulären Lokalisation hauptsächlich im Partikular wirksam ist, scheint v.a. die Hemmung der partikulären Isoenzyme für den G1-Arrest wesentlich zu sein. Im Rahmen dieser Arbeit konnte nun umgekehrt gezeigt werden, dass in LXFL529L-Zellen in der G1-Phase eine geringe partikuläre PDE-Aktivität vorliegt.
Abstract: Let H_1 , H_2 be complex Hilbert spaces, H be their Hilbert tensor product and let tr_2 be the operator of taking the partial trace of trace class operators in H with respect to the space H_2 . The operation tr_2 maps states in H (i.e. positive trace class operators in H with trace equal to one) into states in H_1 . In this paper we give the full description of mappings that are linear right inverse to tr_2 . More precisely, we prove that any affine mapping F(W) of the convex set of states in H_1 into the states in H that is right inverse to tr_2 is given by W -> W x D for some state D in H_2 . In addition we investigate a representation of the quantum mechanical state space by probability measures on the set of pure states and a representation - used in the theory of stochastic Schrödinger equations - by probability measures on the Hilbert space. We prove that there are no affine mappings from the state space of quantum mechanics into these spaces of probability measures.
Abstract: This paper presents a solution to a problem from superanalysis about the existence of Hilbert-Banach superalgebras. Two main results are derived: 1) There exist Hilbert norms on some graded algebras (infinite-dimensional superalgebras included) with respect to which the multiplication is continuous. 2) Such norms cannot be chosen to be submultiplicative and equal to one on the unit of the algebra.
This essay discusses the multileaf collimator leaf sequencing problem, which occurs in every treatment planning in radiation therapy. The problem is to find a good realization in terms of a leaf sequence in the multileaf collimator such that the time needed to deliver the given dose profile is minimized. A mathematical model using an integer programming formulation has been developed. Additionally, a heuristic, based on existing algorithms and an integer programming formulation, has been developed to enhance the quality of the solutions. Comparing the results to those provided by other algorithms, a significant improvement can be observed.
Abstract: The point-particle-like Hamiltonian of a biaxial spin particle with external magnetic field along the hard axis is obtained in terms of the potential field description of spin systems with exact spin-coordinate correspondence. The Zeeman energy term turns out to be an effective gauge potential which leads to a nonintegrable phase of the Euclidean Feynman propagator. The phase interference between clockwise and anticlockwise under barrier propagations is recognized explicitly as the Aharonov-Bohm effect. An additional phase which is significant for quantum phase interference is discovered with the quantum theory of spin systems besides the known phase obtained with the semiclassical treatment of spin. We also show the energy dependence of the effect and obtain the tunneling splitting at excited states with the help of periodic instantons.
Abstract: The transition from the quantum to the classical regime of the nucleation of the closed Robertson-Walker Universe with spacially homogeneous matter fields is investigated with a perturbation expansion around the sphaleron configuration. A criterion is derived for the occurrence of a first-order type transition, and the related phase diagram for scalar and vector fields is obtained. For scalar fields both the first and second order transitions can occur depending on the shape of the potential barrier. For a vector field, here that of an O (3) nonlinear o-model, the transition is seen to be only of the first order. PACS numbers: 11.15.Kc, 03.65Sq, 05.70.Fh, 98.80.Cq
Abstract: We describe a technique for manipulating quantum information stored in collective states of mesoscopic ensembles. Quantum processing is accomplished by optical excitation into states with strong dipole-dipole interactions. The resulting "dipole blockade" can be used to inhibit transitions into all but singly excited collective states. This can be employed for a controlled generation of collective atomic spin states as well as non-classical photonic states and for scalable quantum logic gates. An example involving a cold Rydberg gas is analyzed.
Introduction: Recent developments in quantum communication and computing [1-3] stimulated an intensive search for physical systems that can be used for coherent processing of quantum information. It is generally believed that quantum entanglement of distinguishable quantum bits (qubits) is at the heart of quantum information processing. Significant efforts have been directed towards the design of elementary logic gates, which perform certain unitary processes on pairs of qubits. These gates must be capable of generating specific, in general entangled, superpositions of the two qubits and thus require a strong qubit-qubit interaction. Using a sequence of single and two-bit operations, an arbitrary quantum computation can be performed [2]. Over the past few years many systems have been identified for potential implementations of logic gates and several interesting experiments have been performed. Proposals for strong qubit-qubit interaction involve e.g. the vibrational coupling of cooled trapped ions [4], near dipole-dipole or spin-spin interactions such as in nuclear magnetic resonance [5], collisional interactions of confined cooled atoms [6] or radiative interactions between atoms in cavity QED [7]. The possibility of simple preparation and measurement of qubit states as well as their relative insensitivity to a thermal environment makes the latter schemes particularly interesting for quantum information processing. Most theoretical proposals on cavity-QED systems focus on fundamental systems involving a small number of atoms and few photons. These systems are sufficiently simple to allow for a first-principle description. Their experimental implementation is however quite challenging. For example, extremely high-Q micro-cavities are needed to preserve coherence during all atom-photon interactions. Furthermore, single atoms have to be confined inside the cavities for a sufficiently long time. This requires developments of novel cooling and trapping techniques, which is in itself a fascinating direction of current research. Despite these technical obstacles, a remarkable progress has been made in this area: quantum processors consisting of several coupled qubits now appear to be feasible.
Abstract: It has recently been shown that the equation of motion of a massless scalar field in the background of some specific p branes can be reduced to a modified Mathieu equation. In the following the absorption rate of the scalar by a D3 brane in ten dimensions is calculated in terms of modified Mathieu functions of the first kind, using standard Mathieu coefficients. The relation of the latter to Dougall coefficients (used by others) is investigated. The S-matrix obtained in terms of modified Mathieu functions of the first kind is easily evaluated if known rapidly convergent low energy expansions of these in terms of products of Bessel functions are used. Leading order terms, including the interesting logarithmic contributions, can be obtained analytically.