Refine
Year of publication
- 1999 (525) (remove)
Document Type
- Preprint (397)
- Article (73)
- Doctoral Thesis (28)
- Course Material (6)
- Master's Thesis (6)
- Report (5)
- Lecture (3)
- Study Thesis (3)
- Working Paper (2)
- Diploma Thesis (1)
Keywords
- Case-Based Reasoning (11)
- AG-RESY (6)
- Praktikum (6)
- Fallbasiertes Schliessen (5)
- HANDFLEX (5)
- Location Theory (5)
- PARO (5)
- case-based problem solving (5)
- Abstraction (4)
- Fallbasiertes Schließen (4)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (267)
- Kaiserslautern - Fachbereich Mathematik (131)
- Kaiserslautern - Fachbereich Physik (76)
- Kaiserslautern - Fachbereich Chemie (19)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Fraunhofer (ITWM) (6)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (2)
In der vorliegenden Arbeit wird die Zeitfestigkeit von Verbundträgern mit Profilblechen unter Berücksichtigung der während der Einstufen-Belastung im Versuch auftretenden Veränderungen (zyklische Dübelkennlinien, Kraftumlagerungen, ...) im System Verbundträger behandelt. Aus den Ergebnissen der Push-Out-Versuche wird eine Ermüdungsfestigkeitskurve -Wöhlerlinie - bestimmt, die im weiteren Grundlage der Zeitfestigkeitsuntersuchungen der Kopfbolzendübel in Betongurten mit Profilblechen ist. In einer ersten, vereinfachten Versuchsauswertung werden die Dübelkräfte der Verbundträger über die Elastizitätstheorie nach dem elastischen Schubfluß und unter Annahme starrer Verdübelung (d. h. Ebenbleiben des Gesamtquerschnitts) ermittelt. Daraus wird dann die Zeitfestigkeit berechnet. Die Bestimmung der Restlebensdauer der Verbundmittel über nichtlinear berechnete Dübelkäfte unter Berücksichtigung der Nachgiebigkeit in der Verbundfuge - jedoch mit Steifigkeiten wie bei Erstbelastung - erfolgt in einer zweiten Auswertungsstufe. Um die wahrscheinlichen Vorgänge im Verbundträger unter wiederholter Be- und Entlastung erklären und anschließend in Computersimulationen nachvollziehen zu können, wird in den Kapiteln 4 bis 6 das phänomenologische Verhalten der einzelnen Komponenten des Verbundträgers (Stahlträger, Betongurt und Verdübelung) unter zyklischer Beanspruchung behandelt. Unter der Annahme, daß die einzelnen Komponenten ihr phänomenologisches Verhalten unter zyklischer Beanspruchung auch im Verbundträger -Zusammenwirken der einzelnen Komponenten zu einer gemeinsamen Tragwirkung- beibehalten, wird in Kapitel 7 ein Rechenmodell entwickelt. Mit den hergeleiteten zyklischen Dübelkennlinien und nichtlinearen Computersimulationen werden Schädigungen für alle Elemente (Dübel, Stahlträger) der Verbundträger - zu jedem Zeitpunkt während der Versuchsdauer - bestimmt. Mittels der linearen Schadensakkumulationshypothese von Palmgren-Miner und mit den für die einzelnen Elementen bestimmten Ermüdungsfestigkeitskurven wird daraus die jeweilige Restlebensdauer berechnet. Dabei werden die ständigen Veränderungen im nichtlinearen Tragverhalten der Verbundträger aufgrund der Kraftumlagerungen infolge der zyklischen Kennlinien, der Nachgiebigkeit in der Verbundfuge, des Ausfalls einzelner Dübel, der evtl. auftretenden bleibenden Verformungen, der unterschiedlichen Be- und Entlastungspfade, ..., in den Simulationsberechnungen erfaßt. Abschließend wird das Verbundträgertragverhalten bis zum endgültigen Versagen (Bruch des Trägers) auch nach dem Abscheren (Ausfall) des ersten Dübels dargestellt.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
We have developed a middleware framework for workgroup environments that can support distributed software development and a variety of other application domains requiring document management and change management for distributed projects. The framework enables hypermedia-based integration of arbitrary legacy and new information resources available via a range of protocols, not necessarily known in advance to us as the general framework developers nor even to the environment instance designers. The repositories in which such information resides may be dispersed across the Internet and/or an organizational intranet. The framework also permits a range of client models for user and tool interaction, and applies an extensible suite of collaboration services, including but not limited to multi-participant workflow and coordination, to their information retrievals and updates. That is, the framework is interposed between clients, services and repositories - thus "middleware". We explain how our framework makes it easy to realize a comprehensive collection of workgroup and workflow features we culled from a requirements survey conducted by NASA.
In recent years several computational systems and techniques fortheorem proving by analogy have been developed. The obvious prac-tical question, however, as to whether and when to use analogy hasbeen neglected badly in these developments. This paper addresses thisquestion, identifies situations where analogy is useful, and discussesthe merits of theorem proving by analogy in these situations. Theresults can be generalized to other domains.
Given a finite set of points in the plane and a forbidden region R, we want to find a point X not an element of int(R), such that the weighted sum to all given points is minimized. This location problem is a variant of the well-known Weber Problem, where we measure the distance by polyhedral gauges and allow each of the weights to be positive or negative. The unit ball of a polyhedral gauge may be any convex polyhedron containing the origin. This large class of distance functions allows very general (practical) settings - such as asymmetry - to be modeled. Each given point is allowed to have its own gauge and the forbidden region R enables us to include negative information in the model. Additionally the use of negative and positive weights allows to include the level of attraction or dislikeness of a new facility. Polynomial algorithms and structural properties for this global optimization problem (d.c. objective function and a non-convex feasible set) based on combinatorial and geometrical methods are presented.
We consider wavelet estimation of the time-dependent (evolutionary) power spectrum of a locally stationary time series. Allowing for departures from stationary proves useful for modelling, e.g., transient phenomena, quasi-oscillating behaviour or spectrum modulation. In our work wavelets are used to provide an adaptive local smoothing of a short-time periodogram in the time-freqeuncy plane. For this, in contrast to classical nonparametric (linear) approaches we use nonlinear thresholding of the empirical wavelet coefficients of the evolutionary spectrum. We show how these techniques allow for both adaptively reconstructing the local structure in the time-frequency plane and for denoising the resulting estimates. To this end a threshold choice is derived which is motivated by minimax properties w.r.t. the integrated mean squared error. Our approach is based on a 2-d orthogonal wavelet transform modified by using a cardinal Lagrange interpolation function on the finest scale. As an example, we apply our procedure to a time-varying spectrum motivated from mobile radio propagation.
We study the global solution of Fredholm integral equations of the second kind by the help of Monte Carlo methods. Global solution means that we seek to approximate the full solution function. This is opposed to the usual applications of Monte Carlo, were one only wants to approximate a functional of the solution. In recent years several researchers developed Monte Carlo methods also for the global problem. In this paper we present a new Monte Carlo algorithm for the global solution of integral equations. We use multiwavelet expansions to approximate the solution. We study the behaviour of variance on increasing levels, and based on this, develop a new variance reduction technique. For classes of smooth kernels and right hand sides we determine the convergence rate of this algorithm and show that it is higher
than those of previously developed algorithms for the global problem. Moreover, an information-based complexity analysis shows that our algorithm is optimal among all stochastic algorithms of the same computational
cost and that no deterministic algorithm of the same cost can reach its convergence rate.
A multiscale method is introduced using spherical (vector) wavelets for the computation of the earth's magnetic field within source regions of ionospheric and magnetospheric currents. The considerations are essentially based on two geomathematical keystones, namely (i) the Mie representation of solenoidal vector fields in terms of toroidal and poloidal parts and (ii) the Helmholtz decomposition of spherical (tangential) vector fields. Vector wavelets are shown to provide adequate tools for multiscale geomagnetic modelling in form of a multiresolution analysis, thereby completely circumventing the numerical obstacles caused by vector spherical harmonics. The applicability and efficiency of the multiresolution technique is tested with real satellite data.
Wall energy and wall thickness of exchange-coupled rare-earth transition-metal triple layer stacks
(1999)
The room-temperature wall energy sw 54.0310 23 J/m 2 of an exchange-coupled Tb 19.6 Fe 74.7 Co 5.7 /Dy 28.5 Fe 43.2 Co 28.3 double layer stack can be reduced by introducing a soft magnetic intermediate layer in between both layers exhibiting a significantly smaller anisotropy compared to Tb+- FeCo and Dy+- FeCo. sw will decrease linearly with increasing intermediate layer thickness, d IL , until the wall is completely located within the intermediate layer for d IL d w , where d w denotes the wall thickness. Thus, d w can be obtained from the plot sw versus d IL .We determined sw and d w on Gd+- FeCo intermediate layers with different anisotropy behavior ~perpendicular and in-plane easy axis! and compared the results with data obtained from Brillouin light-scattering measurements, where exchange stiffness, A, and uniaxial anisotropy, K u , could be determined. With the knowledge of A and K u , wall energy and thickness were calculated and showed an excellent agreement with the magnetic measurements. A ten times smaller perpendicular anisotropy of Gd 28.1 Fe 71.9 in comparison to Tb+- FeCo and Dy+- FeCo resulted in a much smaller sw 51.1310 23 J/m 2 and d w 524 nm at 300 K. A Gd 34.1 Fe 61.4 Co 4.5 with in-plane anisotropy at room temperature showed a further reduced sw 50.3310 23 J/m 2 and d w 517 nm. The smaller wall energy was a result of a different wall structure compared to perpendicular layers.
Vigenere-Verschlüsselung
(1999)
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
The mathematical modelling of problems in science and engineering leads often to partial differential equations in time and space with boundary and initial conditions.The boundary value problems can be written as extremal problems(principle of minimal potential energy), as variational equations (principle of virtual power) or as classical boundary value problems.There are connections concerning existence and uniqueness results between these formulations, which will be investigated using the powerful tools of functional analysis.The first part of the lecture is devoted to the analysis of linear elliptic boundary value problems given in a variational form.The second part deals with the numerical approximation of the solutions of the variational problems.Galerkin methods as FEM and BEM are the main tools. The h-version will be discussed, and an error analysis will be done.Examples, especially from the elasticity theory, demonstrate the methods.
Value Preserving Strategies and a General Framework for Local Approaches to Optimal Portfolios
(1999)
We present some new general results on the existence and form of value preserving portfolio strategies in a general semimartingale setting. The concept of value preservation will be derived via a mean-variance argument. It will also be embedded into a framework for local approaches to the problem of portfolio optimisation.
Das zentrale Thema der vorliegenden Arbeit war die spektroskopische Untersuchung der Chiralität mittels von CD-, UV- und polarisierter UV-Spektroskopie an unverbrückten (R-1 bis R-3) und verbrückten 1,1' -Binaphtholen (R-4 bis R-7). Diese spektroskopischen Untersuchungen sind für die Interpretation der HTP (helical twisting power) erforderlich, um insbesondere auch einen Vergleich der Ergebnisse der Chiralitätsbeobachtungen CD und HTP zu ermöglichen. Um die Spektren der 1,1' -Binaphthole mit der Struktur zu korrelieren und insbesondere die Ordnungszustände in der flüssigkristallinen Phase über die 2 H-NMR-Spektren zu erhalten, mußte die Geometrie der Verbindungen, gelöst in der flüssigkristallinen Phase, bekannt sein. Da die Struktur in dieser Phase zum Teil verändert sein kann wurde die Geometrie der 1,1'-Binaphthole R-1 bis R-7 und damit der Winkel q, sowie der Potentialkurvenverlauf als Funktion der Drehung um die Naphthyl-Naphthyl-Verbindungsachse mit der AM1-Methode für die Gasphase berechnet, und mit Ergebnissen aus Röntgenstrukturdaten aus Arbeiten von Reiß und Frank [74-78] verglichen. Für die unverbrückten 1,1'-Binaphthole wurden im Bereich 90 ° +-30 ° breite flache Potentialkurven (Änderung der Energie < kT) erhalten, während die Potentialkurven der verbrückten 1,1'-Binaphthole schmäler und steiler im Verlauf ausfallen, da die Verbrückung durch den Dioxepinring eine Rotation um die Naphthyl-Naphthyl- Verbindungsachse nicht zuläßt. Als Konsequenz der flachen Potentialkurve muß für die Gasphase für diese Moleküle eine "Large Amplitude Motion (LAM)" beachtet werden, die für die Beschreibung unserer Effekte in der flüssigkristallinen Matrix in Form von lösungsmittelstabilisierten Konformere zu berücksichtigen ist, für die eine Simulation nicht durchgeführt wurde. Die Winkel zwischen den mittleren Naphthylebenen aus der AM1-Methode qAM1 und der Röntgenstrukturanalyse qRSA weichen für die verbrückten 1,1 -Binaphthole 4, 5 und 6 maximal 7° voneinander ab. Für 7 ergab sich eine große Abweichung, die aber möglicherweise artifiziell ist, da die Röntgenstruktur zum jetzigen Zeitpunkt, wegen einer Zwillingsbildung im Kristall noch nicht vollständig analysiert wurde. Bei den unverbrückten 1,1'-Binaphtholen führt die flache Potentialkurve dazu, daß die äußere Umgebung d.h. die Packungseffekte einen wesentlichen Einfluß auf den Winkel qRSA zwischen den mittleren Naphthylebenen ausübt. Hieraus ist zu ersehen, daß der Flüssigkristall ebenfalls eine Auswirkung auf den Winkel q haben wird. Es zeigt sich, daß der CD von Verbindung R-1 wesentlich besser reproduziert werden kann, wenn man zur Beschreibung -255- eine Boltzmann-Wichtung über alle mit der Exziton-Theorie berechneten CD-Spektren der einzelnen Konformationen der Potentialkurve durchführt, als wenn nur die Geometrie des Minimums benutzt wird. Um die Anisotropie der 1,1' -Binaphthole im Flüssigkristall zu analysieren ist es notwendig die Ordnung der Moleküle in der Phase, d.h. die Hauptachsen und Hauptwerte des Ordnungstensors zu kennen, die im Rahmen der Arbeit von I. Kiesewalter [92] gemessen wurde. Die Orientierung der Hauptachsen im Molekül sind abhängig von der Geometrie des Moleküls und muß, da die Moleküle C2-Symmetrie besitzen, experimentell bestimmt werden. Hierbei besteht zusätzlich das Problem, daß zwar die Größe der Quadrupolaufspaltungen experimentell ermittelbar sind, nicht aber ihr Vorzeichen. Ein Verfahren diese Informationslücke der Vorzeichen zu beheben bestand darin, alle Zuordnungen zu denkbaren Orientierungszuständen durch eine Permutation zu erhalten. Durch weitere Kriterien werden dann Zuordnungen aufgrund der erhaltenen Ergebnisse aussortiert. Für die so gefundenen Sätze von Hauptwerten * 33 ii g ist zu prüfen ob sie innerhalb des Ordnungsdreiecks liegen. Erfüllen die * 33 ii g dieses in der Hierachie oberste Kriterium folgen weitere, wie z.B. die Übereinstimmung mit den Hauptwerten aus der 13 C-Spektroskopie, um die optimalste Lösung zu ermitteln. Für 2 existieren keine Ordnungsparameter S * und D * aufgrund der schlechten Löslichkeit in ZLI-1695. Aus Tensorkoordinaten eii * , die mit Hilfe der experimentellen Ordnungsparameter S * und D * aus den Anisotropiegraden, ermittelt wurden, können im Rahmen des Exziton-Modells interpretiert werden. Für die unverbrückten 1,1-Binaphthole 1 bis 3 zeigt sich, daß die Aufspaltungsenergie n , m NK E D und damit die Wechselwirkung zwischen den Naphthylebenen, die im Exziton-Modell als Dipol-Dipol-Wechselwirkung beschrieben wird, im Vergleich zu den verbrückten 1,1-Binaphtolen 4, 5 und 7 sehr gering ist. 1 zeigt eine Aufspaltungsenergie von 1 n , m NK cm 9 . 335 E - = D , 2 und 3 zeigen eine von 94.0 cm -1 und 0 cm -1 . Der Mittelwert der Aufspaltungsenergien aus den Tensorkoordinaten von 4, 5 und 7 beträgt dagegen 1 n , m NK cm 6 . 1093 E - = D . Aus den Tensorkoordinaten der unverbrückten 1,1 ' -Binaphthole ergibt sich weiterhin, daß die a-Bande eine höhere Intensität besitzt als die b-Bande. Für die verbrückten 1,1' -Binaphthole ist das Verhältnis a- zu b-Bande genau umgekehrt. Aus Anpassungen experimenteller CD- und UV-Spektren, mit Gleichungen, die aus der Exziton-Theorie abgeleitet wurden, findet man die gleiche Tendenz, wie aus den Ergebnissen der Tensorkoordinatenzerlegung. Die Wechselwirkungsenergie n , m NK E D ist für die verbrückten 1,1' - 256-Binaphthole 1 bis 3 ca. doppelt so groß, wie für die unverbrückten 1,1' -Binaphthole 4 bis 7. Speziell aus der Anpassung der UV-Spektren ergibt sich, daß für die verbrückten 1,1' -Binaphthole 1 bis 3, daß die a-Bande größer als die b-Bande ist, während die verbrückten 1,1-Binaphthole ein umgekehrtes Verhältnis von a- zu b-Bande zeigen Weiterhin konnte mit den Tensorkoordinaten die Lage des elektrischen Dipolübergangsmomentes der a-Bande ( A B -Übergang) für 4, 5 und 7 bestimmt werden. Man findet, daß das elektrische Dipolübergangsmoment a m , das in der Ebene senkrecht zur C2-Achse polarisiert ist, einen Winkel von 49° mit der Naphthyl-Naphthyl-Verbindungsachse einschließt. Speziell für die Verbindungen 4 und 7 zeigt sich aus den Tensorkoordinaten, daß der b- bzw. B A -Übergang einmal entlang der * 2 x -Achse für 4 bzw. entlang der * 3 x -Achse für 7 liegt. Dies zeigt, daß die Orientierungsachse aus der Naphthyl-Naphthyl-Achse bei Verbindung 4 in Richtung der C2-Achse bei Verbindung 7 gekippt ist. In den Tensorkoordinaten * 22 e bei Verbindung 4 und * 33 e bei Verbindung 7, die nach dem Exziton-Modell nur den A A -Übergang zeigen sollten, kann eine zusätzliche Bande im Spektralbereich des B A -Übergangs beobachtet werden. Bei den unverbrückten 1,1' -Binaphtholen tritt diese zusätzliche Bande bei der Tensorkoordinatenzerlegung nicht zum Vorschein. Die Ursache für diese zusätzliche Bande könnte eine Intensivierung eines Übergangs sein aufgrund der Verkrümmung des Naphthylrings und der damit verbundenen Erniedrigung der Symmetrie. Für die Dipolstärke würde dann im Grundkörper, d.h. im 2-Hydroxy- naphthalin mit einem planaren System - p 0 D NK = gelten. Tabelle 78. zeigt alle Ergebnisse für die unverbrückten (1 bis 3) und verbrückten (4 bis 7) 1,1 -Binaphthole, die aus AM1-Rechnungen, Röntgenstrukturanalyse und anisotroper UV-Spektroskopie im Rahmen dieser Arbeit erhalten wurden. Die Daten aus der anisotropen UV-Spektroskopie werden verglichen mit Daten, die man aus einer Anpassung experimenteller CD- und UV-Spektren in ZLI-1695 bei T=80°C, mit Hilfe von Gleichungen, die aus der Exziton-Theorie abgeleitet sind, erhält.
Rules are an important knowledge representation formalism in constructive problem solving. On the other hand, object orientation is an essential key technology for maintaining large knowledge bases as well as software applications. Trying to take advantage of the benefits of both paradigms, we integrated Prolog and Smalltalk to build a common base architecture for problem solving. This approach has proven to be useful in the development of two knowledge-based systems for planning and configuration design (CAPlan and Idax). Both applications use Prolog as an efficient computational source for the evaluation of knowledge represented as rules.
We present the adaptation process in a CBR application for decision support in the domain of industrial supervision. Our approach uses explanations to approximate relations between a problem description and its solution, and the adaptation process is guided by these explanations (a more detailed presentation has been done in [4]).
Typical instances, that is, instances that are representative for a particular situ-ation or concept, play an important role in human knowledge representationand reasoning, in particular in analogical reasoning. This wellADknown obser-vation has been a motivation for investigations in cognitive psychology whichprovide a basis for our characterization of typical instances within conceptstructures and for a new inference rule for justified analogical reasoning withtypical instances. In a nutshell this paper suggests to augment the proposi-tional knowledge representation system by a non-propositional part consistingof concept structures which may have directly represented instances as ele-ments. The traditional reasoning system is extended by a rule for justifiedanalogical inference with typical instances using information extracted fromboth knowledge representation subsystems.
The paper explores the role of artificial intelligence techniques in the development of an enhanced software project management tool, which takes account of the emerging requirement for support systems to address the increasing trend towards distributed multi-platform software development projects. In addressing these aims this research devised a novel architecture and framework for use as the basis of an intelligent assistance system for use by software project managers, in the planning and managing of a software project. This paper also describes the construction of a prototype system to implement this architecture and the results of a series of user trials on this prototype system.
Requirements engineering (RE) is a necessary part of the software development process, as it helps customers and designers identify necessary system requirements. If these stakeholders are separated by distance, we argue that a distributed groupware environment supporting a cooperative requirements engineering process must be supplied that allows them to negotiate software requirements. Such a groupware environment must support aspects of joint work relevant to requirements negotiation: synchronous and asynchronous collaboration, telepresence, and teledata. It should also add explicit support for a structured RE process, which includes the team's ability to discuss multiple perspectives during requirements acquisition and traceability. We chose the TeamWave software platform as an environment that supplied the basic collaboration capabilities, and tailored it to fit the specific needs of RE.
To prove difficult theorems in a mathematical field requires substantial know-ledge of that field. In this paper a frame-based knowledge representation formalismis presented, which supports a conceptual representation and to a large extent guar-antees the consistency of the built-up knowledge bases. We define a semantics ofthe representation by giving a translation into the underlaying logic.
We tested the GYROSTAR ENV-05S. This device is a sensor for angular velocity. There- fore the orientation must be calculated by integration of the angular velocity over time. The devices output is a voltage proportional to the angular velocity and relative to a reference. The test where done to find out under which conditions it is possible to use this device for estimation of orientation.
Polycyclische aromatische Kohlenwasserstoffe (PAK) stellen eine Gruppe von möglichen Kanzerogenen dar, die ihre mutagene und kanzerogene Wirkung erst nach einer zweistufigen biologischen Aktivierung zum Dihydrodiolepoxid entfalten. Der ubiquitär in der Umwelt vorkommende PAK Benzo[c]phenanthren ist in Nagersystemen in vitro und in vivo nur schwach biologisch aktiv, während die korrespondierenden Fjord-Region-B[c]PH-3,4-Dihydrodiol-1,2-Epoxide zu den am stärksten kanzerogenen PAK-Dihydrodiolepoxiden gehören. Die geringe Bildung von B[c]PH-3,4-DH als Vorstufe der B[c]PH-3,4-DH-1,2-Epoxide im Nager wird für die geringe biologische Aktivität von B[c]PH verantwortlich gemacht. Bisher waren nur wenige Daten zur Beurteilung der Aktivierungskapazität in menschlichem Gewebe verfügbar. In dieser Studie konnte erstmals eindeutig gezeigt werden, daß Gewebepräparationen aus Humanleber B[c]PH effizient zu genotoxischen und mutagenen Metaboliten aktivieren. Im Gegensatz zu Leberpräparationen von Ratte und Schwein, in denen mit der bevorzugten Bildung des B[c]PH-5,6-DH detoxifizierende Metabolismuswege dominieren, wird in humanen Leberpräparationen bevorzugt B[c]PH-3,4-DH als Vorläuferverbindung der ultimal kanzerogenen B[c]PH-3,4-DH-1,2-Epoxide gebildet. Von den in der menschlichen Leber vorhandenen Cytochrom P450-Enzymen erwies sich CYP 1A2 als hauptverantwortlich für die metabolische Aktivierung von B[c]PH. CYP 3A4 scheint für die Bildung von B[c]PH-5,6-DH mitverantwortlich zu sein. Beide Isoenzyme werden in der Leber stark exprimiert und besitzen eine Schlüsselfunktion bei der PAK-Aktivierung. Im Gegensatz zu humanen Lebermikrosomen erwiesen sich humane Lungenmikrosomen im wesentlichen als inaktiv. Die einzige aktive humane Lungenprobe generierte neben dem überwiegenden Metaboliten B[c]PH-5,6-DH auch bedeutende Anteile B[c]PH-3,4-DH. Studien mit CYP 450-Inhibitoren belegen eine Bedeutung von CYP 1A1 für die Aktivierung in der menschlichen Lunge, welches durch Zigarettenrauch induzierbar ist. Auch das extrahepatisch vorkommende CYP 1B1, welches vor allem in der Niere, dem Uterus und der Brustdrüse vorkommt, metabolisierte B[c]PH effektiv. Auch der zweite Schritt der Aktivierungskaskade wurde untersucht. B[c]PH-3,4-DH konnte durch humane Lebergewebepräparationen zu genotoxischen Metaboliten aktiviert werden. Die induzierte Genotoxizität war vergleichbar mit der des kanzerogenen B[a]P-7,8-DH. CYP 3A4 konnte als hauptverantwortlich für die Aktivierung identifiziert werden. Auch für humanes CYP 1B1 ist B[c]PH-3,4-DH ein gutes Substrat. Im Gegensatz dazu induzierte B[c]PH-5,6-DH nur geringe Genotoxizität. Nach Aktivierung in V79-Säugerzellen, die humanes CYP 3A4 exprimieren, wirkte B[c]PH-3,4-DH mutagen, vergleichbar mit B[a]P-7,8-DH. Schwache Mutagenität konnte auch für B[c]PH-5,6-DH nachgewiesen werden. Zusätzlich wurden die Fjord-Region-Verbindung Dibenzo[a,l]pyren-11,12-Dihydrodiol (DB[a,l]P-11,12-DH), Benzo[j]fluoranthen-9,10-Dihydrodiol (B[j]F-9,10-DH), und Fluoranthen-2,3-Dihydrodiol (FLU-2,3-DH) untersucht. DB[a,l]P-11,12-DH war im Genotoxizitäts- sowie Mutagenitätstest am stärksten aktiv und induzierte 10-fach mehr HPRT-Mutationen als B[c]PH-3,4-DH und B[a]P-7,8-DH. B[j]F-9,10-DH zeigte nur im Genotoxizitätstest schwache Aktivität, während FLU-2,3-DH in beiden Systemen inaktiv war. Humanes CYP 3A4 und zu geringerem Ausmaß CYP 1A2 konnten als hauptverantwortlich für die Aktivierung von DB[a,l]P-11,12-DH identifiziert werden. Somit konnte diese Studie zeigen, daß B[c]PH durch CYP 450-Enzyme in humanem Gewebe zu genotoxischen und mutagenen Verbindungen aktiviert werden kann. Im Tierexperiment ermittelte Daten haben dagegen eine vorrangige Metabolisierung zu wenig mutagenen Metaboliten ergeben. Sie korrelieren mit dem Befund des geringen kanzerogenen Potentials im Tierexperiment. Im Gegensatz dazu wird B[c]PH in humanen Gewebepräparationen effizient zu mutagenen Endprodukten aktiviert. Die Ergebnisse zeigen, daß für die Risikobewertung wesentliche Unterschiede beim B[c]PH-Metabolismus zwischen Mensch und Nager bestehen und die Ratte im Falle von B[c]PH kein prädiktives Modell für die Biotransformation beim Menschen darstellt. Es konnte gezeigt werden, daß für die Aktivierung von B[c]PH in menschlichem Lebergewebe eine Kombination des induzierbaren CYP 1A2 (1. Aktivierungsschritt) und des Hauptenzyms der Humanleber CYP 3A4 (2. Aktivierungsschritt) für eine effiziente Aktivierung verantwortlich ist. Die Ergebnisse dieser Studie legen nahe, daß B[c]PH eine Bedeutung für die Entstehung von Krebs beim Menschen besitzt.
Diese Dissertation ist ein Beitrag zur Untersuchung der Anwendbarkeit der Random-Matrix-Theorie (RMT) in der Quantenchromodynamik (QCD). Untersucht werden die Fluktuationen der kleinen Eigenwerte des Dirac-Operators mit Kogut-Susskind-Fermionen und SUc(2)-Eichfeldern. Diese werden mit Hilfe eines Hybrid-Monte-Carlo-Algorithmus erzeugt. Die Universalität der Fluktuationen kleiner Eigenwerte, das heisst die Übereinstimmung der numerisch berechneten Spektren mit den Vorhersagen des chiralen Random-Matrix-Modells wird in dieser Arbeit nachgewiesen. Die Bedeutung dieses Resultats liegt in der Allgemeinheit des Ansatzes, die QCD-Zustandssumme für ein endliches Volumen durch ein Random-Matrix-Modell zu approximieren.
Unification in an Extensional Lambda Calculus with Ordered Function Sorts and Constant Overloading
(1999)
We develop an order-sorted higher-order calculus suitable forautomatic theorem proving applications by extending the extensional simplytyped lambda calculus with a higher-order ordered sort concept and constantoverloading. Huet's well-known techniques for unifying simply typed lambdaterms are generalized to arrive at a complete transformation-based unificationalgorithm for this sorted calculus. Consideration of an order-sorted logicwith functional base sorts and arbitrary term declarations was originallyproposed by the second author in a 1991 paper; we give here a correctedcalculus which supports constant rather than arbitrary term declarations, aswell as a corrected unification algorithm, and prove in this setting resultscorresponding to those claimed there.
This paper addresses two modi of analogical reasoning. Thefirst modus is based on the explicit representation of the justificationfor the analogical inference. The second modus is based on the repre-sentation of typical instances by concept structures. The two kinds ofanalogical inferences rely on different forms of relevance knowledge thatcause non-monotonicity. While the uncertainty and non-monotonicity ofanalogical inferences is not questioned, a semantic characterization ofanalogical reasoning has not been given yet. We introduce a minimalmodel semantics for analogical inference with typical instances.
The following two norms for holomorphic functions \(F\), defined on the right complex half-plane \(\{z \in C:\Re(z)\gt 0\}\) with values in a Banach space \(X\), are equivalent:
\[\begin{eqnarray*} \lVert F \rVert _{H_p(C_+)} &=& \sup_{a\gt0}\left( \int_{-\infty}^\infty \lVert F(a+ib) \rVert ^p \ db \right)^{1/p}
\mbox{, and} \\ \lVert F \rVert_{H_p(\Sigma_{\pi/2})} &=& \sup_{\lvert \theta \lvert \lt \pi/2}\left( \int_0^\infty \left \lVert F(re^{i \theta}) \right \rVert ^p\ dr \right)^{1/p}.\end{eqnarray*}\] As a consequence, we derive a description of boundary values ofsectorial holomorphic functions, and a theorem of Paley-Wiener typefor sectorial holomorphic functions.
Most automated theorem provers suffer from the problemthat the resulting proofs are difficult to understand even for experiencedmathematicians. An effective communication between the system andits users, however, is crucial for many applications, such as in a mathematical assistant system. Therefore, efforts have been made to transformmachine generated proofs (e.g. resolution proofs) into natural deduction(ND) proofs. The state-of-the-art procedure of proof transformation fol-lows basically its completeness proof: the premises and the conclusionare decomposed into unit literals, then the theorem is derived by mul-tiple levels of proofs by contradiction. Indeterminism is introduced byheuristics that aim at the production of more elegant results. This inde-terministic character entails not only a complex search, but also leads tounpredictable results.In this paper we first study resolution proofs in terms of meaningful op-erations employed by human mathematicians, and thereby establish acorrespondence between resolution proofs and ND proofs at a more ab-stract level. Concretely, we show that if its unit initial clauses are CNFsof literal premises of a problem, a unit resolution corresponds directly toa well-structured ND proof segment that mathematicians intuitively un-derstand as the application of a definition or a theorem. The consequenceis twofold: First it enhances our intuitive understanding of resolutionproofs in terms of the vocabulary with which mathematicians talk aboutproofs. Second, the transformation process is now largely deterministicand therefore efficient. This determinism also guarantees the quality ofresulting proofs.
In the paper we discuss the transition from kinetic theory to macroscopic fluid equations, where the macroscopic equations are defined as aymptotic limits of a kinetic equation. This relation can be used to derive computationally efficient domain decomposition schemes for the simulaion of rarefied gas flows close to the continuum limit. Moreover, we present some basic ideas for the derivation of kinetic induced numerical schemes for macroscopic equations, namely kinetic schemes for general conservation laws as well as Lattice-Boltzmann methods for the incompressible Navier-Stokes equations.
In order to improve the quality of software systems and to set up a more effective process for their development, many attempts have been made in the field of software engineering. Reuse of existing knowledge is seen as a promising way to solve the outstanding problems in this field. In previous work we have integrated the design pattern concept with the formal design language SDL, resulting in a certain kind of pattern formalization. For the domain of communication systems we have also developed a pool of SDL patterns with an accompanying process model for pattern application. In this paper we present an extension that combines the SDL pattern approach with the experience base concept. This extension supports a systematic method for empirical evaluation and continuous improvement of the SDL pattern approach. Thereby the experience base serves as a repository necessary for effective reuse of the captured knowledge. A comprehensive usage scenario is described which shows the advantages of the combined approach. To demonstrate its feasibility, first results of a research case study are given.
This paper focuses on the issues involved when multiple mobile agents interact in multiagent systems. The application is an intelligent agent market place, where buyer and seller agents cooperate and compete to process sales transactions for their owners. The market place manager acts as afacilitator by giving necessary information to agents and managing communication between agents, and also as a mediator by proposing solutions to agents or stopping them to get into infinite loops bargaining back and forth.The buyer and seller agents range from using hardcoded logic to rule-based inferencing in their negotiation strategies. However these agents must support some communication skills using KQML or FIPA-ACL.So in contrast with other approaches to multiagent negotiation, we introduce an explicit mediator (market place manager) into the negotiation, and we propose a negotiation strategy based on dependence theory [1] implemented by our best buyers and best sellers.
Using an experience factory is one possible concept for supporting and improving reuse in software development. (i.e., reuse of products, processes, quality models, ...). In the context of the Sonderforschungsbereich 501: "Development of Large Systems with Generic methods" (SFB501), the Software Engineering Laboratory (SE Lab) runs such an experience factory as part of the infrastructure services it offers. The SE Lab also provides several tools to support the planning, developing, measuring, and analyzing activities of software development processes. Among these tools, the SE Lab runs and maintains an experience base, the SFB-EB. When an experience factory is utilized, support for experience base maintenance is an important issue. Furthermore, it might be interesting to evaluate experience base usage with regard to the number of accesses to certain experience elements stored in the database. The same holds for the usage of the tools provided by the SE LAB. This report presents a set of supporting tools that were designed to aid in these tasks. These supporting tools check the experience base's consistency and gather information on the usage of SFB-EB and the tools installed in the SE Lab. The results are processed periodically and displayed as HTML result reports (consistency checking) or bar charts (usage profiles).
Die generelle Zielsetzung der vorliegenden Arbeit, einen Beitrag zur Untersuchung des Mischungsverhaltens von Phospholipiden zu liefern, läßt sich in eine theoretische und eine experimentelle Problemstellung unterteilen: Im theoretischen Bereich lag die erste Herausforderung darin, bereits existierende Modelle zur Monte Carlo-Simulation von Lipidsystemen aus vorhandenen Publikationen zu sichten, die relevanten mathematischen Formulierungen zu entwickeln und anschließend in einen geeigneten Quellcode zur Durchführung der entsprechenden Computersimulationen zu übersetzen. Mit den hieraus gewonnenen Erfahrungen sollte dann der Versuch unternommen werden, eigene Ideen bei der Simulation von Einphasen-/Zweikomponentensystemen bzw. Zweiphasen-/Einkomponentensystemen umzusetzen und die Ergebnisse auf der Grundlage der verwendeten physikalischen Modelle zu interpretieren. Als Höhepunkt wurde abschließend die Entwicklung eines Formelgebäudes zur Beschreibung von Zweiphasen-/ Zweikomponentensystemen ins Auge gefaßt. Auf experimenteller Seite wurde das Ziel angestrebt, wässerige PC/PE- bzw. PC/PG-Systeme mit unterschiedlichen Kettenlängen auf ihre Mischbarkeit hin zu untersuchen. Hierzu war es erforderlich, die bereits im Arbeitskreis vorhandenen kalorimetrischen Daten zu vervollständigen. Außerdem sollten die entsprechenden äquimolaren Gemische aus jeweils einem deuterierten und einem undeuterierten Phospholipid hergestellt und anschließend mittels 2H-NMR- und FTIR-spektroskopischer Methoden analysiert werden, um auf diese Weise die beiden Komponenten der Mischungen getrennt voneinander beobachten zu können. Die benötigten perdeuterierten Lipide sollten vorher aus den entsprechenden Fettsäuren synthetisiert werden.
In this paper we are interested in an algebraic specification language that (1) allowsfor sufficient expessiveness, (2) admits a well-defined semantics, and (3) allows for formalproofs. To that end we study clausal specifications over built-in algebras. To keep thingssimple, we consider built-in algebras only that are given as the initial model of a Hornclause specification. On top of this Horn clause specification new operators are (partially)defined by positive/negative conditional equations. In the first part of the paper wedefine three types of semantics for such a hierarchical specification: model-theoretic,operational, and rewrite-based semantics. We show that all these semantics coincide,provided some restrictions are met. We associate a distinguished algebra A spec to ahierachical specification spec. This algebra is initial in the class of all models of spec.In the second part of the paper we study how to prove a theorem (a clause) valid in thedistinguished algebra A spec . We first present an abstract framework for inductive theoremprovers. Then we instantiate this framework for proving inductive validity. Finally wegive some examples to show how concrete proofs are carried out.This report was supported by the Deutsche Forschungsgemeinschaft, SFB 314 (D4-Projekt)
This paper shows how a new approach to theorem provingby analogy is applicable to real maths problems. This approach worksat the level of proof-plans and employs reformulation that goes beyondsymbol mapping. The Heine-Borel theorem is a widely known result inmathematics. It is usually stated in R 1 and similar versions are also truein R 2 , in topology, and metric spaces. Its analogical transfer was proposedas a challenge example and could not be solved by previous approachesto theorem proving by analogy. We use a proof-plan of the Heine-Boreltheorem in R 1 as a guide in automatically producing a proof-plan of theHeine-Borel theorem in R 2 by analogy-driven proof-plan construction.
This paper is concerned with numerical algorithms for the bipolar quantum drift diffusion model. For the thermal equilibrium case a quasi-gradient method minimizing the energy functional is introduced and strong convergence is proven. The computation of current - voltage characteristics is performed by means of an extended emph{Gummel - iteration}. It is shown that the involved fixed point mapping is a contraction for small applied voltages. In this case the model equations are uniquely solvable and convergence of the proposed iteration scheme follows. Numerical simulations of a one dimensional resonant tunneling diode are presented. The computed current - voltage characteristics are in good qualitative agreement with experimental measurements. The appearance of negative differential resistances is verified for the first time in a Quantum Drift Diffusion model.
Continuous and discrete superselection rules induced by the interaction with the environment are investigated for a class of exactly soluble Hamiltonian models. The environment is given by a Boson field. Stable superselection sectors can only emerge if the low frequences dominate and the ground state of the Boson field disappears due to infrared divergence. The models allow uniform estimates of all transition matrix elements between different superselection sectors.
The thermal equilibrium state of a bipolar, isothermal quantum fluid confined to a bounded domain \(\Omega\subset I\!\!R^d,d=1,2\) or \( d=3\) is the minimizer of the total energy \({\mathcal E}_{\epsilon\lambda}\); \({\mathcal E}_{\epsilon\lambda}\) involves the squares of the scaled Planck's constant \(\epsilon\) and the scaled minimal Debye length \(\lambda\). In applications one frequently has \(\lambda^2\ll 1\). In these cases the zero-space-charge approximation is rigorously justified. As \(\lambda \to 0 \), the particle densities converge to the minimizer of a limiting quantum zero-space-charge functional exactly in those cases where the doping profile satisfies some compatibility conditions. Under natural additional assumptions on the internal energies one gets an differential-algebraic system for the limiting \((\lambda=0)\) particle densities, namely the quantum zero-space-charge model. The analysis of the subsequent limit \(\epsilon \to 0\) exhibits the importance of quantum gaps. The semiclassical zero-space-charge model is, for small \(\epsilon\), a reasonable approximation of the quantum model if and only if the quantum gap vanishes. The simultaneous limit \(\epsilon =\lambda \to 0\) is analyzed.
Most automated theorem provers suffer from the problem that theycan produce proofs only in formalisms difficult to understand even forexperienced mathematicians. Efforts have been made to transformsuch machine generated proofs into natural deduction (ND) proofs.Although the single steps are now easy to understand, the entire proofis usually at a low level of abstraction, containing too many tedioussteps. Therefore, it is not adequate as input to natural language gen-eration systems.To overcome these problems, we propose a new intermediate rep-resentation, called ND style proofs at the assertion level . After illus-trating the notion intuitively, we show that the assertion level stepscan be justified by domain-specific inference rules, and that these rulescan be represented compactly in a tree structure. Finally, we describea procedure which substantially shortens ND proofs by abstractingthem to the assertion level, and report our experience with furthertransformation into natural language.
Comprehensive reuse and systematic evolution of reuse artifacts as proposed by the Quality Improvement Paradigm (QIP) do not only require tool support for mere storage and retrieval. Rather, an integrated management of (potentially reusable) experience data as well as project-related data is needed. This paper presents an approach exploiting object-relational database technology to implement the QIP-driven reuse repository of the SFB 501. Requirements, concepts, and implementational aspects are discussed and illustrated through a running example, namely the reuse and continuous improvement of SDL patterns for developing distributed systems. Based on this discussion, we argue that object-relational database management systems (ORDBMS) are best suited to implement such a comprehensive reuse repository. It is demonstrated how this technology can be used to support all phases of a reuse process and the accompanying improvement cycle. Although the discussions of this paper are strongly related to the requirements of the SFB 501 experience base, the basic realization concepts, and, thereby, the applicability of ORDBMS, can easily be extended to similar applications, i. e., reuse repositories in general.
Approximation properties of the underlying estimator are used to improve the efficiency of the method of dependent tests. A multilevel approximation procedure is developed such that in each level the number of samples is balanced with the level-dependent variance, resulting in a considerable reduction of the overall computational cost. The new technique is applied to the Monte Carlo estimation of integrals depending on a parameter.
We present an empirical study of mathematical proofs by diagonalization, the aim istheir mechanization based on proof planning techniques. We show that these proofs canbe constructed according to a strategy that (i) finds an indexing relation, (ii) constructsa diagonal element, and (iii) makes the implicit contradiction of the diagonal elementexplicit. Moreover we suggest how diagonal elements can be represented.
Trigonometric invariants are defined for each Weyl group orbit on the root lattice. They are real and periodic on the coroot lattice. Their polynomial algebra is spanned by a basis which is calculated by means of an algorithm. The invariants of the basis can be used as coordinates in any cell of the coroot space and lead to an exactly solvable model of Sutherland type. We apply this construction to the \(F_4\) case.
In this report we present a case study of employing goal-oriented heuristics whenproving equational theorems with the (unfailing) Knut-Bendix completion proce-dure. The theorems are taken from the domain of lattice ordered groups. It will bedemonstrated that goal-oriented (heuristic) criteria for selecting the next critical paircan in many cases significantly reduce the search effort and hence increase per-formance of the proving system considerably. The heuristic, goalADoriented criteriaare on the one hand based on so-called "measures" measuring occurrences andnesting of function symbols, and on the other hand based on matching subterms.We also deal with the property of goal-oriented heuristics to be particularly helpfulin certain stages of a proof. This fact can be addressed by using them in a frame-work for distributed (equational) theorem proving, namely the "teamwork-method".
Metall-Ligand-Mehrfachbindungssysteme üben von jeher eine große Anziehungskraft auf den Chemiker aus. Selbst zwei Jahrhunderte nach der Entdeckung der ersten Eisen-Sauerstoff-Mehrfachbindung im Na2FeO4 ist die Faszination an dieser sich dynamisch entwickelnden Richtung der metallorganischen Chemie ungebrochen [1] . So vielfältig wie die verwendeten Metalle und Liganden - bis zum heutigen Tage kennt man Mehrfachbindungen zwischen Übergangsmetallen und den meisten Elementen der 4., 5. und 6. Hauptgruppe - so beeindruckend ist auch die Fülle von Übersichtsartikeln und unterschiedlichsten Publikationen zu diesem Forschungsgebiet [2] . Einen wesentlichen Impuls für das stetig wachsende Interesse stellt die große Zahl von wichtigen industriellen Prozessen dar, in denen Komplexe mit Metall-Ligand-Mehrfachbindungen eine entscheidende Rolle spielen. Exemplarisch sind zu nennen die Haber-Ammoniak-Synthese, die Reduktion von Nitrilen und das SOHIO-Verfahren zur Umwandlung von Propylen in Acylonnitril [3-5] . Desweiteren werden jährlich ca. 14 Millionen Tonnen chemischer Stoffe durch Oxidationsprozesse hergestellt [6] . Wer würde ernsthaft behaupten, die Mechanismen metallkatalysierter Prozesse wirklich zu kennen? Allein diese wenigen Beispiele zeigen auf, wie wichtig das Verständnis für Struktur und Bindungsverhältnisse sowie das Reaktionsverhalten rein anorganischer und metallorganischer Verbindungen ist und welcher großen Herausforderung sich die Grundlagenforschung in den nächsten Jahren zu stellen hat, ungeachtet der Verdienste, die sie bis dato erzielte.
Orderings on polynomial interpretations of operators represent a powerful technique for proving thetermination of rewriting systems. One of the main problems of polynomial orderings concerns thechoice of the right interpretation for a given rewriting system. It is very difficult to develop techniquesfor solving this problem. Here, we present three new heuristic approaches: (i) guidelines for dealingwith special classes of rewriting systems, (ii) an algorithm for choosing appropriate special polynomialsas well as (iii) an extension of the original polynomial ordering which supports the generation ofsuitable interpretations. All these heuristics will be applied to examples in order to illustrate theirpractical relevance.
Tangent measure distributions are a natural tool to describe the local geometry of arbitrary measures of any dimension. We show that for every measure on a Euclidean space and every s, at almost every point, all s-dimensional tangent measure distributions define statistically self-similar random measures. Consequently, the local geometry of general measures is not different from the local geometry of self-similar sets. We illustrate the strength of this result by showing how it can be used to improve recently proved relations between ordinary and average densities.
Im Rahmen dieser Arbeit wurden mehr als 50 Verbindungen aus der Klasse der TADDOLe oder ihrer Analoga bzgl. ihrer HTP und ihrer UV- und CD-Spektroskopie untersucht. Dabei wurde für alle Verbindungen die HTP im Flüssigkristall ZLI-1695 temperaturabhängig bestimmt. Für 30 dieser Verbindungen wurde als Vergleich die HTP temperaturabhängig auch in K15 gemessen. Es ist erstmals möglich innerhalb einer Verbindungsklasse die HTP von neuen Verbindungen mit Hilfe von empirischen Regeln vorherzusagen. Somit konnte die bislang höchste bekannte HTP durch eine gezielte Synthese um mehr als 100% gesteigert werden (56 in K15). Es besteht nun die Möglichkeit, TADDOLe je nach gewünschter HTP maßzuschneidern. Aufgrund des hohen Verdrillungsvermögens von einigen TADDOLen wurde die Substanzklasse als Chirale Verbindungen gemeinsam mit Seebach und der BASF patentiert [7-1] sowie an weiteren Stellen veröffentlicht [7-2,3-8]. Das Vorzeichen der HTP der TADDOLe kann mit dem Vorzeichen bei der enantioselektiven Synthese korreliert werden und mit einer einfachen Regel vorhergesagt werden. Alle hier untersuchten TADDOLe mit einer R,R-Konfiguration induzieren eine Rechtshelix. Der Vergleich von HTP-Werten mit Ergebnissen aus der NMR-, anisotropen UV- und CD-Spektroskopie und Exziton-Theorie geben Ansätze, mit denen man verschiedene Einflüsse auf die HTP der TADDOLe diskutieren kann. Die Orientierungsachse bei den TADDOLen liegt senkrecht zur C2-Achse. Dies wurde mit Hilfe von 2 H-NMR für die Verbindungen 2, 3, 4 und mit Hilfe von 13 C-NMR für die Verbindungen 2, 13, 43, 45, 46 von I. Kiesewalter [7-9] gezeigt. Aus anisotropen UV-Messungen folgt diese Lage der Orientierungsachse für 3, 4, 5, 6, 8, 60, 61. Selbst bei den in C2-Richtung stark verlängerten Molekülen 60, 61 ändert sich der Anisotropiegrad und der ACD im Vergleich zu 3, 8 nur unwesentlich, was ein starkes Argument dafür ist, daß die Orientierungsachse bei den hier untersuchten TADDOLen immer senkrecht zur C2-Achse liegt. Die Mittlere Stellung der Arylgruppen zueinander hat einen Einfluß auf die Parameter der empirischen Regeln für die HTP. Verbindungen 58 und 63 unterscheiden sich nur durch den Austausch Wasserstoff-Methyl im Acetalbereich von den Verbindungen 3, 8. Die HTP ändert sich drastisch, ebenso der UV und der CD. Daraus folgt, daß die Arylgruppen im Mittel anders stehen. Anders ist der Fall beim Vergleich 3 mit 5 und 8 mit 6. Hier gibt es kaum Änderung im CD und kaum Änderung in der HTP. Ein Fall, der in der Mitte liegt sind 3 und 4. Eine Änderung im CD führt zu Änderung in der HTP bei gleichem Chromophor. Durch die Drehbarkeit um 4 C-Arylachsen besitzen die TADDOLe Konformere. Jedoch sind die Konformere sich sehr ähnlich. MM2-Rechnungen zeigen, daß sich die Konformere nur aufgrund von 180°-Drehungen der Arylgruppen um die C-Arylachse unterscheiden. Die MM2-Rechnungen wurden von Plattner [7-10] durchgeführt. Viele TADDOLe zeigen ein ähnliches konformatives Verhalten. Sie besitzen ca. 37% Temperaturabhängigkeit im CD zwischen 5°C und 75°C. Für diese Untersuchungen wurde im Rahmen dieser Arbeit eine neue Meßzelle konstruiert, die Langzeitmessungen bei Temperaturen erlaubt, die nur ca. 7°C unterhalb des Siedepunktes des Lösungsmittels liegen ohne, daß das Lösungsmittel während der Messung verdampft. Man kann es somit vermeiden, daß man eine zeitabhängige Konzentrationszunahme erhält. Weiterhin muß das verwendete Uvasol-Acetonitril gereinigt werden, um eine Zersetzung der TADDOLe während der Messung zu verhindern. Für die Bestimmung des Ordnungstensors werden bei der NMR-Methode Geometrien benötigt. Dazu wurden von den Verbindungen 4, 13, 46 Röntgenstrukturen angefertigt [7-11]. Die Verbindungen 4 und 46 bilden wegen der Überbrückung gleichzeit ig einen guten Vergleich zu den Metallkomplexen, wie sie bei der enantioselektiven Synthese eingesetzt werden. Mit der Geometrie aus der Röntgenstruktur von 4 wurde mit Hilfe der Exziton-Theorie das CD- und UV-Spektrum berechnet. Durch den Vergleich von gemessenen und nach der Exziton-Methode berechneten UV- und CD-Spektren ist man in der Lage mehr über eine mögliche Geometrie in Lösung zu sagen als nur mit der Röntgengeometrie und MM2-Rechnungen. Hierbei wurden Rechnungen an den Verbindungen 3, 4, 6 durchgeführt. Die Exziton-Methode wurde erstmals auf ein 4-Körperproblem eines organischen Nicht-Polymer-Moleküls angewendet. Das 3-Körperproblem [7-12] sowie die Beschreibung von Polymermolekülen sind in der Literatur bekannt[7-13]. Einige TADDOLe wurden, um große Effekte von kleinsten Verunreinigungen auszuschließen, ausgehend von einer Reinheit größer 99% (HPLC) so weit aufgereinigt, daß mit HPLC keine Verunreinigung mehr nachweisbar war. Verbindung 4 wurde im Rahmen dieser Arbeit synthetisiert. Die AHTP konnte erstmals für ein chirales Molekül außerhalb des experimentellen Fehlers nachgewiesen werden.
We transform a user-friendly formulation of aproblem to a machine-friendly one exploiting the variabilityof first-order logic to express facts. The usefulness of tacticsto improve the presentation is shown with several examples.In particular it is shown how tactical and resolution theoremproving can be combined.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
Die zweikernigen Eisenkomplexe [{CpR(OC)2Fe}2] (1) reagieren mit weißem Phosphor unter milden Bedingungen selektiv und in sehr guten Ausbeuten zu den Tetraphosphabicyclobutanderivaten 3, deren P4-Butterflygerüst durch zwei 17VE-{CpR(OC)2Fe}-Fragmente in exo/exo-Konfiguration stabilisiert ist. Mit der Röntgenstrukturanalyse des Tri-tert-butylderivates 3a konnte erstmals ein Molekül mit einem solchen Strukturinkrement vollständig charakterisiert werden. Sowohl die thermische als auch die photochemische Decarbonylierung von 3 führt zu den Cyclopentaphosphaferrocenderivaten [CpRFe(h5-P5)] (4) und den pseudo-Tripeldeckerkomplexen [{CpRFe}2(m-h4:4-P4)] (5), die sich auch durch die Langzeit-Cothermolyse der Eisendimere [{CpR(OC)2Fe}2] (1) mit überschüssigem weißen Phosphor herstellen lassen. Die beiden Tri-tert-butylderivate 4a und 5a konnten röntgenstrukturanalytisch untersucht werden. Die thermische Umsetzung äquimolarer Mengen der P4-Butterflymoleküle 3 mit Bisphenyl-acetylen führt zu sehr interessanten neuartigen Produkten: So konnte bei der Reaktion von 3a mit Tolan ein ferrocenanaloges Sandwichmolekül 7a, dessen zentrales Eisenatom jeweils von einem Tri-tert-butylcyclopentadienyl- und von einem 1,2,3-Triphospholylliganden h5-artig koordiniert ist, isoliert und ein solcher heteroaromatischer Ligand erstmals kristallstrukturanalytisch charakterisiert werden. Darüber hinaus konnte bei dieser Reaktion ein weiteres Sandwichmolekül - (Tri-tert-butylcyclopentadienyl)(tetraphospholyl)eisen(II) (8a) - NMR-spektroskopisch und massenspektrometrisch nachgewiesen werden. Zusätzlich konnte bei der Umsetzung des Pentaisopropylderivates 3c mit Tolan ein zwar theoretisch vorhergesagter, aber bislang nicht experimentell bestätigter Undecaphosphor-Komplex isoliert und kristallstrukturanalytisch untersucht werden.
Verfahren des Maschinellen Lernens haben heute eine Reife erreicht, die zu ersten erfolgreichen industriellen Anwendungen geführt hat. In der Prozessdiagnose und -steuerung ermöglichen Lernverfahren die Klassifikation und Bewertung von Betriebszuständen, d.h. eine Grobmodellierung eines Prozesses, wenn dieser nicht oder nur teilweise mathematisch beschreibbar ist. Ausserdem gestatten Lernverfahren die automatische Generierung von Klassifizierungsprozeduren, die deterministisch abgearbeitet werden und daher für die Belange der Echtzeitdiagnose und -steuerung u.U. zeiteffektiver als Inferenzmechanismen auf logischer bzw. Produktionsregelbasis sind, da letztere immer mit zeitaufwendigen Suchprozessen verbunden sind.
Indirubin ist als antileukämischer Inhaltsstoff in Zubereitungen der traditionellen chinesischen Medizin erkannt und seine antineoplastische Wirkung in einer klinischen Studie an Patienten mit chronisch myeloischer Leukämie gezeigt worden. Ziel dieser Arbeit war es, bekannte und neue Indirubinderivate zu synthetisieren und Indizien für den Wirkmechanismus indigoider Bisindole zu finden. Ein Schwerpunkt sollte dabei in der Darstellung von in 5- und 3'-Stellung substituierten Indirubinderivaten liegen. Unter den 19 synthetisierten Indirubinderivaten sind die zehn neuen Verbindungen 5-Fluorindirubin, 5-Nitroindirubin, 5,5'-Dibromindirubin, das Natriumsalz der 5'-Bromindirubin-5-sulfonsäure, 5-Iodindirubin-3'-oxim sowie fünf Indirubin-5-sulfonsäureamidderivate. An der Verbindungsklasse werden detaillierte NMR-spektroskopische Untersuchungen vorgenommen. Außerdem werden Isoindigo und die beiden Bisindolderivate 2,2'-Bisindol sowie 3,3'-Diphenyl-2,2'-bisindol dargestellt. Identität und Reinheit der synthetisierten Verbindungen werden mittels Dünnschichtchromatographie, Elementaranalyse, Massenspektroskopie, Gaschromatograhie/Massenspektroskopie, UV-Spektroskopie sowie 1H-NMR- und 13C-NMR-Spektroskopie nachgewiesen. Ergänzt durch kommerziell erhältliche Indigoderivate steht damit eine Auswahl an 2',3-, 2,2'- und 3,3'-Bisindolderivaten zur Verfügung. Bei cyclovoltammetrischen Untersuchungen an Indirubin und 5-Iodindirubin werden im beobachteten Spannungsbereich bei beiden Derivaten eine im Sinne der Cyclovoltammetrie irreversible Oxidation und zwei reversible Reduktionen registriert. Die Höhe der Wellen deutet darauf hin, daß das Indirubinsystem bei den beiden Reduktionen jeweils ein Elektron aufnimmt und bei der Oxidation zwei Elektronen abgibt. Zumindest die erste Reduktion liegt mit einem Halbwellenpotential von -0,8 V in einem Bereich, der physiologisch zugänglich sein sollte. Eine Überführung in eine der vorgeschlagenen oxidierten oder reduzierten Strukturen hätte mit großer Wahrscheinlichkeit eine bessere Löslichkeit und damit eine erhöhte Transportfähigkeit der Indirubinderivate in wäßrigen Systemen zur Folge. Die Ergebnisse des Ethidiumbromidverdrängungsassays deuten darauf hin, daß einige Indirubinderivate interkalative Wechselwirkungen mit der DNA eingehen können. Bei 5-Fluorindirubin, Indirubin-3'-oxim und Indirubin-5-sulfonamid kann ein ED50-Wert bestimmt werden, der fast in der Größenordnung des starken Interkalators Doxorubicin liegt. Eine Beteiligung der Interkalation am Wirkmechanismus scheint bei 5-Fluorindirubin und Indirubin-3'-oxim möglich, denn beide hemmen im gleichen Konzentrationsbereich das Wachstum im Sulforhodamin B-Assay und im Colony-Forming-Assay. Im Colony-Forming-Assay ist Isoindigo die aktivste Substanz. Indirubinderivate haben durchschnittliche IC70-Werte, die eine Größenordnung höher liegen. Die drei Indirubinderivate mit einer freien Sulfonsäuregruppe sowie Indigo sind kaum wirksam. Die sulfonierten Indigoderivate sind inaktiv. Die beiden Melanomzellinien MEXF 989 und MEXF 515LX zeichnen sich gegenüber einigen Verbindungen durch eine bis um den Faktor 75 unterschiedliche Sensitivität aus. Die Mammakarzinomzellinie MCF 7 wird von den meisten der Indirubinderivaten sowie von den beiden 2,2'-Bisindolderivaten stärker gehemmt als der Durchschnitt. Im Luciferase-Assay an transfizierten MCF 7-Zellen kann kein Hinweis auf eine hormonrezeptorgekoppelte Wirkung gefunden werden. Im Sulforhodamin B-Assay sind Isoindigo und Indirubin-3'-oxim die wirksamsten Substanzen. Dies bestätigt das Ergebnis der durchschnittlichen Wirksamkeit in den Colony-Forming-Assays. Die geringe absolute Löslichkeit sowohl in der lipophilen als auch in der hydrophilen Phase verhindert bei etwa der Hälfte der Verbindungen eine exakte Bestimmung des Octanol-Wasser-Verteilungskoeffizienten (log POW). Dennoch wird für die restlichen Indirubinderivate eine gute Korrelation zwischen dem durchschnittlichen IC70-Wert im Colony-Forming-Assay und der Lipophilie der Substanzen gefunden. Das Optimum des log POW bewegt sich für Indirubinderivate in Bezug auf die Wachstumshemmung im Colony-Forming-Assay in einem Bereich von 3 bis 4. In ersten, orientierenden in vivo-Versuchen an thymusaplastischen Nacktmäusen, die das großzellige Lungenkarzinom LXFL 529 tragen, können Indirubin und 5-Chlorindirubin das Tumorwachstum verzögern aber nicht stoppen. 5-Methylindirubin, das schneller als die beiden anderen Derivate aus dem Injektionsbereich transportiert wird, kann ab etwa dem zehnten Tag der Behandlung das Tumorwachstum stoppen. Das Gesamtgewicht der Versuchstiere bleibt dabei konstant oder steigt leicht an. 5-Methylindirubin ist somit ein aussichtsreicher Kandidat für eine Weiterentwicklung in Richtung eines antineoplastischen Medikaments. Ausgehend von Indirubin kann durch die Variation der Substituenten eine Steigerung der Hemmwirkung am isolierten Enzymkomplex CDK1/Cyclin B um den Faktor 1200 erreicht werden. Das Natriumsalz der 3'-Hydroxyiminoindirubin-5-sulfonsäure hat einen IC50-Wert von 0,0083 microM. Die Substanzklasse besitzt außerdem eine hohe Selektivität gegenüber anderen Kinasen und übertrifft somit in Wirksamkeit und Selektivität die meisten bekannten CDK-Hemmstoffe. Für Isoindigo kann keine Hypothese zum Wirkmechanismus aufgestellt werden. Seiner hohen Aktivität im Colony-Forming-Assay und im Sulforhodamin B-Assay steht eine nur äußerst geringe Interkalationsfähigkeit sowie eine kaum vorhandene Fähigkeit zur Hemmung des Enzymkomplexes CDK1/Cyclin B gegenüber. In einer Röntgenstrukturanalyse von humaner CDK2 im Komplex mit Indirubin-5-sulfonat bzw. Indirubin-3'-oxim wird deutlich, daß sich die Inhibitoren in die ATP-Bindungstasche einlagern. Im Bereich der Aminosäuren Phe80 bis His84 ist die Form der Indirubinmoleküle komplementär zu der gekrümmten Form der ATP-Bindungstasche, ein Effekt wie er auch bei anderen CDK-Hemmstoffen beobachtet wurde. Die Ausbildung von drei Wasserstoffbrückenbindungen sowie lipophile Wechselwirkungen sind essentiell für die starke Bindung beider Derivate. Anhand der gemessenen Struktur wird deutlich, daß die 5-Position die ideale Substitutionsposition an den Benzolkernen darstellt. Indirubin-5-sulfonat bildet durch die Sulfonatgruppe ionische Wechselwirkungen mit einer Lysinseitenkette (Lys33) des Enzyms aus, die zu einer weiteren Affinitätssteigerung führen. Die Oximgruppe in Position 3' ragt in einen freien Raumbereich, der von anderen Hemmstoffen besetzt wird und eröffnet daher die Möglichkeit, weitere funktionelle Gruppierungen einzubringen und so die Hemmstärke und die Selektivität der Indirubinderivate noch zu steigern. Läßt man die ionischen Verbindungen, die aufgrund ihrer Ladung die Zellmembran (und Zellkernmembran) wahrscheinlich nicht durchdringen können, außer Betracht, so fällt auf, daß alle starken Inhibitoren des Enzymkomplexes CDK1/Cyclin B auch zu einer starken Wachstumshemmung im Colony-Forming-Assay führen. Eine Schwächung der Affinität zwischen Inhibitor und CDK1 durch eine Substitution am N1-Stickstoff führt gleichzeitig zu einem Abfall der Wirksamkeit im Colony-Forming-Assay und in anderen Testsystemen. Durch die Röntgenstrukturanalyse wird verständlich, wie eine Substitution an dieser Stelle die Wechselwirkung zwischen Inhibitor und Enzym abschwächt. Die Befunde deuten darauf hin, daß der antineoplastischen Wirkung von Indirubinderivaten ein komplexes Zusammenspiel mehrerer Teilmechanismen zugrunde liegt, möglicherweise unter Beteiligung von Int erkalation und Redoxcycling, wobei der Hauptwirk mechanismus in der Inhibierung cyclinabhängiger Kinasen besteht.
Synthese und erste Anwendungen pH-sensitiver Spinmarker für site-specific spin-labelling Experimente
(1999)
We report results of the switching properties of Stoner-like magnetic particles subject to short magnetic field pulses, obtained by numerical investigations. We discuss the switching properties as a function of the external field pulse strength and direction, the pulse length and the pulse shape. For field pulses long compared to the ferromagnetic resonance precession time the switching behavior is governed by the magnetic damping term, whereas in the limit of short field pulses the switching properties are dominated by the details of the precession of the magnetic moment. In the latter case, by choosing the right field pulse parameters, the magnetic damping term is of minor importance and ultrafast switching can be achieved. Switching can be obtained in an enlarged angular range of the direction of the applied field compared to the case of long pulses.
Die geometrische Eigenschaft "Chiralität", der man sowohl in der Wissenschaft als auch unbewußt im Alltag sehr oft gegenübersteht, wurde von Lord Kelvin 1884 in folgender Weise definiert [1, 2]: "Ich nenne jede geometrische Figur oder Anordnung von Punkten chiral und sage, sie besitzt Chiralität, wenn ihr ideales Spiegelbild nicht mit sich selbst zur Deckung gebracht werden kann." Vom Gesichtspunkt der Symmetrie a us betrachtet, sind also alle Objekte chiral, die keine Drehspiegelachsen (Sn) besitzen. Dabei ist z.B. an die beiden Enantiomere des Moleküls Bromchlorfluormethan zu denken oder einfach an die rechte und die linke Hand des Menschen. Ein differenzierteres Bild der Eigenschaft Chiralität erhält man, wenn man ein Konzept diskutiert, in dem vier "Ebenen" der Chiralität eingeführt werden [3]. Die erste, in weiten Kreisen unbekannte Ebene, ist die Chiralität der Atome verursacht durch die sogenannten schwachen Wechselwirkungen [4, 5, 6]. Die aus einzelnen Atomen aufgebauten Moleküle stellen die zweite Ebene dar. Die dritte Ebene wird als "suprastrukturelle Chiralität" bezeichnet und steht in isotropen Phasen für eine Anordnung von Atomen oder Molekülen verursacht durch Nahordnungen, in anisotropen Phasen verursacht durch Orientierungs- oder Positionsfernordnungen. Die Form eines makroskopischen Objekts kann als vierte Ebene betrachtet werden. Dabei kann die "Information Chiralität" von einer Ebene zur nächsten übertragen werden. Die Homochiralität der lebenden Welt, d.h. daß z.B. alle natürlich vorkommenden Aminosäuren L-Aminosäuren sind, könnte sich in der Übertragung der Chiralität von der Ebene der Atome auf die Ebene der Moleküle äußern. Ein Beweis dieser Übertragung ist mit den heutigen experimentellen Mitteln jedoch nicht möglich. Die Übertragung der Chiralität vom Molekül auf die Phase ist im Rahmen der chiralen Induktion sehr gut untersucht, während es zur Übertragung von der dritten Ebene auf die makroskopische Form eines Objektes weniger Studien gibt. Als Beispiele für ein System, das sowohl Chiralität der Ebene zwei als auch der Ebene drei besitzt, können die cholesterische oder die smektische C * Phase dienen. Die Chiralität setzt sich dort sowohl aus einem Beitrag des einzelnen Moleküls als auch aus einem Beitrag der Phase zusammen [7, 8]. Ein chirales Molekül mit der absoluten Konfiguration R oder S kann eine cholesterische Phase der Helizität P oder M induzieren [9]. Damit würde die Information absolute Konfiguration der Ebene 2 auf die Helizität der Phase übertragen. Ein weiteres typisches Beispiel sind substituierte Hexahelicene, die nach Überschreiten einer Grenzkonzentration in manchen organischen Lösungsmitteln zur Bildung columnarer Aggregate neigen [10]. Suprastrukturelle Chiralität kann aber auch an einem System aus achiralen Molekülen, also ohne Chiralität der Ebene zwei, beobachtet werden, wie z.B. an Phasen, die aus sog. "bananenförmigen Verbindungen" aufgebaut sind [11, 12, 13]. Die Stabilisierung der chiralen Phase ist verbunden mit der räumlichen Trennung der chiralen Domänen verschiedener Händigkeit. Bei NaClO3 kann man beobachten, daß im Kristallisationsprozeß zufällig Keime mit rechts- oder linkshändiger Struktur entstehen. In diesem Zusammenhang wird behauptet, daß durch Rühren der Lösung beim Kristallisationsvorgang ein Überschuß einer der beiden Formen erzeugt werden, und daß das ganze System durch einen kinetischen Effekt rein in einer der beiden enantiomeren Formen kristallisieren kann [14, 15]. Gerade in letzter Zeit konzentrieren sich Untersuchungen zunehmend auf Systeme mit suprastruktureller Chiralität, oftmals Polymere, unter ande rem wegen ihrer vielseitigen technologischen Anwendbarkeit. Seit es zu Beginn der achtziger Jahre gelang, durch geeignete organische Substituenten lösliche Poly(dialkylsilylene) zu erhalten [16, 17, 18], stieg das Interesse an dieser Verbindungsklasse nicht zuletzt wegen ihrer optischen Eigenschaften. Insbesondere ist hier die Verwendung der Poly(dialkylsilylene) im Bereich der Fotoleitung [19], nicht linearen Optik [20], Datenspeicherung [21] und Displayherstellung [22] zu erwähnen. Es ist bekannt, daß einige Poly(di-n-alkylsilylene) wie z. B. Poly(dipropylsilylen) und Poly(dipentylsilylen) mit 7/3 helikaler Konformation des Siliziumgerüstes kristallisieren [23, 24, 25]. Dabei ist der Anteil an Rechts- und Linkshelix gleich verteilt. Die Bevorzugung eines Helixdrehsinns kann erreicht werden, wenn optisch aktive Substituenten in das Polymer eingebaut werden [26, 27, 28]. Bei chiralen diacetylenischen Phospholipiden findet eine Umorientierung der Lipidmoleküle in Membrandoppelschichten statt, die zur Verdrehung der Membran zu einem zylinderförmigen Gebilde führt [29]. Die auf diesem Weg gebildeten Hohlkörper dienen als Matrize für die Herstellung metallischer Röhren mit streng definiertem Durchmesser. Sie finden Anwendung bei der Vakuum-Feldemission und in controlled-release -Systemen zum Korrosionsschutz und zur Vorbeugung von Pilzbefall [30].
A growing share of all software development project work is being done by geographically distributed teams. To satisfy shorter product design cycles, expert team members for a development project may need to be r ecruited globally. Yet to avoid extensive travelling or r eplacement costs, distributed project work is preferred. Current-generation software engineering tools and ass ociated systems, processes, and methods were for the most part developed to be used within a single enterprise. Major innovations have lately been introduced to enable groupware applications on the Internet to support global collaboration. However, their deployment for distributed software projects requires further research. In partic ular, groupware methods must seamlessly be integrated with project and product management systems to make them attractive for industry. In this position paper we outline the major challenges concerning distributed (virtual) software projects. Based on our experiences with software process modeling and enactment environments, we then propose approaches to solve those challenges.
Struktur und Werkzeuge des experiment-spezifischen Datenbereichs der SFB501 Erfahrungsdatenbank
(1999)
Software-Entwicklungsartefakte müssen zielgerichtet während der Durchführung eines Software- Projekts erfasst werden, um für die Wiederverwendung aufbereitet werden zu können. Die methodische Basis hierzu bildet im Sonderforschungsbereich 501 das Konzept der Erfahrungsdatenbank. In ihrem experiment-spezifischen Datenbereich werden für jedes Entwicklungsprojekt alle Software-Entwicklungsartefakte abgelegt, die während des Lebenszyklus eines Projektes anfallen. In ihrem übergreifenden Datenbereich werden all die jenigen Artefakte aus dem experiment-spezifischen Datenbereich zusammengefasst, die für eine Wiederverwendung in nachfolgenden Projekten in Frage kommen. Es hat sich gezeigt, dass bereits zur Nutzung der Datenmengen im experiment- spezifischen Datenbereich der Erfahrungsdatenbank ein systematischer Zugriff notwendig ist. Ein systematischer Zugriff setzt jedoch eine normierte Struktur voraus. Im experiment-spezifischen Bereich werden zwei Arten von Experimenttypen unterschieden: "Kontrollierte Experimente" und "Fallstudien". Dieser Bericht beschreibt die Ablage- und Zugriffsstruktur für den Experimenttyp "Fallstudien". Die Struktur wurde aufgrund der Erfahrungen in ersten Fallstudien entwickelt und evaluiert.
About the approach The approach of TOPO was originally developed in the FABEL project1[1] to support architects in designing buildings with complex installations. Supplementing knowledge-based design tools, which are available only for selected subtasks, TOPO aims to cover the whole design process. To that aim, it relies almost exclusively on archived plans. Input to TOPO is a partial plan, and output is an elaborated plan. The input plan constitutes the query case and the archived plans form the case base with the source cases. A plan is a set of design objects. Each design object is defined by some semantic attributes and by its bounding box in a 3-dimensional coordinate system. TOPO supports the elaboration of plans by adding design objects.
A new method for calculating Stark resonances is presented and applied for illustration to the simple case of a one-particle, one-dimensional model Hamiltonian. The method is applicable for weak and strong dc fields. The only need, also for the case of many particles in multi-dimensional space, are either the short time evolution matrix elements or the eigenvalues and Fourier components of the eigenfunctions of the field-free Hamiltonian.
Abstract: Spontaneous emission and Lamb shift of atoms in absorbing dielectrics are discussed. A Green's-function approach is used based on the multipolar interaction Hamiltonian of a collection of atomic dipoles with the quantised radiation field. The rate of decay and level shifts are determined by the retarded Green's-function of the interacting electric displacement field, which is calculated from a Dyson equation describing multiple scattering. The positions of the atomic dipoles forming the dielectrics are assumed to be uncorrelated and a continuum approximation is used. The associated unphysical interactions between different atoms at the same location is eliminated by removing the point-interaction term from the free-space Green's-function (local field correction). For the case of an atom in a purely dispersive medium the spontaneous emission rate is altered by the well-known Lorentz local-field factor. In the presence of absorption a result different from previously suggested expressions is found and nearest-neighbour interactions are shown to be important.
We report on the observation of spin wave quantization in square arrays of micron size circular magnetic Ni80Fe20 dots by means of Brillouin light scattering spectroscopy. For a large wavevector interval several discrete, dispersionless modes with a frequency splitting of up to 2.5 GHz were observed. The modes are identified as magnetostatic surface spin waves laterally quantized due to in- plane confinement in each single dot. The frequencies of the lowest observed modes decrease with increasing distance between the dots, thus indicating an essential dynamic magnetic dipole interaction between the dots with small interdot distances.
An experimental study of spin wave quantization in arrays of micron size magnetic Ni80Fe20 islands (dots and wires) by means of Brillouin light scattering spectroscopy is reported. Dipolar-dominated spin wave modes laterally quantized in a single island with quantized wavevector values determined by the size of the island are studied. In the case of wires the frequencies of the modes and the transferred wavevector interval, where each mode is observed, are calculated. The results of the calculations are in a good agreement with the experimental data. In the case of circular dots the frequencies of the lowest observed modes decrease with increasing distance between the dots, thus indicating an essential dynamic magnetic dipole interaction between the dots with small interdot distances.
Zur schnellen Kommunikation zwischen Rechnern werden laufzeiteffiziente Implementationen von Protokoll-Spezifikationen benötigt. Die herkömmliche Schichten-Aufteilung verursacht hohe Kosten. In dieser Projektarbeit wurde eine andere Spezifikationsform, die Methode des strukturierten Produktautomaten, am Beispiel der OSI-Schichten 5 und 6 untersucht. Der Aufwand zur Erstellung und Wartung der Spezifikation und die Laufzeiteffizienz der daraus entstandenen Inplementation wurden mit mehreren anderen Spezifikationsformen verglichen und bewertet. Die Methode des strukturierten Produktautomaten erwies sich dabei als ein geeigneter Spezifikationsstil.
Spektralsequenzen
(1999)
In order to reduce the elapsed time of a computation, a pop-ular approach is to decompose the program into a collection of largelyindependent subtasks which are executed in parallel. Unfortunately, it isoften observed that tightly-coupled parallel programs run considerablyslower than initially expected. In this paper, a framework for the anal-ysis of parallel programs and their potential speedup is presented. Twoparameters which strongly affect the scalability of parallelism are iden-tified, namely the grain of synchronization, and the degree to which thetarget hardware is available. It is shown that for certain classes of appli-cations speedup is inherently poor, even if the program runs under theidealized conditions of perfect load balance, unbounded communicationbandwidth and negligible communication and parallelization overhead.Upper bounds are derived for the speedup that can be obtained in threedifferent types of computations. An example illustrates the main find-ings.
A non-trivial real-time requirement obeying a pattern that can be foundin various instantiations in the application domain building automation, and which is therefore called generic, is investigated in detail. Starting point is a description of a real-time problem in natural language augmented by a diagram, in a style often found in requirements documents. Step by step, this description is made more precise and finally transformed into a surprisingly concise formal specification, written in real-time temporal logic with customized operators. Wereason why this formal specification precisely captures the original description- as far as this is feasible due to the lack of precision of natural language.
A new advanced space- and time-resolved Brillouin light scattering technique is used to study diffraction of two-dimensional beams and pulses of dipolar spin waves excited by strip-line antennas in tangentially magnetized garnet films. The technique is an effective tool for investigations of two-dimensional spin wave propagation with high spatial and temporal resolution. Nonlinear effects such as stationary and nonstationary self-focusing are investigated in detail. It is shown, that nonlinear diffraction of a stationary backward volume magnetostatic wave (BVMSW) beam, having a finite transverse aperture, leads to selffocusing of the beam at one spatial point. Diffraction of a finite-duration (non-stationary) BVMSW pulse leads to space-time self-focusing and formation of a strongly localized two-dimensional wave packet (spin wave bullet).
Extending existing calculi by sorts is astrong means for improving the deductive power offirst-order theorem provers. Since many mathemat-ical facts can be more easily expressed in higher-orderlogic - aside the greater power of higher-order logicin principle - , it is desirable to transfer the advant-ages of sorts in the first-order case to the higher-ordercase. One possible method for automating higher-order logic is the translation of problem formulationsinto first-order logic and the usage of first-order the-orem provers. For a certain class of problems thismethod can compete with proving theorems directlyin higher-order logic as for instance with the TPStheorem prover of Peter Andrews or with the Nuprlproof development environment of Robert Constable.There are translations from unsorted higher-order lo-gic based on Church's simple theory of types intomany-sorted first-order logic, which are sound andcomplete with respect to a Henkin-style general mod-els semantics. In this paper we extend correspond-ing translations to translations of order-sorted higher-order logic into order-sorted first-order logic, thus weare able to utilize corresponding first-order theoremprover for proving higher-order theorems. We do notuse any (lambda)-expressions, therefore we have to add so-called comprehension axioms, which a priori makethe procedure well-suited only for essentially first-order theorems. However, in practical applicationsof mathematics many theorems are essentially first-order and as it seems to be the case, the comprehen-sion axioms can be mastered too.
Starting from the uniqueness question for mixtures of distributions this review centers around the question under which formally weaker assumptions one can prove the existence of SPLIFs, in other words perfect statistics and tests. We mention a couple of positive and negative results which complement the basic contribution of David Blackwell in 1980. Typically the answers depend on the choice of the set theoretic axioms and on the particular concepts of measurability.
An important research problem is the incorporation of "declarative" knowledge into an automated theorem prover that can be utilized in the search for a proof. An interesting pro-posal in this direction is Alan Bundy's approach of using explicit proof plans that encapsulatethe general form of a proof and is instantiated into a particular proof for the case at hand. Wegive some examples that show how a "declarative" highlevel description of a proof can be usedto find proofs of apparently "similiar" theorems by analogy. This "analogical" information isused to select the appropriate axioms from the database so that the theorem can be proved.This information is also used to adjust some options of a resolution theorem prover. In orderto get a powerful tool it is necessary to develop an epistemologically appropriate language todescribe proofs, for which a large set of examples should be used as a testbed. We presentsome ideas in this direction.
We consider three applications of impulse control in financial mathematics, a cash management problem, optimal control of an exchange rate, and portfolio optimisation under transaction costs. We sketch the different ways of solving these problems with the help of quasi-variational inequalities. Further, some viscosity solution results are presented.
In line location problems the objective is to find a straight line which minimizes the sum of distances, or the maximum distance, respectively to a given set of existing facilities in the plane. These problems have well solved. In this paper we deal with restricted line location problems, i.e. we have given a set in the plane where the line is not allowed to pass through. With the help of a geometric duality we solve such problems for the vertical distance and then extend these results to block norms and some of them even to arbitrary norms. For all norms we give a finite candidate set for the optimal line.
The development of software products has become a highly cooperative and distributed activity involving working groups at geographically distinct places. These groups show an increasing mobility and a very flexible organizational structure. Process methodology and technology have to take such evolutions into account. A possible direction for the emergence of new process technology and methodology is to take benefit from recent advances within multiagent systems engineering : innovative methodologies for adaptable and autonomous architectures; they exhibit interesting features to support distributed software processes.
We compare different notions of differentiability of a measure along a vector field on a locally convex space. We consider in the L2-space of a differ entiable measure the analoga of the classical concepts of gradient, divergence and Laplacian (which coincides with the OrnsteinUhlenbeck operator in the Gaussian case). We use these operators for the extension of the basic results of Malliavin and Stroock on the smoothness of finite dimensional image measures under certain nonsmooth mappings to the case of non-Gaussian measures. The proof of this extension is quite direct and does not use any Chaos-decomposition. Finally, the role of this Laplacian in the procedure of quantization of anharmonic oscillators is discussed.
SmallSync, an internet event synchronizer, is intended to provide a monitoring and visualization methodology for permitting simultaneous analysis and control of multiple remote processes on the web. The current SmallSync includes: (1) a mechanism to multicast web window-based commands, message passing events and process execution events among processes; (2) an event synchronizer to allow concurrent execution of some functions on multiple machines; (3) a means to report when these events cause errors in the processes; and (4) ad hoc visualization of process states using existing visualizers.
Patdex is an expert system which carries out case-based reasoning for the fault diagnosis of complex machines. It is integrated in the Moltke workbench for technical diagnosis, which was developed at the university of Kaiserslautern over the past years, Moltke contains other parts as well, in particular a model-based approach; in Patdex where essentially the heuristic features are located. The use of cases also plays an important role for knowledge acquisition. In this paper we describe Patdex from a principal point of view and embed its main concepts into a theoretical framework.
Sowohl die gesteigerte Komplexität der Signalverarbeitungsalgorithmen und das umfangreichere Diensteangebot als auch die zum Erzielen der hohen erforderlichen Rechenleistungen erforderliche Parallelverarbeitung führen künftig zu einer stark ansteigenden Komplexität der digitalen Signalverarbeitung in Mobilfunksystemen. Diese Komplexität ist nur mit einem hierarchischen Modellierungs- und Entwurfsprozeß beherrschbar. Während die niedrigeren Hierarchieebenen der Programmierung und des Hardwareentwurfs bereits heute gut beherrscht werden, besteht noch Unklarheit bei den Entwurfsverfahren auf der höheren Systemebene. Die vorliegende Arbeit liefert einen Beitrag zur Systematisierung des Entwurfs auf höheren Hierarchieebenen. Hierzu wird der Entwurf eines Experimentalsystems für das JD-CDMA-Mobilfunkkonzept auf der Systemebene betrachtet. Es wird gezeigt, daß das Steuerkreismodell ein angemessenes Modell für die digitale Signalverarbeitung in einem Mobilfunksystem auf der Systemebene ist. Das Steuerkreismodell läßt sich einerseits direkt auf die in zukünftigen Mobilfunksystemen einzusetzenden Multiprozessorsysteme abbilden und entspricht andererseits auch der nachrichtentechnischen Sichtweise der Aufgabenstellung, in der das Mobilfunksystem durch die auszuführenden Algorithmen beschrieben wird. Das Steuerkreismodell ist somit ein geeignetes Bindeglied, um von der Aufgabenstellung zu einer Implementierung zu gelangen. Weiterhin wird gezeigt, daß das Steuerkreismodell sehr modellierungsmächtig ist, und sein Einsatz im Gegensatz zu vielen bereits bekannten Entwurfsverfahren nicht auf mittels Datenflußmodellen beschreibbare Systeme begrenzt ist. Die klassischen, aus der von Datenflußmodellen ausgehenden Systemsynthese bekannten Entwurfsschritte Allokierung, Ablaufplanung und Bindung können im Kontext der Steuerkreismodellierung als Verfahren zur Konstruktion der Steuerwerksaufgabe verstanden werden. Speziell für das Experimentalsystem werden zwei verschiedene Ablaufsteuerungsstrategien modelliert und untersucht. Die volldynamische Ablaufsteuerung wird zur Laufzeit durchgeführt und ist daher nicht darauf angewiesen, daß die auszuführenden Abläufe a priori bekannt sind. Bei der selbsttaktenden Ablaufsteuerung werden die hier a priori bekannten Abläufe zum Zeitpunkt der Systemkonstruktion fest geplant, und zur Laufzeit wird dieser Plan nur noch ausgeführt. Schließlich werden noch die Auswirkungen der paketvermittelten burstförmigen Nachrichtenübertragung auf die digitale Signalverarbeitung in zukünftigen Mobilfunksystemen untersucht. Es wird gezeigt, daß es durch Datenpufferung sehr gut möglich ist, die Rechenlast in einem Mobilfunksystem zu mitteln.
In 1979, J.M. Bernardo argued heuristically that in the case of regular product experiments his information theoretic reference prior is equal to Jeffreys' prior. In this context, B.S. Clarke and A.R. Barron showed in 1994, that in the same class of experiments Jeffreys' prior is asymptotically optimal in the sense of Shannon, or, in Bayesian terms, Jeffreys' prior is asymptotically least favorable under Kullback Leibler risk. In the present paper, we prove, based on Clarke and Barron's results, that every sequence of Shannon optimal priors on a sequence of regular iid product experiments converges weakly to Jeffreys' prior. This means that for increasing sample size Kullback Leibler least favorable priors tend to Jeffreys' prior.
Die Untersuchung von semiklassischen Näherungen des Zeitentwicklungsoperators in der Quantenmechanik ist sowohl von fundamentalem als auch von didaktischem Interesse. Das fundamentale Interesse ist in der Beschreibung des Zusammenhangs zwischen klassischer Mechanik und Quantenmechanik begründet, das didaktische erklärt sich aus dem anschaulichen Zugang, den die Beschreibung von quantenmechanischen Prozessen durch klassische Größen liefert. Besonders klar wird dieser Zusammenhang, wenn eine Phasenraumdarstellung der Quantenmechanik betrachtet wird. Eine erste semiklassische Näherung für den Propagator im Phasenraum, den sogenannten "coherent state"-Propagator, wurde von Klauder vorgestellt. Weissman motivierte diese Näherung durch die Erweiterung der semiklassischen Korrespondenzrelationen auf den Begriff der kohärenten Variablen. In späteren Veröffentlichungen wird auf eine rigorose Herleitung mittels Pfadintegralmethoden verwiesen, die aber bis zum heutigen Tage nicht verwirklicht wurde. Ein zentraler Punkt dieser Arbeit wird es sein, zum ersten Mal diese alternative Herleitung vollständig zu präsentieren. Die Eigenschaften der semiklassischen Näherung des Phasenraumpropagators wurden für eine Reihe fundamentaler Quantenprozesse untersucht. Ausgehend von der semiklassischen Näherung des Phasenraumpropagators ergibt sich durch eine Ortsraumdarstellung desselben der Herman-Kluk-Propagator. Dieser gehört zur Klasse der Anfangswertdarstellungen ("initial value representations", IVRs), die die sonst bei semiklassischen Näherungen auftretenden Schwierigkeiten wie Kaustiken, Singularitäten und beidseitige Randbedingungen für die zugrundeliegenden klassischen Bahnen umgehen. Dies erlaubt ihre Anwendung auch auf Quantensysteme, deren klassisches Äquivalent chaotische Phasenraumbereiche enthält. Erste Untersuchungen hierzu wurden in unserer Arbeitsgruppe Ende 1997 durchgeführt. Die Frage nach der Klärung grundsätzlicher Eigenschaften des verwendeten Propagators und der verwendeten Methode sowie die Beleuchtung des theoretischen Hintegrunds lieferten die Anregung für diese Arbeit. Zu dieser Arbeit: In dieser Arbeit wird die semiklassische Näherung für den Phasenraumpropagator und hierauf aufbauend der Herman-Kluk-Propagator hergeleitet und ihre Eigenschaften untersucht. Im einzelnen gliedert sich die Arbeit folgendermaßen: In einem ersten, einführenden Kapitel werden kurz die grundlegenden Begriffe aus den drei Gebieten der klassischen Mechanik, der Quantenmechanik und der Semiklassik erläutert. Das zweite Kapitel gibt einen Überblick über die semiklassische Theorie nach Miller und Weissman. Der zentrale Begriff ist hierbei der der Korrespondenzrelation, der einen direkten Zusammenhang zwischen klassischen Größen (erzeugenden Funtionen) und unitären Transformationen in der Quantenmechanik liefert. Ein Spezialfall dieser Korrespondenz ist der Zusammenhang zwischen der Zeitentwicklung eines quantenmechanischen kohärenten Zustands und der Evolution klassischer Bahnen. Im zentralen dritten Abschnitt wird erstmalig eine vollständige Herleitung des Phasenraumpropagators mittels Pfadintegralmethoden gegeben. Aus dieser Herleitung wird klar, daß eines der Probleme der Semiklassik in der Frage liegt, welche Hamiltonfunktion einem gegebenen Hamiltonoperator zuzuordnen ist. Auch der durch die semiklassischen Näherung eingeführte Fehler wird diskutiert. Anschließend wird aus dem "coherent state"-Propagator der Herman-Kluk-Propagator hergeleitet und dessen Eigenschaften besprochen. Das vierte Kapitel beschreibt in Vorgriff auf den letzten Abschnitt die numerische Implementierung des Herman-Kluk-Propagators und verschiedene Methoden zur Gewinnung von Energieeigenwerten eines Quantensystems. Hierzu wird eine phasenraumsensitive Integrationsroutine vorgestellt. Abschließend werden die Ergebnisse der numerischen Anwendung des Propagators auf verschiedene, charakteristische Quantensysteme vorgestellt und sowohl mit der exakten Quantenmechanik, als auch mit anderen semiklassischen Methoden verglichen. Dabei werden sowohl die Stärken, als auch die Schwächen dieser Methode deutlich werden.
The Filter-Diagonalization Method is applied to time periodic Hamiltonians and used to find selectively the regular and chaotic quasienergies of a driven 2D rotor. The use of N cross-correlation probability amplitudes enables a selective calculation of the quasienergies from short time propagation to the time T (N). Compared to the propagation time T (1) which is required for resolving the quasienergy spectrum with the same accuracy from auto-correlation calculations, the cross-correlation time T (N) is shorter by the factor N , that is T (1) = N T (N).
In this paper relationships between Pareto points and saddle points in multiple objective programming are investigated. Convex and nonconvex problems are considered and the equivalence between Pareto points and saddle points is proved in both cases. The results are based on scalarizations of multiple objective programs and related linear and augmented Lagrangian functions. Partitions of the index sets of objectives and constranints are introduced to reduce the size of the problems. The relevance of the results in the context of decision making is also discussed.
In this paper a new trend is introduced into the field of multicriteria location problems. We combine the robustness approach using the minmax regret criterion together with Pareto-optimality. We consider the multicriteria Weber location problem which consists of simultaneously minimizing a number of weighted sum-distance functions and the set of Pareto-optimal locations as its solution concept. For this problem, we characterize the Pareto-optimal solutions within the set of robust locations for the original weighted sum-distance functions. These locations have both the properties of stability and non-domination which are required in robust and multicriteria programming.
In this paper, we compare the BERKOM globally ac-cessible services project (GLASS) with the well-knownWorld-Wide Web with respect to the ease of development,realization, and distribution of multimedia presentations.This comparison is based on the experiences we gainedwhen implementing a gateway between GLASS and theWorld-Wide Web. Since both systems are shown to haveobvious weaknesses, we are concluding this paper with apresentation of a better way to multimedia document en-gineering and distribution. This concept is based on awell-accepted approach to function-shipping in the Inter-net: the Java language, permitting for example a smoothintegration of GLASS92 MHEG objects and WWW HTMLpages within one common environment.