Refine
Year of publication
- 1999 (525) (remove)
Document Type
- Preprint (397)
- Article (73)
- Doctoral Thesis (28)
- Course Material (6)
- Master's Thesis (6)
- Report (5)
- Lecture (3)
- Study Thesis (3)
- Working Paper (2)
- Diploma Thesis (1)
Keywords
- Case-Based Reasoning (11)
- AG-RESY (6)
- Praktikum (6)
- Fallbasiertes Schliessen (5)
- HANDFLEX (5)
- Location Theory (5)
- PARO (5)
- case-based problem solving (5)
- Abstraction (4)
- Fallbasiertes Schließen (4)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (267)
- Kaiserslautern - Fachbereich Mathematik (131)
- Kaiserslautern - Fachbereich Physik (76)
- Kaiserslautern - Fachbereich Chemie (19)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Fraunhofer (ITWM) (6)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (2)
In der vorliegenden Arbeit wird die Zeitfestigkeit von Verbundträgern mit Profilblechen unter Berücksichtigung der während der Einstufen-Belastung im Versuch auftretenden Veränderungen (zyklische Dübelkennlinien, Kraftumlagerungen, ...) im System Verbundträger behandelt. Aus den Ergebnissen der Push-Out-Versuche wird eine Ermüdungsfestigkeitskurve -Wöhlerlinie - bestimmt, die im weiteren Grundlage der Zeitfestigkeitsuntersuchungen der Kopfbolzendübel in Betongurten mit Profilblechen ist. In einer ersten, vereinfachten Versuchsauswertung werden die Dübelkräfte der Verbundträger über die Elastizitätstheorie nach dem elastischen Schubfluß und unter Annahme starrer Verdübelung (d. h. Ebenbleiben des Gesamtquerschnitts) ermittelt. Daraus wird dann die Zeitfestigkeit berechnet. Die Bestimmung der Restlebensdauer der Verbundmittel über nichtlinear berechnete Dübelkäfte unter Berücksichtigung der Nachgiebigkeit in der Verbundfuge - jedoch mit Steifigkeiten wie bei Erstbelastung - erfolgt in einer zweiten Auswertungsstufe. Um die wahrscheinlichen Vorgänge im Verbundträger unter wiederholter Be- und Entlastung erklären und anschließend in Computersimulationen nachvollziehen zu können, wird in den Kapiteln 4 bis 6 das phänomenologische Verhalten der einzelnen Komponenten des Verbundträgers (Stahlträger, Betongurt und Verdübelung) unter zyklischer Beanspruchung behandelt. Unter der Annahme, daß die einzelnen Komponenten ihr phänomenologisches Verhalten unter zyklischer Beanspruchung auch im Verbundträger -Zusammenwirken der einzelnen Komponenten zu einer gemeinsamen Tragwirkung- beibehalten, wird in Kapitel 7 ein Rechenmodell entwickelt. Mit den hergeleiteten zyklischen Dübelkennlinien und nichtlinearen Computersimulationen werden Schädigungen für alle Elemente (Dübel, Stahlträger) der Verbundträger - zu jedem Zeitpunkt während der Versuchsdauer - bestimmt. Mittels der linearen Schadensakkumulationshypothese von Palmgren-Miner und mit den für die einzelnen Elementen bestimmten Ermüdungsfestigkeitskurven wird daraus die jeweilige Restlebensdauer berechnet. Dabei werden die ständigen Veränderungen im nichtlinearen Tragverhalten der Verbundträger aufgrund der Kraftumlagerungen infolge der zyklischen Kennlinien, der Nachgiebigkeit in der Verbundfuge, des Ausfalls einzelner Dübel, der evtl. auftretenden bleibenden Verformungen, der unterschiedlichen Be- und Entlastungspfade, ..., in den Simulationsberechnungen erfaßt. Abschließend wird das Verbundträgertragverhalten bis zum endgültigen Versagen (Bruch des Trägers) auch nach dem Abscheren (Ausfall) des ersten Dübels dargestellt.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
We have developed a middleware framework for workgroup environments that can support distributed software development and a variety of other application domains requiring document management and change management for distributed projects. The framework enables hypermedia-based integration of arbitrary legacy and new information resources available via a range of protocols, not necessarily known in advance to us as the general framework developers nor even to the environment instance designers. The repositories in which such information resides may be dispersed across the Internet and/or an organizational intranet. The framework also permits a range of client models for user and tool interaction, and applies an extensible suite of collaboration services, including but not limited to multi-participant workflow and coordination, to their information retrievals and updates. That is, the framework is interposed between clients, services and repositories - thus "middleware". We explain how our framework makes it easy to realize a comprehensive collection of workgroup and workflow features we culled from a requirements survey conducted by NASA.
In recent years several computational systems and techniques fortheorem proving by analogy have been developed. The obvious prac-tical question, however, as to whether and when to use analogy hasbeen neglected badly in these developments. This paper addresses thisquestion, identifies situations where analogy is useful, and discussesthe merits of theorem proving by analogy in these situations. Theresults can be generalized to other domains.
Given a finite set of points in the plane and a forbidden region R, we want to find a point X not an element of int(R), such that the weighted sum to all given points is minimized. This location problem is a variant of the well-known Weber Problem, where we measure the distance by polyhedral gauges and allow each of the weights to be positive or negative. The unit ball of a polyhedral gauge may be any convex polyhedron containing the origin. This large class of distance functions allows very general (practical) settings - such as asymmetry - to be modeled. Each given point is allowed to have its own gauge and the forbidden region R enables us to include negative information in the model. Additionally the use of negative and positive weights allows to include the level of attraction or dislikeness of a new facility. Polynomial algorithms and structural properties for this global optimization problem (d.c. objective function and a non-convex feasible set) based on combinatorial and geometrical methods are presented.
We consider wavelet estimation of the time-dependent (evolutionary) power spectrum of a locally stationary time series. Allowing for departures from stationary proves useful for modelling, e.g., transient phenomena, quasi-oscillating behaviour or spectrum modulation. In our work wavelets are used to provide an adaptive local smoothing of a short-time periodogram in the time-freqeuncy plane. For this, in contrast to classical nonparametric (linear) approaches we use nonlinear thresholding of the empirical wavelet coefficients of the evolutionary spectrum. We show how these techniques allow for both adaptively reconstructing the local structure in the time-frequency plane and for denoising the resulting estimates. To this end a threshold choice is derived which is motivated by minimax properties w.r.t. the integrated mean squared error. Our approach is based on a 2-d orthogonal wavelet transform modified by using a cardinal Lagrange interpolation function on the finest scale. As an example, we apply our procedure to a time-varying spectrum motivated from mobile radio propagation.
We study the global solution of Fredholm integral equations of the second kind by the help of Monte Carlo methods. Global solution means that we seek to approximate the full solution function. This is opposed to the usual applications of Monte Carlo, were one only wants to approximate a functional of the solution. In recent years several researchers developed Monte Carlo methods also for the global problem. In this paper we present a new Monte Carlo algorithm for the global solution of integral equations. We use multiwavelet expansions to approximate the solution. We study the behaviour of variance on increasing levels, and based on this, develop a new variance reduction technique. For classes of smooth kernels and right hand sides we determine the convergence rate of this algorithm and show that it is higher
than those of previously developed algorithms for the global problem. Moreover, an information-based complexity analysis shows that our algorithm is optimal among all stochastic algorithms of the same computational
cost and that no deterministic algorithm of the same cost can reach its convergence rate.
A multiscale method is introduced using spherical (vector) wavelets for the computation of the earth's magnetic field within source regions of ionospheric and magnetospheric currents. The considerations are essentially based on two geomathematical keystones, namely (i) the Mie representation of solenoidal vector fields in terms of toroidal and poloidal parts and (ii) the Helmholtz decomposition of spherical (tangential) vector fields. Vector wavelets are shown to provide adequate tools for multiscale geomagnetic modelling in form of a multiresolution analysis, thereby completely circumventing the numerical obstacles caused by vector spherical harmonics. The applicability and efficiency of the multiresolution technique is tested with real satellite data.
Wall energy and wall thickness of exchange-coupled rare-earth transition-metal triple layer stacks
(1999)
The room-temperature wall energy sw 54.0310 23 J/m 2 of an exchange-coupled Tb 19.6 Fe 74.7 Co 5.7 /Dy 28.5 Fe 43.2 Co 28.3 double layer stack can be reduced by introducing a soft magnetic intermediate layer in between both layers exhibiting a significantly smaller anisotropy compared to Tb+- FeCo and Dy+- FeCo. sw will decrease linearly with increasing intermediate layer thickness, d IL , until the wall is completely located within the intermediate layer for d IL d w , where d w denotes the wall thickness. Thus, d w can be obtained from the plot sw versus d IL .We determined sw and d w on Gd+- FeCo intermediate layers with different anisotropy behavior ~perpendicular and in-plane easy axis! and compared the results with data obtained from Brillouin light-scattering measurements, where exchange stiffness, A, and uniaxial anisotropy, K u , could be determined. With the knowledge of A and K u , wall energy and thickness were calculated and showed an excellent agreement with the magnetic measurements. A ten times smaller perpendicular anisotropy of Gd 28.1 Fe 71.9 in comparison to Tb+- FeCo and Dy+- FeCo resulted in a much smaller sw 51.1310 23 J/m 2 and d w 524 nm at 300 K. A Gd 34.1 Fe 61.4 Co 4.5 with in-plane anisotropy at room temperature showed a further reduced sw 50.3310 23 J/m 2 and d w 517 nm. The smaller wall energy was a result of a different wall structure compared to perpendicular layers.
Vigenere-Verschlüsselung
(1999)
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
The mathematical modelling of problems in science and engineering leads often to partial differential equations in time and space with boundary and initial conditions.The boundary value problems can be written as extremal problems(principle of minimal potential energy), as variational equations (principle of virtual power) or as classical boundary value problems.There are connections concerning existence and uniqueness results between these formulations, which will be investigated using the powerful tools of functional analysis.The first part of the lecture is devoted to the analysis of linear elliptic boundary value problems given in a variational form.The second part deals with the numerical approximation of the solutions of the variational problems.Galerkin methods as FEM and BEM are the main tools. The h-version will be discussed, and an error analysis will be done.Examples, especially from the elasticity theory, demonstrate the methods.
Value Preserving Strategies and a General Framework for Local Approaches to Optimal Portfolios
(1999)
We present some new general results on the existence and form of value preserving portfolio strategies in a general semimartingale setting. The concept of value preservation will be derived via a mean-variance argument. It will also be embedded into a framework for local approaches to the problem of portfolio optimisation.
Das zentrale Thema der vorliegenden Arbeit war die spektroskopische Untersuchung der Chiralität mittels von CD-, UV- und polarisierter UV-Spektroskopie an unverbrückten (R-1 bis R-3) und verbrückten 1,1' -Binaphtholen (R-4 bis R-7). Diese spektroskopischen Untersuchungen sind für die Interpretation der HTP (helical twisting power) erforderlich, um insbesondere auch einen Vergleich der Ergebnisse der Chiralitätsbeobachtungen CD und HTP zu ermöglichen. Um die Spektren der 1,1' -Binaphthole mit der Struktur zu korrelieren und insbesondere die Ordnungszustände in der flüssigkristallinen Phase über die 2 H-NMR-Spektren zu erhalten, mußte die Geometrie der Verbindungen, gelöst in der flüssigkristallinen Phase, bekannt sein. Da die Struktur in dieser Phase zum Teil verändert sein kann wurde die Geometrie der 1,1'-Binaphthole R-1 bis R-7 und damit der Winkel q, sowie der Potentialkurvenverlauf als Funktion der Drehung um die Naphthyl-Naphthyl-Verbindungsachse mit der AM1-Methode für die Gasphase berechnet, und mit Ergebnissen aus Röntgenstrukturdaten aus Arbeiten von Reiß und Frank [74-78] verglichen. Für die unverbrückten 1,1'-Binaphthole wurden im Bereich 90 ° +-30 ° breite flache Potentialkurven (Änderung der Energie < kT) erhalten, während die Potentialkurven der verbrückten 1,1'-Binaphthole schmäler und steiler im Verlauf ausfallen, da die Verbrückung durch den Dioxepinring eine Rotation um die Naphthyl-Naphthyl- Verbindungsachse nicht zuläßt. Als Konsequenz der flachen Potentialkurve muß für die Gasphase für diese Moleküle eine "Large Amplitude Motion (LAM)" beachtet werden, die für die Beschreibung unserer Effekte in der flüssigkristallinen Matrix in Form von lösungsmittelstabilisierten Konformere zu berücksichtigen ist, für die eine Simulation nicht durchgeführt wurde. Die Winkel zwischen den mittleren Naphthylebenen aus der AM1-Methode qAM1 und der Röntgenstrukturanalyse qRSA weichen für die verbrückten 1,1 -Binaphthole 4, 5 und 6 maximal 7° voneinander ab. Für 7 ergab sich eine große Abweichung, die aber möglicherweise artifiziell ist, da die Röntgenstruktur zum jetzigen Zeitpunkt, wegen einer Zwillingsbildung im Kristall noch nicht vollständig analysiert wurde. Bei den unverbrückten 1,1'-Binaphtholen führt die flache Potentialkurve dazu, daß die äußere Umgebung d.h. die Packungseffekte einen wesentlichen Einfluß auf den Winkel qRSA zwischen den mittleren Naphthylebenen ausübt. Hieraus ist zu ersehen, daß der Flüssigkristall ebenfalls eine Auswirkung auf den Winkel q haben wird. Es zeigt sich, daß der CD von Verbindung R-1 wesentlich besser reproduziert werden kann, wenn man zur Beschreibung -255- eine Boltzmann-Wichtung über alle mit der Exziton-Theorie berechneten CD-Spektren der einzelnen Konformationen der Potentialkurve durchführt, als wenn nur die Geometrie des Minimums benutzt wird. Um die Anisotropie der 1,1' -Binaphthole im Flüssigkristall zu analysieren ist es notwendig die Ordnung der Moleküle in der Phase, d.h. die Hauptachsen und Hauptwerte des Ordnungstensors zu kennen, die im Rahmen der Arbeit von I. Kiesewalter [92] gemessen wurde. Die Orientierung der Hauptachsen im Molekül sind abhängig von der Geometrie des Moleküls und muß, da die Moleküle C2-Symmetrie besitzen, experimentell bestimmt werden. Hierbei besteht zusätzlich das Problem, daß zwar die Größe der Quadrupolaufspaltungen experimentell ermittelbar sind, nicht aber ihr Vorzeichen. Ein Verfahren diese Informationslücke der Vorzeichen zu beheben bestand darin, alle Zuordnungen zu denkbaren Orientierungszuständen durch eine Permutation zu erhalten. Durch weitere Kriterien werden dann Zuordnungen aufgrund der erhaltenen Ergebnisse aussortiert. Für die so gefundenen Sätze von Hauptwerten * 33 ii g ist zu prüfen ob sie innerhalb des Ordnungsdreiecks liegen. Erfüllen die * 33 ii g dieses in der Hierachie oberste Kriterium folgen weitere, wie z.B. die Übereinstimmung mit den Hauptwerten aus der 13 C-Spektroskopie, um die optimalste Lösung zu ermitteln. Für 2 existieren keine Ordnungsparameter S * und D * aufgrund der schlechten Löslichkeit in ZLI-1695. Aus Tensorkoordinaten eii * , die mit Hilfe der experimentellen Ordnungsparameter S * und D * aus den Anisotropiegraden, ermittelt wurden, können im Rahmen des Exziton-Modells interpretiert werden. Für die unverbrückten 1,1-Binaphthole 1 bis 3 zeigt sich, daß die Aufspaltungsenergie n , m NK E D und damit die Wechselwirkung zwischen den Naphthylebenen, die im Exziton-Modell als Dipol-Dipol-Wechselwirkung beschrieben wird, im Vergleich zu den verbrückten 1,1-Binaphtolen 4, 5 und 7 sehr gering ist. 1 zeigt eine Aufspaltungsenergie von 1 n , m NK cm 9 . 335 E - = D , 2 und 3 zeigen eine von 94.0 cm -1 und 0 cm -1 . Der Mittelwert der Aufspaltungsenergien aus den Tensorkoordinaten von 4, 5 und 7 beträgt dagegen 1 n , m NK cm 6 . 1093 E - = D . Aus den Tensorkoordinaten der unverbrückten 1,1 ' -Binaphthole ergibt sich weiterhin, daß die a-Bande eine höhere Intensität besitzt als die b-Bande. Für die verbrückten 1,1' -Binaphthole ist das Verhältnis a- zu b-Bande genau umgekehrt. Aus Anpassungen experimenteller CD- und UV-Spektren, mit Gleichungen, die aus der Exziton-Theorie abgeleitet wurden, findet man die gleiche Tendenz, wie aus den Ergebnissen der Tensorkoordinatenzerlegung. Die Wechselwirkungsenergie n , m NK E D ist für die verbrückten 1,1' - 256-Binaphthole 1 bis 3 ca. doppelt so groß, wie für die unverbrückten 1,1' -Binaphthole 4 bis 7. Speziell aus der Anpassung der UV-Spektren ergibt sich, daß für die verbrückten 1,1' -Binaphthole 1 bis 3, daß die a-Bande größer als die b-Bande ist, während die verbrückten 1,1-Binaphthole ein umgekehrtes Verhältnis von a- zu b-Bande zeigen Weiterhin konnte mit den Tensorkoordinaten die Lage des elektrischen Dipolübergangsmomentes der a-Bande ( A B -Übergang) für 4, 5 und 7 bestimmt werden. Man findet, daß das elektrische Dipolübergangsmoment a m , das in der Ebene senkrecht zur C2-Achse polarisiert ist, einen Winkel von 49° mit der Naphthyl-Naphthyl-Verbindungsachse einschließt. Speziell für die Verbindungen 4 und 7 zeigt sich aus den Tensorkoordinaten, daß der b- bzw. B A -Übergang einmal entlang der * 2 x -Achse für 4 bzw. entlang der * 3 x -Achse für 7 liegt. Dies zeigt, daß die Orientierungsachse aus der Naphthyl-Naphthyl-Achse bei Verbindung 4 in Richtung der C2-Achse bei Verbindung 7 gekippt ist. In den Tensorkoordinaten * 22 e bei Verbindung 4 und * 33 e bei Verbindung 7, die nach dem Exziton-Modell nur den A A -Übergang zeigen sollten, kann eine zusätzliche Bande im Spektralbereich des B A -Übergangs beobachtet werden. Bei den unverbrückten 1,1' -Binaphtholen tritt diese zusätzliche Bande bei der Tensorkoordinatenzerlegung nicht zum Vorschein. Die Ursache für diese zusätzliche Bande könnte eine Intensivierung eines Übergangs sein aufgrund der Verkrümmung des Naphthylrings und der damit verbundenen Erniedrigung der Symmetrie. Für die Dipolstärke würde dann im Grundkörper, d.h. im 2-Hydroxy- naphthalin mit einem planaren System - p 0 D NK = gelten. Tabelle 78. zeigt alle Ergebnisse für die unverbrückten (1 bis 3) und verbrückten (4 bis 7) 1,1 -Binaphthole, die aus AM1-Rechnungen, Röntgenstrukturanalyse und anisotroper UV-Spektroskopie im Rahmen dieser Arbeit erhalten wurden. Die Daten aus der anisotropen UV-Spektroskopie werden verglichen mit Daten, die man aus einer Anpassung experimenteller CD- und UV-Spektren in ZLI-1695 bei T=80°C, mit Hilfe von Gleichungen, die aus der Exziton-Theorie abgeleitet sind, erhält.
Rules are an important knowledge representation formalism in constructive problem solving. On the other hand, object orientation is an essential key technology for maintaining large knowledge bases as well as software applications. Trying to take advantage of the benefits of both paradigms, we integrated Prolog and Smalltalk to build a common base architecture for problem solving. This approach has proven to be useful in the development of two knowledge-based systems for planning and configuration design (CAPlan and Idax). Both applications use Prolog as an efficient computational source for the evaluation of knowledge represented as rules.
We present the adaptation process in a CBR application for decision support in the domain of industrial supervision. Our approach uses explanations to approximate relations between a problem description and its solution, and the adaptation process is guided by these explanations (a more detailed presentation has been done in [4]).
Typical instances, that is, instances that are representative for a particular situ-ation or concept, play an important role in human knowledge representationand reasoning, in particular in analogical reasoning. This wellADknown obser-vation has been a motivation for investigations in cognitive psychology whichprovide a basis for our characterization of typical instances within conceptstructures and for a new inference rule for justified analogical reasoning withtypical instances. In a nutshell this paper suggests to augment the proposi-tional knowledge representation system by a non-propositional part consistingof concept structures which may have directly represented instances as ele-ments. The traditional reasoning system is extended by a rule for justifiedanalogical inference with typical instances using information extracted fromboth knowledge representation subsystems.
The paper explores the role of artificial intelligence techniques in the development of an enhanced software project management tool, which takes account of the emerging requirement for support systems to address the increasing trend towards distributed multi-platform software development projects. In addressing these aims this research devised a novel architecture and framework for use as the basis of an intelligent assistance system for use by software project managers, in the planning and managing of a software project. This paper also describes the construction of a prototype system to implement this architecture and the results of a series of user trials on this prototype system.
Requirements engineering (RE) is a necessary part of the software development process, as it helps customers and designers identify necessary system requirements. If these stakeholders are separated by distance, we argue that a distributed groupware environment supporting a cooperative requirements engineering process must be supplied that allows them to negotiate software requirements. Such a groupware environment must support aspects of joint work relevant to requirements negotiation: synchronous and asynchronous collaboration, telepresence, and teledata. It should also add explicit support for a structured RE process, which includes the team's ability to discuss multiple perspectives during requirements acquisition and traceability. We chose the TeamWave software platform as an environment that supplied the basic collaboration capabilities, and tailored it to fit the specific needs of RE.
To prove difficult theorems in a mathematical field requires substantial know-ledge of that field. In this paper a frame-based knowledge representation formalismis presented, which supports a conceptual representation and to a large extent guar-antees the consistency of the built-up knowledge bases. We define a semantics ofthe representation by giving a translation into the underlaying logic.
We tested the GYROSTAR ENV-05S. This device is a sensor for angular velocity. There- fore the orientation must be calculated by integration of the angular velocity over time. The devices output is a voltage proportional to the angular velocity and relative to a reference. The test where done to find out under which conditions it is possible to use this device for estimation of orientation.
Polycyclische aromatische Kohlenwasserstoffe (PAK) stellen eine Gruppe von möglichen Kanzerogenen dar, die ihre mutagene und kanzerogene Wirkung erst nach einer zweistufigen biologischen Aktivierung zum Dihydrodiolepoxid entfalten. Der ubiquitär in der Umwelt vorkommende PAK Benzo[c]phenanthren ist in Nagersystemen in vitro und in vivo nur schwach biologisch aktiv, während die korrespondierenden Fjord-Region-B[c]PH-3,4-Dihydrodiol-1,2-Epoxide zu den am stärksten kanzerogenen PAK-Dihydrodiolepoxiden gehören. Die geringe Bildung von B[c]PH-3,4-DH als Vorstufe der B[c]PH-3,4-DH-1,2-Epoxide im Nager wird für die geringe biologische Aktivität von B[c]PH verantwortlich gemacht. Bisher waren nur wenige Daten zur Beurteilung der Aktivierungskapazität in menschlichem Gewebe verfügbar. In dieser Studie konnte erstmals eindeutig gezeigt werden, daß Gewebepräparationen aus Humanleber B[c]PH effizient zu genotoxischen und mutagenen Metaboliten aktivieren. Im Gegensatz zu Leberpräparationen von Ratte und Schwein, in denen mit der bevorzugten Bildung des B[c]PH-5,6-DH detoxifizierende Metabolismuswege dominieren, wird in humanen Leberpräparationen bevorzugt B[c]PH-3,4-DH als Vorläuferverbindung der ultimal kanzerogenen B[c]PH-3,4-DH-1,2-Epoxide gebildet. Von den in der menschlichen Leber vorhandenen Cytochrom P450-Enzymen erwies sich CYP 1A2 als hauptverantwortlich für die metabolische Aktivierung von B[c]PH. CYP 3A4 scheint für die Bildung von B[c]PH-5,6-DH mitverantwortlich zu sein. Beide Isoenzyme werden in der Leber stark exprimiert und besitzen eine Schlüsselfunktion bei der PAK-Aktivierung. Im Gegensatz zu humanen Lebermikrosomen erwiesen sich humane Lungenmikrosomen im wesentlichen als inaktiv. Die einzige aktive humane Lungenprobe generierte neben dem überwiegenden Metaboliten B[c]PH-5,6-DH auch bedeutende Anteile B[c]PH-3,4-DH. Studien mit CYP 450-Inhibitoren belegen eine Bedeutung von CYP 1A1 für die Aktivierung in der menschlichen Lunge, welches durch Zigarettenrauch induzierbar ist. Auch das extrahepatisch vorkommende CYP 1B1, welches vor allem in der Niere, dem Uterus und der Brustdrüse vorkommt, metabolisierte B[c]PH effektiv. Auch der zweite Schritt der Aktivierungskaskade wurde untersucht. B[c]PH-3,4-DH konnte durch humane Lebergewebepräparationen zu genotoxischen Metaboliten aktiviert werden. Die induzierte Genotoxizität war vergleichbar mit der des kanzerogenen B[a]P-7,8-DH. CYP 3A4 konnte als hauptverantwortlich für die Aktivierung identifiziert werden. Auch für humanes CYP 1B1 ist B[c]PH-3,4-DH ein gutes Substrat. Im Gegensatz dazu induzierte B[c]PH-5,6-DH nur geringe Genotoxizität. Nach Aktivierung in V79-Säugerzellen, die humanes CYP 3A4 exprimieren, wirkte B[c]PH-3,4-DH mutagen, vergleichbar mit B[a]P-7,8-DH. Schwache Mutagenität konnte auch für B[c]PH-5,6-DH nachgewiesen werden. Zusätzlich wurden die Fjord-Region-Verbindung Dibenzo[a,l]pyren-11,12-Dihydrodiol (DB[a,l]P-11,12-DH), Benzo[j]fluoranthen-9,10-Dihydrodiol (B[j]F-9,10-DH), und Fluoranthen-2,3-Dihydrodiol (FLU-2,3-DH) untersucht. DB[a,l]P-11,12-DH war im Genotoxizitäts- sowie Mutagenitätstest am stärksten aktiv und induzierte 10-fach mehr HPRT-Mutationen als B[c]PH-3,4-DH und B[a]P-7,8-DH. B[j]F-9,10-DH zeigte nur im Genotoxizitätstest schwache Aktivität, während FLU-2,3-DH in beiden Systemen inaktiv war. Humanes CYP 3A4 und zu geringerem Ausmaß CYP 1A2 konnten als hauptverantwortlich für die Aktivierung von DB[a,l]P-11,12-DH identifiziert werden. Somit konnte diese Studie zeigen, daß B[c]PH durch CYP 450-Enzyme in humanem Gewebe zu genotoxischen und mutagenen Verbindungen aktiviert werden kann. Im Tierexperiment ermittelte Daten haben dagegen eine vorrangige Metabolisierung zu wenig mutagenen Metaboliten ergeben. Sie korrelieren mit dem Befund des geringen kanzerogenen Potentials im Tierexperiment. Im Gegensatz dazu wird B[c]PH in humanen Gewebepräparationen effizient zu mutagenen Endprodukten aktiviert. Die Ergebnisse zeigen, daß für die Risikobewertung wesentliche Unterschiede beim B[c]PH-Metabolismus zwischen Mensch und Nager bestehen und die Ratte im Falle von B[c]PH kein prädiktives Modell für die Biotransformation beim Menschen darstellt. Es konnte gezeigt werden, daß für die Aktivierung von B[c]PH in menschlichem Lebergewebe eine Kombination des induzierbaren CYP 1A2 (1. Aktivierungsschritt) und des Hauptenzyms der Humanleber CYP 3A4 (2. Aktivierungsschritt) für eine effiziente Aktivierung verantwortlich ist. Die Ergebnisse dieser Studie legen nahe, daß B[c]PH eine Bedeutung für die Entstehung von Krebs beim Menschen besitzt.
Diese Dissertation ist ein Beitrag zur Untersuchung der Anwendbarkeit der Random-Matrix-Theorie (RMT) in der Quantenchromodynamik (QCD). Untersucht werden die Fluktuationen der kleinen Eigenwerte des Dirac-Operators mit Kogut-Susskind-Fermionen und SUc(2)-Eichfeldern. Diese werden mit Hilfe eines Hybrid-Monte-Carlo-Algorithmus erzeugt. Die Universalität der Fluktuationen kleiner Eigenwerte, das heisst die Übereinstimmung der numerisch berechneten Spektren mit den Vorhersagen des chiralen Random-Matrix-Modells wird in dieser Arbeit nachgewiesen. Die Bedeutung dieses Resultats liegt in der Allgemeinheit des Ansatzes, die QCD-Zustandssumme für ein endliches Volumen durch ein Random-Matrix-Modell zu approximieren.
Unification in an Extensional Lambda Calculus with Ordered Function Sorts and Constant Overloading
(1999)
We develop an order-sorted higher-order calculus suitable forautomatic theorem proving applications by extending the extensional simplytyped lambda calculus with a higher-order ordered sort concept and constantoverloading. Huet's well-known techniques for unifying simply typed lambdaterms are generalized to arrive at a complete transformation-based unificationalgorithm for this sorted calculus. Consideration of an order-sorted logicwith functional base sorts and arbitrary term declarations was originallyproposed by the second author in a 1991 paper; we give here a correctedcalculus which supports constant rather than arbitrary term declarations, aswell as a corrected unification algorithm, and prove in this setting resultscorresponding to those claimed there.
This paper addresses two modi of analogical reasoning. Thefirst modus is based on the explicit representation of the justificationfor the analogical inference. The second modus is based on the repre-sentation of typical instances by concept structures. The two kinds ofanalogical inferences rely on different forms of relevance knowledge thatcause non-monotonicity. While the uncertainty and non-monotonicity ofanalogical inferences is not questioned, a semantic characterization ofanalogical reasoning has not been given yet. We introduce a minimalmodel semantics for analogical inference with typical instances.
The following two norms for holomorphic functions \(F\), defined on the right complex half-plane \(\{z \in C:\Re(z)\gt 0\}\) with values in a Banach space \(X\), are equivalent:
\[\begin{eqnarray*} \lVert F \rVert _{H_p(C_+)} &=& \sup_{a\gt0}\left( \int_{-\infty}^\infty \lVert F(a+ib) \rVert ^p \ db \right)^{1/p}
\mbox{, and} \\ \lVert F \rVert_{H_p(\Sigma_{\pi/2})} &=& \sup_{\lvert \theta \lvert \lt \pi/2}\left( \int_0^\infty \left \lVert F(re^{i \theta}) \right \rVert ^p\ dr \right)^{1/p}.\end{eqnarray*}\] As a consequence, we derive a description of boundary values ofsectorial holomorphic functions, and a theorem of Paley-Wiener typefor sectorial holomorphic functions.
Most automated theorem provers suffer from the problemthat the resulting proofs are difficult to understand even for experiencedmathematicians. An effective communication between the system andits users, however, is crucial for many applications, such as in a mathematical assistant system. Therefore, efforts have been made to transformmachine generated proofs (e.g. resolution proofs) into natural deduction(ND) proofs. The state-of-the-art procedure of proof transformation fol-lows basically its completeness proof: the premises and the conclusionare decomposed into unit literals, then the theorem is derived by mul-tiple levels of proofs by contradiction. Indeterminism is introduced byheuristics that aim at the production of more elegant results. This inde-terministic character entails not only a complex search, but also leads tounpredictable results.In this paper we first study resolution proofs in terms of meaningful op-erations employed by human mathematicians, and thereby establish acorrespondence between resolution proofs and ND proofs at a more ab-stract level. Concretely, we show that if its unit initial clauses are CNFsof literal premises of a problem, a unit resolution corresponds directly toa well-structured ND proof segment that mathematicians intuitively un-derstand as the application of a definition or a theorem. The consequenceis twofold: First it enhances our intuitive understanding of resolutionproofs in terms of the vocabulary with which mathematicians talk aboutproofs. Second, the transformation process is now largely deterministicand therefore efficient. This determinism also guarantees the quality ofresulting proofs.
In the paper we discuss the transition from kinetic theory to macroscopic fluid equations, where the macroscopic equations are defined as aymptotic limits of a kinetic equation. This relation can be used to derive computationally efficient domain decomposition schemes for the simulaion of rarefied gas flows close to the continuum limit. Moreover, we present some basic ideas for the derivation of kinetic induced numerical schemes for macroscopic equations, namely kinetic schemes for general conservation laws as well as Lattice-Boltzmann methods for the incompressible Navier-Stokes equations.
In order to improve the quality of software systems and to set up a more effective process for their development, many attempts have been made in the field of software engineering. Reuse of existing knowledge is seen as a promising way to solve the outstanding problems in this field. In previous work we have integrated the design pattern concept with the formal design language SDL, resulting in a certain kind of pattern formalization. For the domain of communication systems we have also developed a pool of SDL patterns with an accompanying process model for pattern application. In this paper we present an extension that combines the SDL pattern approach with the experience base concept. This extension supports a systematic method for empirical evaluation and continuous improvement of the SDL pattern approach. Thereby the experience base serves as a repository necessary for effective reuse of the captured knowledge. A comprehensive usage scenario is described which shows the advantages of the combined approach. To demonstrate its feasibility, first results of a research case study are given.
This paper focuses on the issues involved when multiple mobile agents interact in multiagent systems. The application is an intelligent agent market place, where buyer and seller agents cooperate and compete to process sales transactions for their owners. The market place manager acts as afacilitator by giving necessary information to agents and managing communication between agents, and also as a mediator by proposing solutions to agents or stopping them to get into infinite loops bargaining back and forth.The buyer and seller agents range from using hardcoded logic to rule-based inferencing in their negotiation strategies. However these agents must support some communication skills using KQML or FIPA-ACL.So in contrast with other approaches to multiagent negotiation, we introduce an explicit mediator (market place manager) into the negotiation, and we propose a negotiation strategy based on dependence theory [1] implemented by our best buyers and best sellers.
Using an experience factory is one possible concept for supporting and improving reuse in software development. (i.e., reuse of products, processes, quality models, ...). In the context of the Sonderforschungsbereich 501: "Development of Large Systems with Generic methods" (SFB501), the Software Engineering Laboratory (SE Lab) runs such an experience factory as part of the infrastructure services it offers. The SE Lab also provides several tools to support the planning, developing, measuring, and analyzing activities of software development processes. Among these tools, the SE Lab runs and maintains an experience base, the SFB-EB. When an experience factory is utilized, support for experience base maintenance is an important issue. Furthermore, it might be interesting to evaluate experience base usage with regard to the number of accesses to certain experience elements stored in the database. The same holds for the usage of the tools provided by the SE LAB. This report presents a set of supporting tools that were designed to aid in these tasks. These supporting tools check the experience base's consistency and gather information on the usage of SFB-EB and the tools installed in the SE Lab. The results are processed periodically and displayed as HTML result reports (consistency checking) or bar charts (usage profiles).
Die generelle Zielsetzung der vorliegenden Arbeit, einen Beitrag zur Untersuchung des Mischungsverhaltens von Phospholipiden zu liefern, läßt sich in eine theoretische und eine experimentelle Problemstellung unterteilen: Im theoretischen Bereich lag die erste Herausforderung darin, bereits existierende Modelle zur Monte Carlo-Simulation von Lipidsystemen aus vorhandenen Publikationen zu sichten, die relevanten mathematischen Formulierungen zu entwickeln und anschließend in einen geeigneten Quellcode zur Durchführung der entsprechenden Computersimulationen zu übersetzen. Mit den hieraus gewonnenen Erfahrungen sollte dann der Versuch unternommen werden, eigene Ideen bei der Simulation von Einphasen-/Zweikomponentensystemen bzw. Zweiphasen-/Einkomponentensystemen umzusetzen und die Ergebnisse auf der Grundlage der verwendeten physikalischen Modelle zu interpretieren. Als Höhepunkt wurde abschließend die Entwicklung eines Formelgebäudes zur Beschreibung von Zweiphasen-/ Zweikomponentensystemen ins Auge gefaßt. Auf experimenteller Seite wurde das Ziel angestrebt, wässerige PC/PE- bzw. PC/PG-Systeme mit unterschiedlichen Kettenlängen auf ihre Mischbarkeit hin zu untersuchen. Hierzu war es erforderlich, die bereits im Arbeitskreis vorhandenen kalorimetrischen Daten zu vervollständigen. Außerdem sollten die entsprechenden äquimolaren Gemische aus jeweils einem deuterierten und einem undeuterierten Phospholipid hergestellt und anschließend mittels 2H-NMR- und FTIR-spektroskopischer Methoden analysiert werden, um auf diese Weise die beiden Komponenten der Mischungen getrennt voneinander beobachten zu können. Die benötigten perdeuterierten Lipide sollten vorher aus den entsprechenden Fettsäuren synthetisiert werden.
In this paper we are interested in an algebraic specification language that (1) allowsfor sufficient expessiveness, (2) admits a well-defined semantics, and (3) allows for formalproofs. To that end we study clausal specifications over built-in algebras. To keep thingssimple, we consider built-in algebras only that are given as the initial model of a Hornclause specification. On top of this Horn clause specification new operators are (partially)defined by positive/negative conditional equations. In the first part of the paper wedefine three types of semantics for such a hierarchical specification: model-theoretic,operational, and rewrite-based semantics. We show that all these semantics coincide,provided some restrictions are met. We associate a distinguished algebra A spec to ahierachical specification spec. This algebra is initial in the class of all models of spec.In the second part of the paper we study how to prove a theorem (a clause) valid in thedistinguished algebra A spec . We first present an abstract framework for inductive theoremprovers. Then we instantiate this framework for proving inductive validity. Finally wegive some examples to show how concrete proofs are carried out.This report was supported by the Deutsche Forschungsgemeinschaft, SFB 314 (D4-Projekt)
This paper shows how a new approach to theorem provingby analogy is applicable to real maths problems. This approach worksat the level of proof-plans and employs reformulation that goes beyondsymbol mapping. The Heine-Borel theorem is a widely known result inmathematics. It is usually stated in R 1 and similar versions are also truein R 2 , in topology, and metric spaces. Its analogical transfer was proposedas a challenge example and could not be solved by previous approachesto theorem proving by analogy. We use a proof-plan of the Heine-Boreltheorem in R 1 as a guide in automatically producing a proof-plan of theHeine-Borel theorem in R 2 by analogy-driven proof-plan construction.
This paper is concerned with numerical algorithms for the bipolar quantum drift diffusion model. For the thermal equilibrium case a quasi-gradient method minimizing the energy functional is introduced and strong convergence is proven. The computation of current - voltage characteristics is performed by means of an extended emph{Gummel - iteration}. It is shown that the involved fixed point mapping is a contraction for small applied voltages. In this case the model equations are uniquely solvable and convergence of the proposed iteration scheme follows. Numerical simulations of a one dimensional resonant tunneling diode are presented. The computed current - voltage characteristics are in good qualitative agreement with experimental measurements. The appearance of negative differential resistances is verified for the first time in a Quantum Drift Diffusion model.
Continuous and discrete superselection rules induced by the interaction with the environment are investigated for a class of exactly soluble Hamiltonian models. The environment is given by a Boson field. Stable superselection sectors can only emerge if the low frequences dominate and the ground state of the Boson field disappears due to infrared divergence. The models allow uniform estimates of all transition matrix elements between different superselection sectors.
The thermal equilibrium state of a bipolar, isothermal quantum fluid confined to a bounded domain \(\Omega\subset I\!\!R^d,d=1,2\) or \( d=3\) is the minimizer of the total energy \({\mathcal E}_{\epsilon\lambda}\); \({\mathcal E}_{\epsilon\lambda}\) involves the squares of the scaled Planck's constant \(\epsilon\) and the scaled minimal Debye length \(\lambda\). In applications one frequently has \(\lambda^2\ll 1\). In these cases the zero-space-charge approximation is rigorously justified. As \(\lambda \to 0 \), the particle densities converge to the minimizer of a limiting quantum zero-space-charge functional exactly in those cases where the doping profile satisfies some compatibility conditions. Under natural additional assumptions on the internal energies one gets an differential-algebraic system for the limiting \((\lambda=0)\) particle densities, namely the quantum zero-space-charge model. The analysis of the subsequent limit \(\epsilon \to 0\) exhibits the importance of quantum gaps. The semiclassical zero-space-charge model is, for small \(\epsilon\), a reasonable approximation of the quantum model if and only if the quantum gap vanishes. The simultaneous limit \(\epsilon =\lambda \to 0\) is analyzed.
Most automated theorem provers suffer from the problem that theycan produce proofs only in formalisms difficult to understand even forexperienced mathematicians. Efforts have been made to transformsuch machine generated proofs into natural deduction (ND) proofs.Although the single steps are now easy to understand, the entire proofis usually at a low level of abstraction, containing too many tedioussteps. Therefore, it is not adequate as input to natural language gen-eration systems.To overcome these problems, we propose a new intermediate rep-resentation, called ND style proofs at the assertion level . After illus-trating the notion intuitively, we show that the assertion level stepscan be justified by domain-specific inference rules, and that these rulescan be represented compactly in a tree structure. Finally, we describea procedure which substantially shortens ND proofs by abstractingthem to the assertion level, and report our experience with furthertransformation into natural language.
Comprehensive reuse and systematic evolution of reuse artifacts as proposed by the Quality Improvement Paradigm (QIP) do not only require tool support for mere storage and retrieval. Rather, an integrated management of (potentially reusable) experience data as well as project-related data is needed. This paper presents an approach exploiting object-relational database technology to implement the QIP-driven reuse repository of the SFB 501. Requirements, concepts, and implementational aspects are discussed and illustrated through a running example, namely the reuse and continuous improvement of SDL patterns for developing distributed systems. Based on this discussion, we argue that object-relational database management systems (ORDBMS) are best suited to implement such a comprehensive reuse repository. It is demonstrated how this technology can be used to support all phases of a reuse process and the accompanying improvement cycle. Although the discussions of this paper are strongly related to the requirements of the SFB 501 experience base, the basic realization concepts, and, thereby, the applicability of ORDBMS, can easily be extended to similar applications, i. e., reuse repositories in general.
Approximation properties of the underlying estimator are used to improve the efficiency of the method of dependent tests. A multilevel approximation procedure is developed such that in each level the number of samples is balanced with the level-dependent variance, resulting in a considerable reduction of the overall computational cost. The new technique is applied to the Monte Carlo estimation of integrals depending on a parameter.
We present an empirical study of mathematical proofs by diagonalization, the aim istheir mechanization based on proof planning techniques. We show that these proofs canbe constructed according to a strategy that (i) finds an indexing relation, (ii) constructsa diagonal element, and (iii) makes the implicit contradiction of the diagonal elementexplicit. Moreover we suggest how diagonal elements can be represented.