Refine
Year of publication
- 1999 (525) (remove)
Document Type
- Preprint (397)
- Article (73)
- Doctoral Thesis (28)
- Course Material (6)
- Master's Thesis (6)
- Report (5)
- Lecture (3)
- Study Thesis (3)
- Working Paper (2)
- Diploma Thesis (1)
- Periodical Part (1)
Keywords
- Case-Based Reasoning (11)
- AG-RESY (6)
- Praktikum (6)
- Fallbasiertes Schliessen (5)
- HANDFLEX (5)
- Location Theory (5)
- PARO (5)
- case-based problem solving (5)
- Abstraction (4)
- Fallbasiertes Schließen (4)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (267)
- Kaiserslautern - Fachbereich Mathematik (131)
- Kaiserslautern - Fachbereich Physik (76)
- Kaiserslautern - Fachbereich Chemie (19)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (10)
- Fraunhofer (ITWM) (6)
- Kaiserslautern - Fachbereich ARUBI (6)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (5)
- Kaiserslautern - Fachbereich Biologie (2)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (2)
In der vorliegenden Arbeit wird die Zeitfestigkeit von Verbundträgern mit Profilblechen unter Berücksichtigung der während der Einstufen-Belastung im Versuch auftretenden Veränderungen (zyklische Dübelkennlinien, Kraftumlagerungen, ...) im System Verbundträger behandelt. Aus den Ergebnissen der Push-Out-Versuche wird eine Ermüdungsfestigkeitskurve -Wöhlerlinie - bestimmt, die im weiteren Grundlage der Zeitfestigkeitsuntersuchungen der Kopfbolzendübel in Betongurten mit Profilblechen ist. In einer ersten, vereinfachten Versuchsauswertung werden die Dübelkräfte der Verbundträger über die Elastizitätstheorie nach dem elastischen Schubfluß und unter Annahme starrer Verdübelung (d. h. Ebenbleiben des Gesamtquerschnitts) ermittelt. Daraus wird dann die Zeitfestigkeit berechnet. Die Bestimmung der Restlebensdauer der Verbundmittel über nichtlinear berechnete Dübelkäfte unter Berücksichtigung der Nachgiebigkeit in der Verbundfuge - jedoch mit Steifigkeiten wie bei Erstbelastung - erfolgt in einer zweiten Auswertungsstufe. Um die wahrscheinlichen Vorgänge im Verbundträger unter wiederholter Be- und Entlastung erklären und anschließend in Computersimulationen nachvollziehen zu können, wird in den Kapiteln 4 bis 6 das phänomenologische Verhalten der einzelnen Komponenten des Verbundträgers (Stahlträger, Betongurt und Verdübelung) unter zyklischer Beanspruchung behandelt. Unter der Annahme, daß die einzelnen Komponenten ihr phänomenologisches Verhalten unter zyklischer Beanspruchung auch im Verbundträger -Zusammenwirken der einzelnen Komponenten zu einer gemeinsamen Tragwirkung- beibehalten, wird in Kapitel 7 ein Rechenmodell entwickelt. Mit den hergeleiteten zyklischen Dübelkennlinien und nichtlinearen Computersimulationen werden Schädigungen für alle Elemente (Dübel, Stahlträger) der Verbundträger - zu jedem Zeitpunkt während der Versuchsdauer - bestimmt. Mittels der linearen Schadensakkumulationshypothese von Palmgren-Miner und mit den für die einzelnen Elementen bestimmten Ermüdungsfestigkeitskurven wird daraus die jeweilige Restlebensdauer berechnet. Dabei werden die ständigen Veränderungen im nichtlinearen Tragverhalten der Verbundträger aufgrund der Kraftumlagerungen infolge der zyklischen Kennlinien, der Nachgiebigkeit in der Verbundfuge, des Ausfalls einzelner Dübel, der evtl. auftretenden bleibenden Verformungen, der unterschiedlichen Be- und Entlastungspfade, ..., in den Simulationsberechnungen erfaßt. Abschließend wird das Verbundträgertragverhalten bis zum endgültigen Versagen (Bruch des Trägers) auch nach dem Abscheren (Ausfall) des ersten Dübels dargestellt.
Anhand des vom Gutachterausschuß der Stadt Kaiserlautern zur Verfügung gestellten Datenmaterials soll untersucht werden, welche Faktoren den Verkehrswert eines bebauten Grundstücks beeinflussen. Mit diesen Erkenntnissen soll eine möglichst einfache Formel ermittelt werden, die eine Schätzung für den Verkehrswert liefert, und die dabei die in der Vergangenheit erzielten Kaufpreise berücksichtigt. Für die Lösung dieser Aufgabe bietet sich das Verfahren der multiplen linearen Regression an. Auf die theoretischen Grundlagen soll hier nicht näher eingegangen werden, man findet sie in jedem Buch über mathematische Statistik, oder in [1]. Bei der Analyse der Daten wurde im großen und ganzen der Weg eingeschlagen, den Angelika Schwarz in [1] beschreibt. Ihre Ergebnisse lassen sich jedoch nicht direkt übertragen, da die dort betrachteten Grundstücke unbebaut waren. Da bei der statistischen Auswertung großer Datenmengen ein immenser Rechenaufwand anfällt, ist es unverzichtbar, professionelle statistische Software einzusetzen. Es stand das Programm S-Plus 2.0 (PC-Version für Windows) zur Verfügung. Sämtliche Berechnungen und alle Grafiken in diesem Bericht wurden in S-Plus erstellt.
Bei der Programmierung geht es in vielfältiger Form um Identifikation von Individuen: Speicherorte,Datentypen, Werte, Klassen, Objekte, Funktionen u.ä. müssen definierend oder selektierend identifiziert werden.Die Ausführungen zur Identifikation durch Zeigen oder Nennen sind verhältnismäßig kurz gehalten,wogegen der Identifikation durch Umschreiben sehr viel Raum gewidmet ist. Dies hat seinen Grunddarin, daß man zum Zeigen oder Nennen keine strukturierten Sprachformen benötigt, wohl aber zumUmschreiben. Daß die Betrachtungen der unterschiedlichen Formen funktionaler Umschreibungen soausführlich gehalten sind, geschah im Hinblick auf ihre Bedeutung für die Begriffswelt der funktionalen Programmierung. Man hätte zwar die Formen funktionaler Umschreibungen auch im Mosaikstein "Programmzweck versus Programmform" im Kontext des dort dargestellten Konzepts funktionaler Programme behandeln können, aber der Autor meint, daß der vorliegende Aufsatz der angemessenerePlatz dafür sei.
We have developed a middleware framework for workgroup environments that can support distributed software development and a variety of other application domains requiring document management and change management for distributed projects. The framework enables hypermedia-based integration of arbitrary legacy and new information resources available via a range of protocols, not necessarily known in advance to us as the general framework developers nor even to the environment instance designers. The repositories in which such information resides may be dispersed across the Internet and/or an organizational intranet. The framework also permits a range of client models for user and tool interaction, and applies an extensible suite of collaboration services, including but not limited to multi-participant workflow and coordination, to their information retrievals and updates. That is, the framework is interposed between clients, services and repositories - thus "middleware". We explain how our framework makes it easy to realize a comprehensive collection of workgroup and workflow features we culled from a requirements survey conducted by NASA.
In recent years several computational systems and techniques fortheorem proving by analogy have been developed. The obvious prac-tical question, however, as to whether and when to use analogy hasbeen neglected badly in these developments. This paper addresses thisquestion, identifies situations where analogy is useful, and discussesthe merits of theorem proving by analogy in these situations. Theresults can be generalized to other domains.
Given a finite set of points in the plane and a forbidden region R, we want to find a point X not an element of int(R), such that the weighted sum to all given points is minimized. This location problem is a variant of the well-known Weber Problem, where we measure the distance by polyhedral gauges and allow each of the weights to be positive or negative. The unit ball of a polyhedral gauge may be any convex polyhedron containing the origin. This large class of distance functions allows very general (practical) settings - such as asymmetry - to be modeled. Each given point is allowed to have its own gauge and the forbidden region R enables us to include negative information in the model. Additionally the use of negative and positive weights allows to include the level of attraction or dislikeness of a new facility. Polynomial algorithms and structural properties for this global optimization problem (d.c. objective function and a non-convex feasible set) based on combinatorial and geometrical methods are presented.
We consider wavelet estimation of the time-dependent (evolutionary) power spectrum of a locally stationary time series. Allowing for departures from stationary proves useful for modelling, e.g., transient phenomena, quasi-oscillating behaviour or spectrum modulation. In our work wavelets are used to provide an adaptive local smoothing of a short-time periodogram in the time-freqeuncy plane. For this, in contrast to classical nonparametric (linear) approaches we use nonlinear thresholding of the empirical wavelet coefficients of the evolutionary spectrum. We show how these techniques allow for both adaptively reconstructing the local structure in the time-frequency plane and for denoising the resulting estimates. To this end a threshold choice is derived which is motivated by minimax properties w.r.t. the integrated mean squared error. Our approach is based on a 2-d orthogonal wavelet transform modified by using a cardinal Lagrange interpolation function on the finest scale. As an example, we apply our procedure to a time-varying spectrum motivated from mobile radio propagation.
We study the global solution of Fredholm integral equations of the second kind by the help of Monte Carlo methods. Global solution means that we seek to approximate the full solution function. This is opposed to the usual applications of Monte Carlo, were one only wants to approximate a functional of the solution. In recent years several researchers developed Monte Carlo methods also for the global problem. In this paper we present a new Monte Carlo algorithm for the global solution of integral equations. We use multiwavelet expansions to approximate the solution. We study the behaviour of variance on increasing levels, and based on this, develop a new variance reduction technique. For classes of smooth kernels and right hand sides we determine the convergence rate of this algorithm and show that it is higher
than those of previously developed algorithms for the global problem. Moreover, an information-based complexity analysis shows that our algorithm is optimal among all stochastic algorithms of the same computational
cost and that no deterministic algorithm of the same cost can reach its convergence rate.
A multiscale method is introduced using spherical (vector) wavelets for the computation of the earth's magnetic field within source regions of ionospheric and magnetospheric currents. The considerations are essentially based on two geomathematical keystones, namely (i) the Mie representation of solenoidal vector fields in terms of toroidal and poloidal parts and (ii) the Helmholtz decomposition of spherical (tangential) vector fields. Vector wavelets are shown to provide adequate tools for multiscale geomagnetic modelling in form of a multiresolution analysis, thereby completely circumventing the numerical obstacles caused by vector spherical harmonics. The applicability and efficiency of the multiresolution technique is tested with real satellite data.
Wall energy and wall thickness of exchange-coupled rare-earth transition-metal triple layer stacks
(1999)
The room-temperature wall energy sw 54.0310 23 J/m 2 of an exchange-coupled Tb 19.6 Fe 74.7 Co 5.7 /Dy 28.5 Fe 43.2 Co 28.3 double layer stack can be reduced by introducing a soft magnetic intermediate layer in between both layers exhibiting a significantly smaller anisotropy compared to Tb+- FeCo and Dy+- FeCo. sw will decrease linearly with increasing intermediate layer thickness, d IL , until the wall is completely located within the intermediate layer for d IL d w , where d w denotes the wall thickness. Thus, d w can be obtained from the plot sw versus d IL .We determined sw and d w on Gd+- FeCo intermediate layers with different anisotropy behavior ~perpendicular and in-plane easy axis! and compared the results with data obtained from Brillouin light-scattering measurements, where exchange stiffness, A, and uniaxial anisotropy, K u , could be determined. With the knowledge of A and K u , wall energy and thickness were calculated and showed an excellent agreement with the magnetic measurements. A ten times smaller perpendicular anisotropy of Gd 28.1 Fe 71.9 in comparison to Tb+- FeCo and Dy+- FeCo resulted in a much smaller sw 51.1310 23 J/m 2 and d w 524 nm at 300 K. A Gd 34.1 Fe 61.4 Co 4.5 with in-plane anisotropy at room temperature showed a further reduced sw 50.3310 23 J/m 2 and d w 517 nm. The smaller wall energy was a result of a different wall structure compared to perpendicular layers.
Vigenere-Verschlüsselung
(1999)
Ausgehend von allgemeinen Betrachtungen dynamischer Prozesse und den dazugehörigen mechanischen Grundgleichungen sind im Rahmen dieser Arbeit zwei verschiedene Lösungsverfahren für das Bewegungsdifferentialgleichungssystem des diskretisierten Mehrmassenschwingers vorgestellt worden, die modale Analyse und das Antwortspektrenverfahren. Die modale Analyse ist hierbei zur Lösung der Bewegungsgleichung für deterministische Lasten, das Antwortspektrenverfahren für Erdbebenbelastungen eingesetzt worden. Beide Verfahren sind sinngemäß auf Rotationsschalen, die unter Verwendung von Ringelementen mit Hilfe der FE-Methode diskretisiert sind, übertragen worden. Im bestehenden FE-Programmsystem ROSHE des Lehrstuhls für Baustatik der Universität Kaiserslautern, das gerade auf diesen Ringelementen basiert, sind diese beiden Lösungsverfahren implementiert worden.
Die Verfahren der Induktiven Logischen Programmierung (ILP) [Mug93] haben die Aufgabe, aus einer Menge von positiven Beispielen E+, einer Menge von negativen Beispielen E und dem Hintergrundwissen B ein logisches Programm P zu lernen, das aus einer Menge von definiten Klauseln C : l0 l1, : : : ,ln besteht. Da der Hypothesenraum für Hornlogik unendlich ist, schränken viele Verfahren die Hypothesensprache auf eine endliche ein. Auch wird oft versucht, die Hypothesensprache so einzuschränken, dass nur Programme gelernt werden können, für die die Konsistenz entscheidbar ist. Eine andere Motivation, die Hypothesensprache zu beschränken, ist, dass das Wissen über das Zielprogramm, das schon vorhanden ist, ausgenutzt werden soll. So sind für bestimmte Anwendungen funktionsfreie Hypothesenklauseln ausreichend, oder es ist bekannt, dass das Zielprogramm funktional ist.
The mathematical modelling of problems in science and engineering leads often to partial differential equations in time and space with boundary and initial conditions.The boundary value problems can be written as extremal problems(principle of minimal potential energy), as variational equations (principle of virtual power) or as classical boundary value problems.There are connections concerning existence and uniqueness results between these formulations, which will be investigated using the powerful tools of functional analysis.The first part of the lecture is devoted to the analysis of linear elliptic boundary value problems given in a variational form.The second part deals with the numerical approximation of the solutions of the variational problems.Galerkin methods as FEM and BEM are the main tools. The h-version will be discussed, and an error analysis will be done.Examples, especially from the elasticity theory, demonstrate the methods.
Value Preserving Strategies and a General Framework for Local Approaches to Optimal Portfolios
(1999)
We present some new general results on the existence and form of value preserving portfolio strategies in a general semimartingale setting. The concept of value preservation will be derived via a mean-variance argument. It will also be embedded into a framework for local approaches to the problem of portfolio optimisation.
Das zentrale Thema der vorliegenden Arbeit war die spektroskopische Untersuchung der Chiralität mittels von CD-, UV- und polarisierter UV-Spektroskopie an unverbrückten (R-1 bis R-3) und verbrückten 1,1' -Binaphtholen (R-4 bis R-7). Diese spektroskopischen Untersuchungen sind für die Interpretation der HTP (helical twisting power) erforderlich, um insbesondere auch einen Vergleich der Ergebnisse der Chiralitätsbeobachtungen CD und HTP zu ermöglichen. Um die Spektren der 1,1' -Binaphthole mit der Struktur zu korrelieren und insbesondere die Ordnungszustände in der flüssigkristallinen Phase über die 2 H-NMR-Spektren zu erhalten, mußte die Geometrie der Verbindungen, gelöst in der flüssigkristallinen Phase, bekannt sein. Da die Struktur in dieser Phase zum Teil verändert sein kann wurde die Geometrie der 1,1'-Binaphthole R-1 bis R-7 und damit der Winkel q, sowie der Potentialkurvenverlauf als Funktion der Drehung um die Naphthyl-Naphthyl-Verbindungsachse mit der AM1-Methode für die Gasphase berechnet, und mit Ergebnissen aus Röntgenstrukturdaten aus Arbeiten von Reiß und Frank [74-78] verglichen. Für die unverbrückten 1,1'-Binaphthole wurden im Bereich 90 ° +-30 ° breite flache Potentialkurven (Änderung der Energie < kT) erhalten, während die Potentialkurven der verbrückten 1,1'-Binaphthole schmäler und steiler im Verlauf ausfallen, da die Verbrückung durch den Dioxepinring eine Rotation um die Naphthyl-Naphthyl- Verbindungsachse nicht zuläßt. Als Konsequenz der flachen Potentialkurve muß für die Gasphase für diese Moleküle eine "Large Amplitude Motion (LAM)" beachtet werden, die für die Beschreibung unserer Effekte in der flüssigkristallinen Matrix in Form von lösungsmittelstabilisierten Konformere zu berücksichtigen ist, für die eine Simulation nicht durchgeführt wurde. Die Winkel zwischen den mittleren Naphthylebenen aus der AM1-Methode qAM1 und der Röntgenstrukturanalyse qRSA weichen für die verbrückten 1,1 -Binaphthole 4, 5 und 6 maximal 7° voneinander ab. Für 7 ergab sich eine große Abweichung, die aber möglicherweise artifiziell ist, da die Röntgenstruktur zum jetzigen Zeitpunkt, wegen einer Zwillingsbildung im Kristall noch nicht vollständig analysiert wurde. Bei den unverbrückten 1,1'-Binaphtholen führt die flache Potentialkurve dazu, daß die äußere Umgebung d.h. die Packungseffekte einen wesentlichen Einfluß auf den Winkel qRSA zwischen den mittleren Naphthylebenen ausübt. Hieraus ist zu ersehen, daß der Flüssigkristall ebenfalls eine Auswirkung auf den Winkel q haben wird. Es zeigt sich, daß der CD von Verbindung R-1 wesentlich besser reproduziert werden kann, wenn man zur Beschreibung -255- eine Boltzmann-Wichtung über alle mit der Exziton-Theorie berechneten CD-Spektren der einzelnen Konformationen der Potentialkurve durchführt, als wenn nur die Geometrie des Minimums benutzt wird. Um die Anisotropie der 1,1' -Binaphthole im Flüssigkristall zu analysieren ist es notwendig die Ordnung der Moleküle in der Phase, d.h. die Hauptachsen und Hauptwerte des Ordnungstensors zu kennen, die im Rahmen der Arbeit von I. Kiesewalter [92] gemessen wurde. Die Orientierung der Hauptachsen im Molekül sind abhängig von der Geometrie des Moleküls und muß, da die Moleküle C2-Symmetrie besitzen, experimentell bestimmt werden. Hierbei besteht zusätzlich das Problem, daß zwar die Größe der Quadrupolaufspaltungen experimentell ermittelbar sind, nicht aber ihr Vorzeichen. Ein Verfahren diese Informationslücke der Vorzeichen zu beheben bestand darin, alle Zuordnungen zu denkbaren Orientierungszuständen durch eine Permutation zu erhalten. Durch weitere Kriterien werden dann Zuordnungen aufgrund der erhaltenen Ergebnisse aussortiert. Für die so gefundenen Sätze von Hauptwerten * 33 ii g ist zu prüfen ob sie innerhalb des Ordnungsdreiecks liegen. Erfüllen die * 33 ii g dieses in der Hierachie oberste Kriterium folgen weitere, wie z.B. die Übereinstimmung mit den Hauptwerten aus der 13 C-Spektroskopie, um die optimalste Lösung zu ermitteln. Für 2 existieren keine Ordnungsparameter S * und D * aufgrund der schlechten Löslichkeit in ZLI-1695. Aus Tensorkoordinaten eii * , die mit Hilfe der experimentellen Ordnungsparameter S * und D * aus den Anisotropiegraden, ermittelt wurden, können im Rahmen des Exziton-Modells interpretiert werden. Für die unverbrückten 1,1-Binaphthole 1 bis 3 zeigt sich, daß die Aufspaltungsenergie n , m NK E D und damit die Wechselwirkung zwischen den Naphthylebenen, die im Exziton-Modell als Dipol-Dipol-Wechselwirkung beschrieben wird, im Vergleich zu den verbrückten 1,1-Binaphtolen 4, 5 und 7 sehr gering ist. 1 zeigt eine Aufspaltungsenergie von 1 n , m NK cm 9 . 335 E - = D , 2 und 3 zeigen eine von 94.0 cm -1 und 0 cm -1 . Der Mittelwert der Aufspaltungsenergien aus den Tensorkoordinaten von 4, 5 und 7 beträgt dagegen 1 n , m NK cm 6 . 1093 E - = D . Aus den Tensorkoordinaten der unverbrückten 1,1 ' -Binaphthole ergibt sich weiterhin, daß die a-Bande eine höhere Intensität besitzt als die b-Bande. Für die verbrückten 1,1' -Binaphthole ist das Verhältnis a- zu b-Bande genau umgekehrt. Aus Anpassungen experimenteller CD- und UV-Spektren, mit Gleichungen, die aus der Exziton-Theorie abgeleitet wurden, findet man die gleiche Tendenz, wie aus den Ergebnissen der Tensorkoordinatenzerlegung. Die Wechselwirkungsenergie n , m NK E D ist für die verbrückten 1,1' - 256-Binaphthole 1 bis 3 ca. doppelt so groß, wie für die unverbrückten 1,1' -Binaphthole 4 bis 7. Speziell aus der Anpassung der UV-Spektren ergibt sich, daß für die verbrückten 1,1' -Binaphthole 1 bis 3, daß die a-Bande größer als die b-Bande ist, während die verbrückten 1,1-Binaphthole ein umgekehrtes Verhältnis von a- zu b-Bande zeigen Weiterhin konnte mit den Tensorkoordinaten die Lage des elektrischen Dipolübergangsmomentes der a-Bande ( A B -Übergang) für 4, 5 und 7 bestimmt werden. Man findet, daß das elektrische Dipolübergangsmoment a m , das in der Ebene senkrecht zur C2-Achse polarisiert ist, einen Winkel von 49° mit der Naphthyl-Naphthyl-Verbindungsachse einschließt. Speziell für die Verbindungen 4 und 7 zeigt sich aus den Tensorkoordinaten, daß der b- bzw. B A -Übergang einmal entlang der * 2 x -Achse für 4 bzw. entlang der * 3 x -Achse für 7 liegt. Dies zeigt, daß die Orientierungsachse aus der Naphthyl-Naphthyl-Achse bei Verbindung 4 in Richtung der C2-Achse bei Verbindung 7 gekippt ist. In den Tensorkoordinaten * 22 e bei Verbindung 4 und * 33 e bei Verbindung 7, die nach dem Exziton-Modell nur den A A -Übergang zeigen sollten, kann eine zusätzliche Bande im Spektralbereich des B A -Übergangs beobachtet werden. Bei den unverbrückten 1,1' -Binaphtholen tritt diese zusätzliche Bande bei der Tensorkoordinatenzerlegung nicht zum Vorschein. Die Ursache für diese zusätzliche Bande könnte eine Intensivierung eines Übergangs sein aufgrund der Verkrümmung des Naphthylrings und der damit verbundenen Erniedrigung der Symmetrie. Für die Dipolstärke würde dann im Grundkörper, d.h. im 2-Hydroxy- naphthalin mit einem planaren System - p 0 D NK = gelten. Tabelle 78. zeigt alle Ergebnisse für die unverbrückten (1 bis 3) und verbrückten (4 bis 7) 1,1 -Binaphthole, die aus AM1-Rechnungen, Röntgenstrukturanalyse und anisotroper UV-Spektroskopie im Rahmen dieser Arbeit erhalten wurden. Die Daten aus der anisotropen UV-Spektroskopie werden verglichen mit Daten, die man aus einer Anpassung experimenteller CD- und UV-Spektren in ZLI-1695 bei T=80°C, mit Hilfe von Gleichungen, die aus der Exziton-Theorie abgeleitet sind, erhält.
Rules are an important knowledge representation formalism in constructive problem solving. On the other hand, object orientation is an essential key technology for maintaining large knowledge bases as well as software applications. Trying to take advantage of the benefits of both paradigms, we integrated Prolog and Smalltalk to build a common base architecture for problem solving. This approach has proven to be useful in the development of two knowledge-based systems for planning and configuration design (CAPlan and Idax). Both applications use Prolog as an efficient computational source for the evaluation of knowledge represented as rules.
We present the adaptation process in a CBR application for decision support in the domain of industrial supervision. Our approach uses explanations to approximate relations between a problem description and its solution, and the adaptation process is guided by these explanations (a more detailed presentation has been done in [4]).
Typical instances, that is, instances that are representative for a particular situ-ation or concept, play an important role in human knowledge representationand reasoning, in particular in analogical reasoning. This wellADknown obser-vation has been a motivation for investigations in cognitive psychology whichprovide a basis for our characterization of typical instances within conceptstructures and for a new inference rule for justified analogical reasoning withtypical instances. In a nutshell this paper suggests to augment the proposi-tional knowledge representation system by a non-propositional part consistingof concept structures which may have directly represented instances as ele-ments. The traditional reasoning system is extended by a rule for justifiedanalogical inference with typical instances using information extracted fromboth knowledge representation subsystems.