Refine
Year of publication
Document Type
- Report (486) (remove)
Keywords
- Mathematikunterricht (7)
- modelling (7)
- numerical upscaling (7)
- Modellierung (6)
- praxisorientiert (6)
- Ambient Intelligence (5)
- Regelung (5)
- hub location (5)
- Elastoplastizität (4)
- Integer programming (4)
Faculty / Organisational entity
- Fraunhofer (ITWM) (198)
- Kaiserslautern - Fachbereich Informatik (139)
- Kaiserslautern - Fachbereich Mathematik (121)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (9)
- Kaiserslautern - Fachbereich Sozialwissenschaften (8)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (7)
- Kaiserslautern - Fachbereich ARUBI (2)
- Distance and Independent Studies Center (DISC) (1)
- Universität (1)
Mobilität in Städten
(2020)
Der Bericht stellt die deskriptive Auswertung der Studie "Jugend in Kaiserslautern 2023" vor. Diese wurde mit dem Jugendparlament Kaiserslautern auf den Weg gebracht und vom Jugendreferat Kaiserslautern unterstützt. Die Umfrage wurde im Rahmen eines Lehrforschungsprojekts im Studiengang Integrative Sozialwissenschaft an der RPTU Kaiserslautern erstellt.
Ziel der Studie war es das Freizeitverhalten der Jugendlichen zu untersuchen, die Zufriedenheit mit den Angeboten der Stadt zu erheben, und Verbesserungsbedarf zu identifizieren. Zudem wurde das Thema Sicherheit aus der Studie "Sicherheit in Kaiserslautern 2021" nocheinmal kurz aufgegriffen.
Zu der Online-Umfrage erhielten alle 16- und 17 jährigen Jugendlichen, die in Kaiserslautern ihren Erstwohnsitz haben, eine Einladung per Post. Es ergibt sich eine Rücklaufquote von ca. 23 Prozent.
Die Untersuchung der Verteilung der Jugendlichen in der Stadt zeigt, dass ein hoher Anteil in der Innenstadt wohnt und die Dichte an Jugendlichen dort und auch in Orten mit Hochhausbebauung besonders hoch ist.
Die Ergebnisse zeigen, dass die Jugendlichen sehr aktiv sind und Ihre Freizeit mit sehr vielen unterschiedlichen Aktivitäten verbringen. Auch wenn Jugendliche auch häufig Computer spielen, zeigt diese Umfrage, dass sie auch viel Zeit mit Fortbildungen, Sport, der Familie, Diskussionen und Vereinsaktivitäten verbringen. In der Zeitverwendung ergeben sich Unterschiede nach Geschlecht und Migrationshintergrund. Die Zufriedenheit mit den Angeboten der Stadt ist sehr durchmischt und der Median liegt meist bei 3 (von 5), der Mittelwert meist darunter. Unzufrieden sind die Jugendlichen vor allem auch mit den Preisen und den Räumen. Dies zeigt sich auch in den Verbesserungsvorschlägen. Es werden mehr Aufenthaltsmöglichkeiten ohne Konsumzwang gefordert, mehr Sportplätze und auch mehr Sitzmöglichkeiten. Aber auch mehr events. Das Jugendzentrum wird von dieser Altersgruppe nicht breit genutzt. Dabei muss auch beachtet werden, dass es laut diesen Ergebnissen bisher nicht gelingt Jugendliche gut über die Angebote in der Stadt zu informieren.
Jugendliche erteilen der Politik schlechte Noten. Sie fühlen sich weit mehrheitlich nicht von Politiker:innen vertreten und auch nicht gut eingebunden. Sie fühlen sich auch in Medien schlecht dargestellt und von Erwachsenen als Störfaktor behandelt. Die Schaffung einer zentralen Anlaufstelle findet breite Zustimmung bei den Jugendlichen.
Viele Jugendliche haben ein eher schlechtes Sicherheitsgefühl, insbesondere auch Frauen. Das kann an einer recht hohen Viktimisierungsrate im Bereich sexuelle Belästigung und auch Pöbeleien/ Beleidigungen liegen. Bezogen auf die Wohngegend fühlen sich die Jugendlichen in der Innenstadt unsicherer als im Uniwohngebiet/ Lämmchesberg und den Ortsbezirken, was auch den Ergebnissen für die Gesamtbevölkerung entspricht. Die unsicheren Orte, die Jugendliche nennen, sind inetwa dieselben wie die, die von der Gesamtbevölkerung genannt wurden (Dannwolf 2022). Auch bei Jugendlichen stechen die Mall und andere Plätze in der zentralen Innenstadt hervor. Die Altstadt dagegen wird nicht sehr häufig als unsicherer Ort genannt. Auch bei den Jugendlichen wird vor allem die Präsenz von Gruppen als Grund für Unsicherheit genannt.
Der vorliegende Bericht stellt die Ergebnisse der Umfrage Sicherheit in Kaiserslautern 2021 vor, die im November/Dezember 2021 durchgeführt wurde. Es wurden 3100 zufällig ausgewählte Bürger*innen Kaiserslauterns mittels einer Papierfragebogens als Hauptmodus befragt. Die Rücklaufquote war 37,9% (AAPOR RR3). Die Studie wurde von der Stadt Kaiserslautern in Zusammenarbeit mit der Polizei Westpfalz in Auftrag gegeben und vom Innenministerium Rheinland-Pfalz gefördert. Sie wurde im Rahmen eines Lehrforschungsprojekts im Studiengang Integrative Sozialwissenschaft durchgeführt. Die Ergebnisse zeichnen ein detailliertes Bild des Sicherheitsgefühls und der Kriminalitätsfurcht der Kaiserslauterner Bevölkerung. Als weiterer Schwerpunkt der Studie wurde die Wahrnehmung von und die Belastung durch incivilities erhoben.
Die Ergebnisse zeigen, dass sich ein großer Anteil der Bürger*innen sich (sehr) unsicher fühlen. Der Bericht zeigt eine räumliche Ungleichheit im Sicherheitsgefühl in Kaiserslautern, die sich nicht auf eine Unterscheidung zwischen Innenstadt- und Ortsbezirke reduzieren lässt. Es haben sich einige konkrete Orte ergeben, an denen sich viele Bürger*innen (sehr) unsicher fühlen: Dabei ist insbesondere generell die Innenstadt abends zu nennen, und dort auch insbesondere die Gegend um das Rathaus und das Pfalztheater, die Mall und den Hauptbahnhof. Die Studie hat aber auch gezeigt, dass die Bemühungen um das Sicherheitsgefühl nicht an diesen Orten enden sollte, da sich beispielsweise auch ein recht hoher Anteil der Bürger*innen im Stadtpark unsicher fühlt. Frauen sind mehr von Kriminalitätsfurcht und einem niedrigen Sicherheitsgefühl betroffen als Männer. Das Alltagsverhalten von Frauen ist demnach auch wesentlich häufiger geprägt von Vermeidungsverhalten als das von Männern. Bei der Auswertung nach Altersgruppen fällt vor allem auf, dass sich die älteren Bürger*innen in der Innenstadt abends weniger sicher fühlen als die jüngeren Gruppen. Diese Unterschiede sind allerdings weniger prägnant, wenn einzelne Orte beleuchtet werden. Die Auswertung der incivilities zeigt, dass Hundekot und Abfall die Menschen belasten. Auffällig sind ebenfalls zu schnell fahrende Autofahrer*innen und abgestellte E-Scooter. Bei den sozialen incivilities fällt auf, dass hier vor allem bestimmte Innenstadtbezirke betroffen sind. Bei dem vorliegenden Bericht handelt es sich um eine rein deskriptive Auswertung der geschlossenen Fragen.
Die Umsetzung von Projekten gemeinschaftlichen Wohnens ist Teil eines aufwändigen Prozesses, der häufig mit einer hohen Unsicherheit bei der Realisierung behaftet ist und Wohnprojektinitiativen viel Engagement abverlangt. Ein großes Potenzial wird daher in gemeinschaftlichen Wohnprojekten gesehen, die durch oder in Kooperation mit einem Wohnungsunternehmen oder einer -genossenschaft entstehen und die die Wohnungen und Gemeinschaftsflächen an die Bewohnerschaft vermieten. In dieser Kurzstudie mit Schwerpunkt Rheinland-Pfalz (07/2020 – 06/2021) steht im Fokus, welche Erfahrungen Wohnungsanbieter im Planungs- und Entstehungsprozess von gemeinschaftlichen Mietwohnprojekten gemacht haben und wie sie den Prozess retrospektiv bewerten. Die Ergebnisse zeigen, dass der Großteil der befragten Wohnungsanbieter positive Erfahrungen mit den gemeinschaftlichen Mietwohnprojekten gemacht hat, wenngleich ein teilweise erhöhter Aufwand in der Planungs- und Entwicklungsphase bestand.
Wo und wie lernen die Studierenden der Technischen Universität Kaiserslautern, und welche Räumlichkeiten wünschen sie sich dafür? Diese Fragestellung steht im Zentrum der hier vorgestellten Studierendenbefragung „Lern(T)RÄUME“.
Die Online-Befragung wurde im Zeitraum Juli bis Oktober 2018 im Rahmens des BMBF-Projekts „Selbstlernförderung als Grundlage. Die Förderung von Selbstlernfähigkeiten als integriertes Konzept universitärer Lehre“, das am Distance and Independent Studies Center (DISC) angesiedelte ist, durchgeführt.
Die Zielsetzung der Befragung war es, einen Überblick über die Lerngewohnheiten und die damit verbundenen Raumbedarfe der Präsenzstudierenden der TUK zu erhalten, um somit die Lernraumsituation am Campus der TUK besser einschätzen zu können. Die Fragen zielten in erster Linie auf die Nutzung und Ausstattung der physischen Lernräume auf dem Campus ab, wobei die Übergänge in virtuelle Lernräume oftmals an das physische Setting gekoppelt sind (z. B. durch Raumausstattung oder Nutzung digitaler Medien beim Lernen).
Aus den Ergebnissen der Befragung lassen sich Handlungsempfehlungen ableiten, die Entscheidern eine Orientierung geben, wie die Lernräume auf dem Campus künftig verstärkt bedarfsorientiert gestaltet werden könnten.
Durch die Zielsetzung des Projekts, in einem ganzheitlichen Ansatz Bleibefaktoren für Zuwanderer in ländlichen
Räumen zu untersuchen und geeignete Lösungsansätze für deren Integration zu entwickeln, wird eine bisher in
dieser Form kaum betrachtete Forschungslücke adressiert. Diese Nische zeichnet sich dadurch aus, dass im
Vorhaben miteinander verbundene, jedoch bisher meist disziplinär bearbeitete Fragestellungen der
Integrationsforschung, der Stadtplanung und der zukunftsfähigen Kommunalentwicklung bzw. kommunalen
Nachhaltigkeit unter besonderer Berücksichtigung von demografischen Herausforderungen vereint werden.
Diese inhaltliche Verschränkung spiegelt sich zudem auch in der interdisziplinären Vorgehensweise im Projekt
wider. So werden die Fragestellungen des Vorhabens aus der Perspektive von und mit
methodischen Zugängen aus den Sozial-, Wirtschafts- und Planungswissenschaften bearbeitet.
Der von Beginn an starke und unmittelbare Einbezug der Kommunalpartner und weiterer praxisnaher Akteure
stellt sicher, dass von Anfang an unterschiedliche wissenschaftliche und nicht-wissenschaftliche Perspektiven
sowie Praxiswissen in den Forschungsprozess integriert werden, um ein gemeinsames Problemverständnis und
eine hohe Relevanz der Ergebnisse für die kommunale Praxis sicherzustellen.
Zuwanderung an sich ist kein neues Phänomen in der Geschichte der Bundesrepublik, was sich in einer Vielfalt
von Studien und Publikationen zu den Einflussfaktoren auf die Integration von verschiedenen Migrantengruppen
(z.B. von „Gastarbeitern“ und ihren Familien, Aussiedlern und Spätaussiedlern aus Osteuropa, humanitären
Migranten bzw. Flüchtlingen, Migranten in erster und zweiter Generation) widerspiegelt. Darüber hinaus
existieren Studien zu einzelnen Aspekten der Integration wie der Teilhabe am Arbeitsmarkt, dem Schulsystem,
der Integration in den Wohnungsmarkt oder auch standortbezogene Fallstudien. Diese Untersuchungen
betrachten jedoch die allgemeine Integration von Zuwanderern, ohne auf die Besonderheiten von kleinstädtisch
und ländlich geprägten Kommunen einzugehen. Diese Thematik wird in einer Studie der Schader Stiftung
aufgegriffen, in der neben den Herausforderungen und Rahmenbedingungen in den Kommunen einige Aspekte
bzw. Handlungsoptionen der Integration aufgezeigt werden.
Die besonderen Herausforderungen des demografischen Wandels für Kommunen sind ebenfalls Gegenstand
zahlreicher Publikationen. Kleinstädtische und ländlich geprägte Kommunen sind besonders stark von diesem
Megatrend betroffen, so dass in vielen Fällen auch deren Zukunftsfähigkeit bedroht sein kann. Durch die
Integration von Zuwanderern im ländlichen Raum können sich für die Kommunen Potenziale ergeben, die
negativen Auswirkungen des Trends zum Teil aufzufangen.
Aus einer stadtplanerischen Perspektive sind in Kommunen mit demografischen Herausforderungen im Sinne
einer (stark) schrumpfenden Bevölkerung signifikante Anlässe zur baulichen Wiedernutzung von Brachflächen,
zum Schließen von Baulücken oder zur Nachverdichtung im Bestand gegeben: Potentielle volkswirtschaftlichen
Folgen sind zu erwarten, wenn sozialräumlich homogene Wohnungsbestände durch den Attraktivitäts- und
Imageverlust von benachbarten Teilräumen mit hohen Wohnungsleerständen betroffen sind. Zudem gilt es, den
betriebswirtschaftlichen (Kostenfaktoren) und städtebaulichen Auswirkungen entgegenzusteuern, um den
potentiellen baulichen Verfall sowie stadtstrukturelle, funktionale und soziale Missstände zu verhindern.
Eine effiziente Nutzung innerörtlicher Flächenressourcen, sowohl durch die Wiedernutzung von Brachflächen
als auch durch die Reaktivierung von Wohnungsleerständen, ermöglicht es den Kommunen, die
Neuinanspruchnahme von Siedlungs- und Verkehrsflächen zu reduzieren. Hierdurch kann den im Rahmen der
Nationalen Nachhaltigkeitsstrategie formulierten Zielvorgaben der Reduzierung zusätzlicher
Flächeninanspruchnahme Rechnung getragen werden. Ein sparsamer Umgang mit Grund und Boden und die
Begrenzung der Bodenversiegelung ist als städtebauliche Aufgabe durch die Bodenschutzklausel gemäß §1a
Abs. 2 BauGB bestimmt. In Anpassung an die örtlichen und städtebaulichen Gegebenheiten sind anstelle der
Neuausweisung von Bauflächen Möglichkeiten der innerörtlichen Entwicklung zu nutzen. Bei der
Inanspruchnahme unbebauter Flächen ist darüber hinaus eine flächensparende Bauweise zu bevorzugen. Durch
entsprechende Darstellungen und Festsetzungen in den Bauleitplänen kann dies erreicht werden, indem
beispielsweise auf Darstellungen von (Neu-) Bauflächen in Flächennutzungsplänen verzichtet oder indem
Höchstmaße der baulichen Nutzung für Wohnbaugrundstücke in Bebauungsplänen festgesetzt werden (§ 9
Abs. 1 Nr. 3 BauGB).
Anstelle der Neuausweisung von Wohngebieten in siedlungsstrukturellen Randlagen stellt die Innenentwicklung
für den Erhalt lebendiger Zentren und zur Begrenzung der Flächenneuinanspruchnahme einen wichtigen Beitrag
zur nachhaltigen städtebaulichen Entwicklung im Sinne des §1 Abs. 5 BauGB dar. Als Voraussetzungen für die
erfolgreiche Wiedernutzung innerörtlicher Flächen und baulicher Potentiale sind Kenntnisse der vorhandenen
Innenentwicklungspotenziale und ihre Verfügbarkeit erforderlich.
In einem geografischen Informationssystem (GIS) lassen sich nach dem gegenwärtigen Stand von Wissenschaft
und Technik Brachflächen, Baulücken und Leerstände zentral erfassen. Zur Erhebung und Verwaltung von
Wohnungsleerständen in einem kommunalen Leerstandskataster lassen sich im Wesentlichen folgende
Methoden und Datenquellen nutzen: Die Analyse von Ver- und Entsorgerdaten (Strom/Wasser) stellen neben
der Erhebung durch Ortsbegehungen (Inaugenscheinnahme von außen durch geschultes Personal), den
Befragungen von Eigentümern, den statistischen Schätzverfahren (Wohnungsfortschreibung und Melderegister)
bzw. den Befragungen kommunaler Funktionsträger (Ortsvorsteher, Bürgermeister) methodische Zugänge dar.
Zur Verifizierung der Daten erfolgt eine Kombination der genannten Methoden. Dabei werden die ermittelten
Leerstände mittels der Stromzählermethode durch zusätzliche Befragung von
Wohnungsunternehmen/Eigentümern oder Ortsvorstehern ergänzt und plausibilisiert, quantitative Daten
(zählerbasierte Methoden) werden durch qualitative Erhebungen (Befragungen) ergänzt. Da der Zugang
zu diesen kommunalen Datenbeständen erschwert war, bediente sich die Forschungsgruppe der SeniorForschungsprofessur Stadtplanung an zugänglichen öffentlichen Daten (Zensus-Erhebungen zu den
Wohnungsleerständen aus dem Jahr 2011) sowie kommerziell erwerbbaren Daten aus der Marktforschung
(microm Geo-Milieus®), da diese empirisch abgesichert sind und im Kontext der Kommunalentwicklung vielfältig
eingesetzt werden (z.B. Beteiligungsverfahren, Wohnbaulandentwicklung).
Leben in Kaiserslautern 2019
(2019)
Das Projekt zum „Leben in Kaiserslautern 2019“ (LiK) untersucht die Lebensqualität in Kaiserslautern, die Zufriedenheit mit der Demokratie und den politischen Institutionen sowie die politische und gesellschaftliche Partizipation der Bürgerinnen und Bürger. Der Bericht stellt das methodische Design der LiK-Befragung vor. Es werden deskriptive Ergebnisse aus der Befragung präsentiert. Dabei wird auch Bezug auf Ergebnisse aus bundesweiten Bevölkerungsumfragen, die einen Vergleich zwischen Kaiserslautern und ganz Deutschland erlauben, genommen.
Das Projekt „Integration findet Stadt – Im Dialog zum Erfolg“ wird von 2017-2019 als eines von zehn Projekten im Rahmen der Nationalen Stadtentwicklungspolitik zum Thema Integration durchgeführt (gefördert vom Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit). Das bestehende Integrationskonzept der Stadt Kaiserslautern soll in diesem Kontext weiterentwickelt und an die veränderte Zusammensetzung der Migranten in der Stadt angepasst werden. Mit dem Projekt ist verbunden, auf Quartiersebene Partizipations- und Aktivierungsprozesse anzustoßen und Integrationsbedarfe und die Bereitschaft zum Engagement zu ermitteln. Ziel des Gesamtprojektes in Kaiserslautern ist es, die Vernetzung in den Quartieren zu stärken, um das Zusammenleben einfacher zu gestalten und Unterstützungspotenziale der deutsch wie migrantisch geprägten Bewohnerinnen und Bewohner zu aktivieren. Im Rahmen dieses Projektes hat das Fachgebiet Stadtsoziologie der TU Kaiserslautern eine Teil Studie über das Zusammenleben von Migranten und nicht Migranten in Kaiserslautern angefertigt.
Im ersten Teil der vorliegenden Studie wird eine statistische Bestandsaufnahme nach demografischen und sozial strukturellen Merkmalen der Bevölkerung in den verschiedenen Stadtteilen durchgeführt. Der zweite Teil informiert anhand von Interviews wie die sozialen Netzwerke in den unterschiedlichen Stadtteilen Kaiserslauterns von Zugewanderten und Alteingesessenen wahrgenommen werden. Im dritten Teil werden Ergebnisse einer quantitativen Befragung zum Zusammenleben im Stadtteil, Bewertungen und Vorstellungen sowie Potentiale für Engagement der Bewohner/innen Kaiserslauterns mit und ohne Migrationshintergrund dargestellt. Dieser Mix von quantitativen und qualitativen Methoden dient dazu um Unterschiede zwischen Bevölkerungsgruppen zu erfassen, Netzwerke des Zusammenlebens zu identifizieren und die unterschiedlichen Stärken und Schwächen der Stadtteile deutlich zu machen. Die unterschiedlichen Zugangswege sollen Integrationsbedarfe und –potenziale erkennbar machen um das vielfältige Leben der Stadt aufzuzeichnen.
In Anbetracht der Flüchtlingsbewegungen von 2014 bis 2016 und der damit einhergehenden Folgewirkungen auf die Bundesrepublik Deutschland als Aufnahmeland erhalten Fragen der Integration einen hohen Stellenwert in der aktuellen gesellschaftspolitischen Debatte. Der Begriff der Integration ist im deutschen Diskurs maßgeblich durch den Ansatz von Hartmut Esser geprägt (Esser 1980, 2001). Er unterscheidet vier Dimensionen der Integration: 1. Kulturation (Wissen, Sprache, gesellschaftliche Teilhabe), 2. Platzierung (Rechte, ökonomisches Potential, Zugang zum Bildungssystem, zum Arbeits- und Wohnungsmarkt); 3. Interaktion: kulturelles und soziales Kapital (Teilhabe am gesellschaftlichen und kulturellen Leben) und 4. Identifikation (Bürgersinn). Allerdings ist der Integrationsbegriff umstritten, da er die Aufgabe der Integration einseitig auf Seiten der Zuwandernden sieht und die Aufgaben der Aufnahmegesellschaft in diesem Prozess zu wenig berücksichtigt (Gestring 2014: 82). Der Begriff der Integration vernachlässigt darüber hinaus, dass sich vielfältige kulturelle Prägungen und Identitäten durchaus miteinander verbinden und gemeinsam leben lassen (West 2014: 92 ff.; Gans et al. 2014). Aus diesem Grund wird der Integrationsbegriff in den Migrationswissenschaften vermieden und neutralere Begriffe werden verwendet, wie Transnationalismus, Transmigration, Trans-, Inter- und Multikulturalität (ARL 2016: 2), Vielfalt, Zweiheimischkeit oder allgemein Vergesellschaftung (ARL 2016: 12). In Hinsicht auf soziale Unterschiede macht Vertovec mit dem Begriff der (Super-)Diversität auf die Bedeutung sozialer Ungleichheiten unterschiedlicher Aufenthaltstitel der Migranten aufmerksam, die mit Zukunftsrechten beziehungsweise Exklusion einhergehen (Vertovec 2007).
Jedoch ist der Begriff „Integration“ eingeführt und auch für praktische Anforderungen vor Ort gut handhabbar, vor allem wenn konkrete Verankerungen in den Lebensbereichen Arbeit, Wohnen, Freizeit und Kultur berührt sind. Zugleich sollte betont werden, dass der Integrationsbegriff nicht auf die Zuwandernden alleine fokussiert werden kann, sondern immer auch Integrationsleistungen von den übrigen Bevölkerungsmitgliedern und Akteuren erfordert.
Auf Stadtteilebene, dort wo die Menschen ihren Alltag verbringen, arbeiten Freiwillige und Organisationen zusammen, um die Integration zu erleichtern. Für die ehrenamtlich Tätigen und die Organisationen besteht die Notwendigkeit, die kulturelle Vielfalt in ihrer Arbeit aufzunehmen, die Ansprache und Prozesse entsprechend zu gestalten und dabei die sozialstrukturellen Bedingungen in den jeweiligen Nachbarschaften nicht außer Acht zu lassen (Sprachkenntnisse, Bildungsniveaus, Berufstätigkeit, familiäre Verpflichtungen, Aufenthaltstitel der verschiedenen Migrantengruppen). Die Veränderungen in der Zusammensetzung der zugewanderten Bevölkerung sind daher für die langjährig Beschäftigten vor Ort möglicherweise nicht unmittelbar nachzuvollziehen.
Verschiedene Studien zur Integration auf Quartiersebene zeigen, dass Rheinland-Pfalz ein hohes Niveau des freiwilligen Engagements erreicht hat (Gesemann/Roth 2015: 28). Wie an anderen Orten auch sind Migrantinnen und Migranten jedoch nur unterdurchschnittlich vertreten. Das Anliegen, die Teilnahmemöglichkeiten an der Gesellschaft zu erweitern, hat in den jeweiligen Stadtgebieten ganz unterschiedliche Voraussetzungen nach Aufenthaltstitel, Qualifikation, Alter oder Familiensituation der Bewohnerinnen und Bewohner. Neben Sprach- und Kontaktschwierigkeiten spielt seit der Flüchtlingsbewegung der Aufenthaltsstatus eine besondere Rolle, da er mit großer Unsicherheit bei den Lebensperspektiven und sonstigen Belastungen der Geflüchteten einhergeht (Vertovic 2007; Robert Bosch-Stiftung 2016; Brücker u.a./et al 2016).
Das Anliegen, die Teilnahmemöglichkeiten an der Gesellschaft zu erweitern, hat in den jeweiligen Stadtgebieten ganz unterschiedliche Voraussetzungen nach Aufenthaltstitel, Qualifikation, Alter oder Familiensituation der Bewohnerinnen und Bewohner.
Im Folgenden werden die stadtsozilogischen Erhebungen separat vorgestellt. Im ersten Teil werden die zentralen Indikatoren die das statistische Amt zur Verfügung stellt, so kleinräumig wie möglich vorgestellt. Die zentralen Indikatoren beziehen sich auf die Demografie und die soziale Lage von Migranten/innen und nicht Migranten/innen. Im zweiten Teil wird das Zusammenleben in ausgewählten Quartieren mit hohem Ausländer/innen bzw. Flüchtlingsanteil behandelt. Der dritte Teil beruht auf einer quantitativen Befragung im Rahmen der Interkulturellen Woche im September 2017, die auf Gemeinsamkeiten und Unterschiede der Wahrnehmung von Integration von Zugewanderten und Mehrheitsgesellschaft abzielt.
In Rheinland-Pfalz hinterlässt der demografische Wandel insbesondere in den ländlichen Regionen seine Spuren und die Gesellschaft wird „älter, bunter, weniger“. Ministerpräsidentin Malu Dreyer verdeutlichte bereits in ihrer Regierungserklärung 2013, dass auch die Förderpolitik des Landes neu ausgerichtet werden muss, um den Herausforderungen des demografischen Wandels frühzeitig begegnen zu können. Dabei sind die stärkere Zusammenarbeit der Kommunen sowie die gemeinsame Erarbeitung von überörtlichen Entwicklungskonzepten notwendig, um den gemeinsamen Bedürfnissen Rechnung tragen zu können. Die Entwicklungskonzepte sollen auf Basis von moderierten Beteiligungsprozessen entstehen, da die Bürgerinnen und Bürger am besten wissen, wie sich die Bedarfe in einer Region aufgrund des demografischen Wandels ändern.
In diesem Zusammenhang startete das Land Rheinland-Pfalz im Jahr 2013 die Zukunftsinitiative „Starke Kommunen – Starkes Land“, welche ein 30-monatiges landesweites Beratungs- und Begleitprojekt darstellte. Der Wettbewerb im Jahr 2013 richtete sich an die Verbandsgemeinden und verbandsfreien Gemeinden in Rheinland-Pfalz, an dessen Ende sechs Modellräume ausgewählt wurden. In diesen wurden Möglichkeiten von Bürgerbeteiligungen und langfristiger interkommunaler Zusammenarbeit auf Verbandsgemeinde-Ebene erprobt und ausgewertet.
Prof. Steinebach und das Team begleiteten die Zukunftsinitiative wissenschaftlich. Der Aufgabenbereich umfasste dabei die Evaluierung der organisatorischen Struktur und des Projektaufbaus, die Analyse der inhaltlichen Themenfelder sowie die Untersuchung und Bewertung der interkommunalen Kooperation. Am Ende der wissenschaftlichen Begleitung wurden die Ergebnisse aufgearbeitet und Handlungsempfehlungen gegeben. Daraus sollen Rückschlüsse für die Förderpolitik des Landes gezogen werden.
Im Zeitraum von März bis Mai 2017 wurde eine Evaluierung der Zukunftsinitiative durchgeführt. Diese ist im Download enthalten.
Order-semi-primal lattices
(1994)
A nonequilibrium situation governed by kinetic equations with strongly contrasted Knudsen numbers in different subdomains is discussed. We consider a domain decomposition problem for Boltzmann- and Euler equations, establish the correct coupling conditions and prove the validity of the obtained coupled solution . Moreover numerical examples comparing different types of coupling conditions are presented.
We are concerned with a parameter choice strategy for the Tikhonov regularization \((\tilde{A}+\alpha I)\tilde{x}\) = T* \(\tilde{y}\)+ w where \(\tilde{A}\) is a (not necessarily selfadjoint) approximation of T*T and T*\(\tilde y\)+ w is a perturbed form of the (not exactly computed) term T*y. We give conditions for convergence and optimal convergence rates.
We study high dimensional integration in the quantum model of computation. We develop quantum algorithms for integration of functions from Sobolev classes \(W^r_p [0,1]^d\) and analyze their convergence rates. We also prove lower bounds which show that the proposed algorithms are, in many cases, optimal within the setting of quantum computing. This extends recent results of Novak on integration of functions from Hölder classes.
In this paper, the complexity of full solution of Fredholm integral equations of the second kind with data from the Sobolev class \(W^r_2\) is studied. The exact order of information complexity is derived. The lower bound is proved using a Gelfand number technique. The upper bound is shown by providing a concrete algorithm of optimal order, based on a specific hyperbolic cross approximation of the kernel function. Numerical experiments are included, comparing the optimal algorithm with the standard Galerkin method.
A polynomial function \(f : L \to L\) of a lattice \(\mathcal{L}\) = \((L; \land, \lor)\) is generated by the identity function id \(id(x)=x\) and the constant functions \(c_a (x) = a\) (for every \(x \in L\)), \(a \in L\) by applying the operations \(\land, \lor\) finitely often. Every polynomial function in one or also in several variables is a monotone function of \(\mathcal{L}\).
If every monotone function of \(\mathcal{L}\)is a polynomial function then \(\mathcal{L}\) is called orderpolynomially complete. In this paper we give a new characterization of finite order-polynomially lattices. We consider doubly irreducible monotone functions and point out their relation to tolerances, especially to central relations. We introduce chain-compatible lattices
and show that they have a non-trivial congruence if they contain a finite interval and an infinite chain. The consequences are two new results. A modular lattice \(\mathcal{L}\) with a finite interval is order-polynomially complete if and only if \(\mathcal{L}\) is finite projective geometry. If \(\mathcal{L}\) is simple modular lattice of infinite length then every nontrivial interval is of infinite length and has the same cardinality as any other nontrivial interval of \(\mathcal{L}\). In the last sections we show the descriptive power of polynomial functions of
lattices and present several applications in geometry.
On derived varieties
(1996)
Derived varieties play an essential role in the theory of hyperidentities. In [11] we have shown that derivation diagrams are a useful tool in the analysis of derived algebras and varieties. In this paper this tool is developed further in order to use it for algebraic constructions of derived algebras. Especially the operator \(S\) of subalgebras, \(H\) of homomorphic irnages and \(P\) of direct products are studied. Derived groupoids from the groupoid \(N or (x,y)\) = \(x'\wedge y'\) and from abelian groups are considered. The latter class serves as an example for fluid algebras and varieties. A fluid variety \(V\) has no derived variety as a subvariety and is introduced as a counterpart for solid varieties. Finally we use a property of the commutator of derived algebras in order to show that solvability and nilpotency are preserved under derivation.
It is shown that Tikhonov regularization for ill- posed operator equation
\(Kx = y\) using a possibly unbounded regularizing operator \(L\) yields an orderoptimal algorithm with respect to certain stability set when the regularization parameter is chosen according to the Morozov's discrepancy principle. A more realistic error estimate is derived when the operators \(K\) and \(L\) are related to a Hilbert scale in a suitable manner. The result includes known error estimates for ordininary Tikhonov regularization and also the estimates available under the Hilbert scale approach.
The article provides an asymptotic probabilistic analysis of the variance of the number of pivot steps required by phase II of the "shadow vertex algorithm" - a parametric variant of the simplex algorithm, which has been proposed by Borgwardt [1] . The analysis is done for data which satisfy a rotationally
invariant distribution law in the \(n\)-dimensional unit ball.
Let \(a_i i:= 1,\dots,m.\) be an i.i.d. sequence taking values in \(\mathbb{R}^n\). Whose convex hull is interpreted as a stochastic polyhedron \(P\). For a special class of random variables which decompose additively relative to their boundary simplices, eg. the volume of \(P\), integral representations of their first two moments are given which lead to asymptotic estimations of variances for special "additive variables" known from stochastic approximation theory in case of rotationally symmetric distributions.
Let \(a_1,\dots,a_m\) be independent random points in \(\mathbb{R}^n\) that are independent and identically distributed spherically symmetrical in \(\mathbb{R}^n\). Moreover, let \(X\) be the random polytope generated as the convex hull of \(a_1,\dots,a_m\) and let \(L_k\) be an arbitrary \(k\)-dimensional
subspace of \(\mathbb{R}^n\) with \(2\le k\le n-1\). Let \(X_k\) be the orthogonal projection image of \(X\) in \(L_k\). We call those vertices of \(X\), whose projection images in \(L_k\) are vertices of \(X_k\)as well shadow vertices of \(X\) with respect to the subspace \(L_k\) . We derive a distribution independent sharp upper bound for the expected number of shadow vertices of \(X\) in \(L_k\).
Let (\(a_i)_{i\in \bf{N}}\) be a sequence of identically and independently distributed random vectors drawn from the \(d\)-dimensional unit ball \(B^d\)and let \(X_n\):= convhull \((a_1,\dots,a_n\)) be the random polytope generated by \((a_1,\dots\,a_n)\). Furthermore, let \(\Delta (X_n)\) : = (Vol \(B^d\) \ \(X_n\)) be the deviation of the polytope's volume from the volume of the ball. For uniformly distributed \(a_i\) and \(d\ge2\), we prove that tbe limiting distribution of \(\frac{\Delta (X_n)} {E(\Delta (X_n))}\) for \(n\to\infty\) satisfies a 0-1-law. Especially, we provide precise information about the asymptotic behaviour of the variance of \(\Delta (X_n\)). We deliver analogous results for spherically symmetric distributions in \(B^d\) with regularly varying tail.
Let \(a_1,\dots,a_m\) be i.i .d. vectors uniform on the unit sphere in \(\mathbb{R}^n\), \(m\ge n\ge3\) and let \(X\):= {\(x \in \mathbb{R}^n \mid a ^T_i x\leq 1\)} be the random polyhedron generated by. Furthermore, for linearly independent vectors \(u\), \(\bar u\) in \(\mathbb{R}^n\), let \(S_{u, \bar u}(X)\) be the number of shadow vertices of \(X\) in \(span (u, \bar u\)). The paper provides an asymptotic expansion of the expectation value \(E (S_{u, \bar u})\) for fixed \(n\) and \(m\to\infty\). The first terms of the expansion are given explicitly. Our investigation of \(E (S_{u, \bar u})\) is closely connected to Borgwardt's probabilistic analysis of the shadow vertex algorithm - a parametric variant of the simplex algorithm. We obtain an improved asymptotic upper bound for the number of pivot steps required by the shadow vertex algorithm for uniformly on the sphere distributed data.
Let \(A\):= {\(a_i\mid i= 1,\dots,m\)} be an i.i.d. random sample in (\mathbb{R}^n\), which we consider a random polyhedron, either as the convex hull of the \(a_i\) or as the intersection of halfspaces {\(x \mid a ^T_i x\leq 1\)}. We introduce a class of polyhedral functionals we will call "additive-type functionals", which covers a number of polyhedral functionals discussed in different mathematical fields, where the emphasis in our contribution will be on those, which arise in linear optimization theory. The class of additive-type functionals is a suitable setting in order to unify and to simplify the asymptotic probabilistic analysis of first and second moments of polyhedral functionals. We provide examples of asymptotic results on expectations and on variances.
Let \(a_1,\dots,a_n\) be independent random points in \(\mathbb{R}^d\) spherically symmetrically but not necessarily identically distributed. Let \(X\) be the random polytope generated as the convex hull of \(a_1,\dots,a_n\) and for any \(k\)-dimensional subspace \(L\subseteq \mathbb{R}^d\) let \(Vol_L(X) :=\lambda_k(L\cap X)\) be the volume of \(X\cap L\) with respect to the \(k\)-dimensional Lebesgue measure \(\lambda_k, k=1,\dots,d\). Furthermore, let \(F^{(i)}\)(t):= \(\bf{Pr}\) \(\)(\(\Vert a_i \|_2\leq t\)),
\(t \in \mathbb{R}^+_0\) , be the radial distribution function of \(a_i\). We prove that the expectation
functional \(\Phi_L\)(\(F^{(1)}, F^{(2)},\dots, F^{(n)})\) := \(E(Vol_L(X)\)) is strictly decreasing in
each argument, i.e. if \(F^{(i)}(t) \le G^{(i)}(t)t\), \(t \in {R}^+_0\), but \(F^{(i)} \not\equiv G^{(i)}\), we show \(\Phi\) \((\dots, F^{(i)}, \dots\)) > \(\Phi(\dots,G^{(i)},\dots\)). The proof is clone in the more general framework
of continuous and \(f\)- additive polytope functionals.
Let \(a_1, i:=1,\dots,m\), be an i.i.d. sequence taking values in \(\mathbb{R}^n\), whose convex hull is interpreted as a stochastic polyhedron \(P\). For a special class of random variables, which decompose additively relative to their boundary simplices, eg. the volume of \(P\), simple integral representations of its first two moments are given in case of rotationally symmetric distributions in order to facilitate estimations of variances or to quantify large deviations from the mean.
Max ordering (MO) optimization is introduced as tool for modelling production
planning with unknown lot sizes and in scenario modelling. In MO optimization a feasible solution set \(X\) and, for each \(x\in X, Q\) individual objective functions \(f_1(x),\dots,f_Q(x)\) are given. The max ordering objective
\(g(x):=max\) {\(f_1(x),\dots,f_Q(x)\)} is then minimized over all \(x\in X\).
The paper discusses complexity results and describes exact and approximative
algorithms for the case where \(X\) is the solution set of combinatorial
optimization problems and network flow problems, respectively.
In this paper the existence of translation transversal designs which is equivalent to the existence of certain particular partitions in finite groups is studied. All considerations are based on the fact that the particular component of such a partition (the component representing the point classes of the corresponding design) is a normal subgroup of the translation group. With regard to groups admitting an (s,k,\(\lambda\))-partiton, on one hand the already known families of such groups are determined without using R. BAER's, 0.H.KEGEL's and M. SUZUKI' s classification of finite groups with partition and on the other hand some new results on the special structure of p - groups are proved. Furthermore, the existence of a series of nonabelian p - groups of odd order which can be represented as translation groups of certain (s,k,1) - translation transversal designs is shown; moreover, the translation groups are normal subgroups of collineation groups acting regularly on the set of flags of the same designs.
We show that the different module structures of GF(\(q^m\)) arising from the intermediate fields of GF(\(q^m\))and GF(q) can be studied simultaneously with the help of some basic properties of cyclotomic polynomials. We use this ideas to give a detailed and constructive proof of the most difficult part of a Theorem of D. Blessenohl and K. Johnsen (1986), i.e., the existence of elements v in GF(\(q^m\)) over GF(q) which generate normal bases over any intermediate field of GF(\(q^m\)) and GF(q), provided that m is a prime power. Such elements are called completely free in GF(\(q^m\)) over GF(q). We develop a recursive formula for the number of completely free elements in GF(\(q^m\)) over GF(q) in the case where m is a prime power. Some of the results can be generalized to finite cyclic Galois extensions
over arbitrary fields.
In this paper we continue the study of p - groups G of square order \(p^{2n}\) and investigate the existence of partial congruence partitions (sets of mutually disjoint subgroups of order \(p^n\)) in G. Partial congruence partitions are used to construct translation nets and partial difference sets, two objects studied extensively in finite geometries and combinatorics. We prove that the maximal number of mutually disjoint subgroups of order \(p^n\) in a group G of order \(p^{2n}\) cannot be more than \((p^{n-1}-1)(p-1)^{-1}\) provided that \(n\ge4\)and that G is not elementary abelian. This improves a result in [6] and as we do not distinguish the cases p=2 and p odd in the present paper, we also have a generalization of D. FROHARDT' s theorem on 2 - groups in [4]. Furthermore we study groups of order \(p^6\). We can show that for each odd prime number, there exist exactly four nonisomorphic groups which contain at least p+2 mutually disjoint subgroups of order \(p^3\). Again, as we do not distinguish between the even and the odd case in advance, we in particular obtain
D. GLUCK' s and A. P. SPRAGUE' s classification of groups of order 64 which contain at least 4 mutually disjoint subgroups of order 8 in [5] and [13] respectively.
A Remark on Primes of the Form \(2^{3n}a + 2^{2n}b+2^nc+1\). Necessary and sufficient conditions for the numbers in the title to be prime are given. The tests are well suited for practical purposes.
We present a generalization of Proth's theorem for testing certain large integers for primality. The use of Gauß sums leads to a much simpler approach to these primality criteria as compared to the earlier tests. The running time of the algorithms is bounded by a polynomial in the length of the input string. The applicability of our algorithms is linked to certain diophantine approximations of \(l\)-adic roots of unity.
We survey old and new results about optimal algorithms for summation of finite sequences and for integration of functions from Hölder or Sobolev spaces. First we discuss optimal deterministic and randornized algorithms. Then we add a new aspect, which has not been covered before on conferences
about (quasi-) Monte Carlo methods: quantum computation. We give a short introduction into this setting and present recent results of the authors on optimal quantum algorithms for summation and integration. We discuss comparisons between the three settings. The most interesting case for Monte
Carlo and quantum integration is that of moderate smoothness \(k\) and large dimension \(d\) which, in fact, occurs in a number of important applied problems. In that case the deterministic exponent is negligible, so the \(n^{-1/2}\) Monte Carlo and the \(n^{-1}\) quantum speedup essentially constitute the entire convergence rate.
Free Form Volumes
(1994)
Die dreidimensionale Darstellung hybrider Datensätze hat sich in den letzten Jahren als
ein wichtiger Teilbereich der wissenschaftlichen Visualisierung etabliert. Hybride Datensätze enthalten sowohl diskrete Volumendaten als auch durch geometrische Primitive
definierte Objekte. Bei der visuellen Verarbeitung einer gegebenen Szene spielen Schatteninformationen eine wichtige Rolle, indem sie die Beziehungen von Objekten untereinander verständlich machen. Wir beschreiben ein einfaches Verfahren zur Berechnung von Schatteninformation, das in ein bestehendes System zur Visualisierung hybrider Datensätze integriert wurde. An einem Beispiel aus der klinischen Anwendung werden die Ergebnisse illustriert.
Software development organizations measure their real-world processes, products, and resources to achieve the goal of improving their practices. Accurate and useful measurement relies on explicit models of the real-world processes, products, and resources. These explicit models assist with planning measurement, interpreting data, and assisting developers with their work. However, little work has been done on the joint use of measurem(int and process technologies. We hypothesize that it is possible to integrate measurement and process technologies in a way that supports automation of measurement-based feedback. Automated support for measurementbased feedback means that software developers and maintainers are provided with on-line, detailed information about their work. This type of automated support is expected to help software professionals gain intellectual control over their software projects. The dissertation offers three major contributions. First, an integrated measurement and
process modeling framework was constructed. This framework establishes the necessary foundation for integrating measurement and process technologies in a way that will permit automation. Second, a process-centered software engineering environment was developed to support measurement-based feedback. This system provides personnel with information about the tasks expected of them based on an integrated set of measurement and process views. Third, a set of assumptions and requirements about that system were examined in a controlled experiment. The experiment compared the use of different levels of automation to evaluate the acceptance and effectiveness of measurement-based feedback.
Hyperidentities
(1992)
The concept of a free algebra plays an essential role in universal algebra and in computer science. Manipulation of terms, calculations and the derivation of identities are performed in free algebras. Word problems, normal forms, system of reductions, unification and finite bases of identities are topics in algebra and logic as well as in computer science. A very fruitful point of view is to consider structural properties of free algebras. A.I. Malcev initiated a thorough research of the congruences of free algebras. Henceforth congruence permutable, congruence distributive and congruence modular varieties are
intensively studied. A lot of Malcev type theorems are connected to the congruence lattice of free algebras. Here we consider free algebras as semigroups of compositions of terms and more specific as clones of terms. The properties of these semigroups and clones are adequately described by hyperidentities. Naturally a lot of theorems of "semigroup" or "clone" type can be derived. This topic of research is still in its beginning and therefore a lot öf concepts and results cannot be presented in a final and polished form. Furthermore a lot of problems and questions are open which are of importance for the further development of the theory of hyperidentities.
Wireless LANs operating within unlicensed frequency bands require random access schemes such as CSMA/ CA, so that wireless networks from different administrative domains (for example wireless community networks) may co-exist without central coordination, even when they happen to operate on the same radio channel. Yet, it is evident that this Jack of coordination leads to an inevitable loss in efficiency due to contention on the MAC layer. The interesting question is, which efficiency may be gained by adding coordination to existing, unrelated wireless networks, for example by self-organization. In this paper, we present a methodology based on a mathematical programming formulation to determine the
parameters (assignment of stations to access points, signal strengths and channel assignment of both access points and stations) for a scenario of co-existing CSMA/ CA-based wireless networks, such that the contention between these networks is minimized. We demonstrate how it is possible to solve this discrete, non-linear optimization problem exactly for small
problems. For larger scenarios, we present a genetic algorithm specifically tuned for finding near-optimal solutions, and compare its results to theoretical lower bounds. Overall, we provide a benchmark on the minimum contention problem for coordination mechanisms in CSMA/CA-based wireless networks.
W-Lisp Sprachbeschreibung
(1993)
W-Lisp [Wippennann 91] ist eine Sprache, die im Bereich der Implementierung höherer
Programmiersprachen verwendet wird. Ihre Anwendung ist nicht auf diesen Bereich beschränkt. Gute Lesbarkeit der W-Lisp-Notation wird durch zahlreiche Anleihen aus dem Bereich der bekannten imperativen Sprachen erzielt. W-Lisp-Programme können im Rahmen eines Common Lisp-Systems ausgeführt werden. In der WLisp Notation können alle Lisp-Funktionen (inkl. MCS) verwendet werden, so daß die Mächtigkeit von Common-Lisp [Steele 90] in dieser Hinsicht auch in W-Lisp verfügbar ist.
Neuronale Netze sind ein derzeit (wieder) aktuelles Thema. Trotz der oft eher schlagwortartigen
Verwendung dieses Begriffs beinhaltet er eine Vielfalt von Ideen, unterschiedlichste methodische
Ansätze und konkrete Anwendungsmöglichkeiten. Die grundlegenden Vorstellungen sind dabei nicht neu, sondern haben eine mitunter recht lange Tradition in angrenzenden Disziplinen wie Biologie, Kybernetik , Mathematik und Physik . Vielversprechende Forschungsergebnisse der letzten Zeit haben dieses Thema wieder in den Mittelpunkt des Interesses gerückt und eine Vielzahl neuer Querbezüge zur Informatik und Neurobiologie sowie zu anderen, auf den ersten Blick weit entfernten Gebieten offenbart. Gegenstand des Forschungsgebiets Neuronale Netze ist dabei die Untersuchung und Konstruktion informationsverarbeitender Systeme, die sich aus vielen mitunter nur sehr primitiven, uniformen Einheiten zusammensetzen und deren wesentliches Verarbeitungsprinzip die Kommunikation zwischen diesen Einheiten ist, d.h. die Übertragung von Nachrichten oder Signalen. Ein weiteres
Charakteristikum dieser Systeme ist die hochgradig parallele Verarbeitung von Information innerhalb
des Systems. Neben der Modellierung kognitiver Prozesse und dem Interesse, wie das menschliche Gehirn komplexe kognitive Leistungen vollbringt, ist über das rein wissenschaftliche Interesse hinaus in zunehmendem Maße auch der konkrete Einsatz neuronaler Netze in verschiedenen technischen Anwendungsgebieten zu sehen. Der vorliegende Report beinhaltet die schriftlichen Ausarbeitungen der Teilnehmerinnen des Seminars Theorie und Praxis neuronaler Netze , das von der Arbeitsgruppe Richter im Sommersemester 1993 an der Universität Kaiserslautern veranstaltet wurde. Besonderer Wert wurde darauf gelegt, nicht nur die theoretischen Grundlagen neuronaler Netze zu behandeln, sondern auch deren Einsatz in der Praxis zu diskutieren. Die Themenauswahl spiegelt einen Teil des weiten Spektrums der Arbeiten auf diesem Gebiet wider. Ein Anspruch auf Vollständigkeit kann daher nicht erhoben werden. Insbesondere sei darauf verwiesen, daß für eine intensive, vertiefende Beschäftigung mit einem Thema auf die jeweiligen Originalarbeiten zurückgegriffen werden sollte. Ohne die Mitarbeit der Teilnehmerinnen und Teilnehmer des Seminars wäre dieser Report nicht möglich gewesen. Wir bedanken uns daher bei Frank Hauptmann, Peter Conrad, Christoph Keller, Martin Buch, Philip Ziegler, Frank Leidermann, Martin Kronenburg, Michael Dieterich, Ulrike Becker, Christoph Krome, Susanne Meyfarth , Markus Schmitz, Kenan Çarki, Oliver Schweikart, Michael Schick und Ralf Comes.
This report presents a generalization of tensor-product B-spline surfaces. The new scheme permits knots whose endpoints lie in the interior of the domain rectangle of a surface. This allows local refinement of the knot structure for approximation purposes as well as modeling surfaces with local tangent or curvature discontinuities. The surfaces are represented in terms of B-spline basis functions, ensuring affine invariance, local control, the convex hull property, and evaluation by de Boor's algorithm. A dimension formula for a class of generalized tensor-product spline spaces is developed.
We present a methodology to augment system safety step-by-step and illustrate the approach by the definition of reusable solutions for the detection of fail-silent nodes - a watchdog and a heartbeat. These solutions can be added to real-time system designs, to protect against certain types of system failures. We use SDL as a system design language for the development of distributed systems, including real-time systems.
Ein maßgeschneidertes Kommunikationssystem für eine mobile Applikation mit Dienstgüteanforderungen
(2004)
In diesem Beitrag wird die Maßschneiderung eines Ad-Hoc-Kommunikationssystems zur Fernsteuerung eines Luftschiffs über WLAN vorgestellt. Dabei steht die Dienstunterstützung bei der Übertragung mehrerer Datenströme im Vordergrund. Es werden verschiedene Dienstgütemechanismen erklärt und deren Entwicklung und Integration in ein Kommunikationsprotokoll mit Hilfe eines komponentenbasierten Ansatzes genauer erläutert.
Interactive graphics has been limited to simple direct illumination that commonly results in an artificial appearance. A more realistic appearance by simulating global illumination effects has been too costly to compute at interactive rates. In this paper we describe a new Monte Carlo-based global illumination algorithm. It achieves performance of up to 10 frames per second while arbitrary changes to the scene may be applied interactively. The performance is obtained through the effective use of a fast, distributed ray-tracing engine as well as a new interleaved sampling technique for parallel Monte Carlo simulation. A new filtering step in combination with correlated sampling avoids the disturbing noise artifacts common to Monte Carlo methods.
Die Sichten von Projektmitgliedern auf Prozesse von Software-Entwicklungen sollen in der Prozeßmodellierungssprache MVP-L formuliert und anschließend in ein Umfassendes Prozeßmodell integriert werden. Dabei ist die Identifikation ähnlicher Informationen in verschiedenen Sichten von Bedeutung. In dieser Arbeit berichten
wir über die Adaption und Synthese verschiedener Ansätze zum Thema Ähnlichkeit aus unterschiedlichen Domänen (Schema-Integration beim Datenbank-Entwurf, Analoges und Fallbasiertes Schließen, Wiederverwendung und System-Spezifikation). Das Ergebnis, die Ähnlichkeitsfunktion vsim, wird anhand eines Referenzbeispiels illustriert. Dabei gehen wir insbesondere auf die Eigenschaft der Funktion vsim ein und berichten über Erfahrungen im Umgang mit dieser Funktion zur Berechnung der Ähnlichkeit zwischen Prozeßmodellen.
Formale Beschreibungstechniken (FDTs) erlauben durch ihre formale Syntax und Semantik eine präzise Systembeschreibung und sind Grundlage für die formale Verifikation. Bei der Implementierung von Systemen wird jedoch nach wie vor von Hand implementiert, selbst wenn ausgereifte Werkzeuge zur automatischen Generierung von Kode direkt aus der formalen Spezifikation existieren. Die Ursache dafür liegt in dem Ruf dieser Werkzeuge, Kode mit extrem geringer Leistungsfähigkeit zu erzeugen. Es gibt jedoch kaum quantitative Leistungsvergleiche zwischen manuell und automatisch generierten Implementierungen, die dieses Vorurteil stützen oder widerlegen könnten. In diesem Beitrag wird ein solcher Leistungsvergleich anhand des Hochleistungsprotokolls XTP und der FDT Estelle vorgestellt. Er liefert eine Bestandsaufnahme des momentanen Entwicklungsstandes bei der automatischen Generierung von Kode aus Estelle-Spezifikationen im direkten Vergleich zu gut optimierten Handimplementierungen. Es zeigt sich, daß in dem betrachteten Fall eines komplexen Protokolls die Handimplementierung zwar merklich leistungsstärker ist. Dieser Leistungsvorteil wird jedoch durch einen sehr hohen Implementierungsaufwand sowie die Schwierigkeit, die Korrektheit bzgl. der Spezifikation sicherzustellen, erkauft. Im einzelnen Anwendungsfall kann es daher trotz der Leistungseinbußen durchaus vorteilhaft sein, automatisch Kode zu erzeugen, zumal in der Bestandsaufnahme festgestellt wurde, daß automatisch generierte Implementierungen z.T. besser abschneiden als erwartet. Zudem besteht - anders als bei der bereits umfassend optimierten Handimplementierung - noch ein erhebliches ungenutztes Potential zur Leistungsverbesserung der automatisch generierten Implementierung.
Estelle is an internationally standardized formal description technique (FDT) designed for the specification of distributed systems, in particular communication protocols. An Estelle specification describes a system of communicating components (module instances). The specified system is closed in a topological sense, i.e. it has no ability to interact with some environment. Because of this restriction, open systems can only be specified together with and incorporated with an environment. To overcome this restriction, we introduce a compatible extension of Estelle, called "Open Estelle". It allows the specification of (topologically) open systems, i.e. systems that have the ability to communicate with any environment through a well-defined external interface. We define aformal syntax and a formal semantics for Open Estelle, both based on and extending the syntax and semantics of Estelle. The extension is compatible syntactically and semantically, i.e. Estelle is a subset of Open Estelle. In particular, the formal semantics of Open Estelle reduces to the Estelle semantics in the special case of a closed system. Furthermore, we present a tool for the textual integration of open systems into environments specified in Open Estelle, and a compiler for the automatic generation of implementations directly from Open Estelle specifications.
This paper describes some new algorithms for the accurate calculation of surface properties. In the first part an arithmetic on Bézier surfaces is introduced. Formulas are given, which determine the Bézier points and weights of the resulting surface from the points and weights of the operand surfaces. An application of the arithmetic operations to the surface interrogation methods are described in the second part. It turns out, that the quality analysis can be reduced to a few numerical stable operations. Finally the advantages and disadvantages of this method are discussed.
In den Modellierungssystemen des CAD/CAM werden oft unterschiedliche Methoden zur mathematischen Beschreibung von Freiformkurven und -flächen eingesetzt. Als Basisfunktionen können sowohl Monome, Bernstein-Polynome, B-Spline-Basisfunktionen als auch nicht lineare Funktionen auftreten. In den einzelnen CAD-Systemen kann der maximal zulässige Grad dieser Basisfunktionen variieren. Müssen nun Daten zwischen verschiedenen CAD-Systemen ausgetauscht werden, so muß u. U. eine Basistransformation
und/oder eine Gradanpassung durchgeführt werden. Diese Transformationen sind i.a. nicht exakt möglich. Hier sind geeignete, möglichst optimale Approximationen nötig. Bisher wurden verschiedene Verfahren entwickelt. Das älteste geht zurück auf Forrest [Forr72]. Farin [FAR90] invertiert den Prozeß der Graderhöhung. Watkins und Worsey [Wat88] sowie Lachance [Lach88] reduzieren den Polynomgrad in der Tschebyscheff-Basis. Hoschek et al. [Hos89] sowie Plass und Stone [Plas83] approximieren die Kurve bzw. Fläche punktweise. Dadurch lassen sich alle Kurven- und Flächenrepräsentationen durch eine Bézier-Darstellung approximieren. Ein Approximationsfehler kann jedoch auch nur punktweise garantiert werden. Durch einen anschließenden Parameteriterationsprozeß läßt sich eine weitere Approximationsverbesserung erzielen. Eine solche Parameterkorrektur ist jedoch nur dann sinnvoll, wenn die Parametrisierung der Approximationskurve bzw. -fläche frei gewählt werden kann. In Fällen, in denen die Funktionswerte dei; zu approximierenden Flächen bzgl. ihrer Parameterwerte mit anderen Flächen korrespondieren, darf keine Parameteränderung durchgeführt werden, wie z.B. bei der Approximation sogenannter Eigenschaftsflächen, die eine bestimmte Eigenschaft einer anderen Fläche, wie etwa die Gausskrümmung oder die Normalenrichtung darstellen. In dieser Arbeit wird ein Verfahren zur optimalen Gradreduktion von Bézierkurven und -flächen vorgestellt. Damit eine \(C^0\)-stetige Approximation innerhalb einer vom Benutzer vorgegebenen Fehlertoleranz durchgeführt werden kann, muß die Approximation mindestens eine Berührordnung ersten Grades mit der Originalkurve bzw. -fläche aufweisen. Mit Hilfe arithmetischer Operationen auf Bézierdarstellungen [Faro88], [Schr92] werden lineare Gleichungssysteme für eine optimale Belegung der freien Parameter aufgestellt, sowie eine Fehlerkurve bzw. -fläche in Bézierform berechnet, um die Einhaltung einer Fehlertoleranz zu gewährleisten.
In der CAGD Literatur werden häufig Ableitungen und Graderhöhungen von Bezierkurven und -flächen wiederum in Bezierform angegeben [1][2][3][6]. Meistens werden diese Darstellungen nur für theoretische Betrachtungen verwendet, z.B. geometrischer Deutung von Stetigkeiten zwischen angrenzenden Flächenstücken. Für praktische Anwendungen reicht die Menge der Operationen jedoch nicht aus. Farouki und Rajan [4] zeigten, daß die Resultate arithmetischer Operationen, wie Addition und Multiplikation auf Bezierkurven auch als Bezierkurven darstellbar sind. Hier werden wir die Operationen auf polynomiale und rationale Tensorprodukt Bezierflächen und Flächen über Dreiecken ausdehnen. Eine Erweiterung auf rationale Flächen ermöglicht insbesondere die Ausführung einer Division, wie sie für viele Anwendungen benötigt wird. Das Rechnen mit Flächen hat im Gegensatz zu punktweisen Auswertungen den Vorteil gleichzeitig mit Hilfe von notwendigen Bedingungen an das entstandene Beziernetz sichere Ergebnisabschätungen angeben zu können. Diese lassen sich für adaptive Verfahren nutzen und sind insbesondere dort wichtig, wo es auf exakte Aussagen über das Verhalten von Flächen ankommt, wie z.B. bei der Qualitätsanalyse von Freiformflächen [5]. Mit Hilfe der hier vorgestellten Operationen läßt sich u.a. an Vorzeichenwechseln erkennen, ob eine zu untersuchende Bezierfläche konvex ist oder nicht (siehe Kapitel 4). Außerdem können Fehler, die bei punktweisen Auswertungen auf Gittern mit großer Maschenweite entstehen, vermieden werden. Nachdem in Kapitel 2 die zum Verständnis nötigen Definitionen und Schreibweisen erläutert wurden, werden in Kapitel 3 die grundlegenden Operationen für eine Arithmetik
auf Bezierflächen beschrieben. Dabei werden Formeln angegeben, die die Bezierpunkte und Gewichte der Ergebnisfläche aus denen der Operandenflächen bestimmen. Durch Aneinanderreihung und Verkettung einzelner Operationen lassen sich dann komplexe Berechnungen mit der gesamten Fläche ausführen. Zum Schluß werden in Kapitel 4 einige Beispiele aus dem Bereich der Qualitätsanalyse von Freiformflächen angegeben.
Partitioned chain grammars
(1979)
This paper introduces a new class of grammars, the partitioned chain grammars, for which efficient parsers can be automatically generated. Besides being efficiently parsable these grammars possess a number of other properties, which make them very attractive for the use in parser-generators. They for instance form a large grammarclass and describe all deterministic context-free languages. Main advantage of the partitioned chain grammars however is, that given a language it is usually easier to describe it by a partitioned chain grammar than to construct a grammar of some other type commonly used in parser-generators for it.
Software-Projekte bestehen aus einer Vielzahl von Teilaufgaben, die durch komplexe Wechselbeziehungen miteinander verknüpft sind. Systematische Unterstützung bei der Durchführung von Software-Projekten erfordert deshalb nicht nur die isolierte Unterstützung einzelner Teilaufgaben, sondern insbesondere der Wechselbeziehungen. Außerdem müssen Aktivitäten des Messens und Bewertens durchgeführt werden, um quantitative Aussagen über Produkte und Prozesse ableiten zu können. Ziel des MVP-Projekts (Multi-View Process modeling) ist es, derartige integrierte Unterstützung auf der Basis meßbarer Projektpläne zur Verfügung zu stellen. Projektpläne setzen sich dabei unter anderem aus Prozeß-, Produkt-, Ressourcen- und Qualitätsmodellen zusammen. Meßansätze werden nicht nur zur systematischen Unterstützung von Projekten, sondern auch zur Verbesserung existierender Prozeß-, Produkt-, Ressource- und Qualitätsmodelle aufgrund 'gemessener' Erfahrungswerte verwendet. Die Benutzer des MVP-Entwicklungssystems (MVP-S) werden durch ihre Rollen im Rahmen eines Projekts charakterisiert werden können. Es wird beschrieben, wie Rollen das MVP-System nutzen können. Dies geschieht entweder durch direkte Repräsentation ihrer Aufgaben als Prozesse oder indem die im Projektplan repräsentierte Information ausgewertet und präsentiert wird; entsprechend bezeichnen wir eine Rolle als "zustandsverändernd" oder als "zustandserfragend". Um diese Rollen zu unterstützen, existieren unterschiedliche Möglichkeiten abhängig vom Grad der Automatisierung. Es werden beispielhaft drei Stufen aufgezeigt. Anschließend wird die Realisierung einer prototypischen, qualitätsorientierten, prozeßsensitiven Software-Entwicklungsumgebung diskutiert. Zum Abschluß wird auf gegenwärtige und zukünftige Forschungsfragen im Rahmen des MVP-Projekts eingegangen.
The intuitionistic calculus mj for sequents, in which no other logical symbols than those for implication and universal quantification occur, is introduced and analysed. It allows a simple backward application, called mj-reduction here, for searching for derivation trees. Terms needed in mj-reduction can be found with the unification algorithm. mj-Reduction with unification can be seen as a natural extension of SLD-resolution. mj-Derivability of the sequents considered here coincides with derivability in Johansson's minimal intuitionistic calculus LHM in [6]. Intuitionistic derivability of formulae with negation and classical derivability of formulae with all usual logical symbols can be expressed with mj-derivability and hence be verified by mj-reduction. mj-Derivations can be easily translated into LJ-derivations without
"Schnitt", or into NJ-derivations in a slightly sharpened form of Prawitz' normal form. In the first three sections, the systematic use of mj-reduction for proving in predicate logic is emphasized. Although the fourth section, the last and largest, is exclusively devoted to the mathematical analysis of the calculus mj, the first three sections may be of interest to a wider readership, including readers looking for applications of symbolic logic. Unfortunately, the mathematical analysis of the calculus mj, as the study of Gentzen's calculi, demands a large amount of technical work that obscures the natural unfolding of the argumentation. To alleviate this, definitions and theorems are completely embedded in the text to provide a fluent and balanced mathematical discourse: new concepts are indicated with bold-face, proofs of assertions are outlined, or omitted when it is assumed that the reader can provide them.
Skelettbasierte implizite Flächen haben aufgrund ihrer Fähigkeit, durch automatisches Verschmelzen aus wenigen, einfachen Primitiven komplexe Strukturen zu formen, für Modellierung, Visualisierung und Animation zunehmend an Bedeutung gewonnen. Eine wesentliche Schwierigkeit beim Einsatz impliziter Flächen ist nach wie vor eine effiziente Visualisierung der resultierenden Objekte. In der vorliegenden
Arbeit werden die grundlegenden Ideen einer Methode zur partikelgestützten Triangulierung skelettbasierter impliziter Flächen beschrieben, die die Vorteile einer partikelgestützten Abtastung
impliziter Flächen mit der polygonalen Darstellung durch Dreiecke kombiniert. Der Algorithmus ist in der Lage, effizient auf dynamische Veränderungen der Gestalt sowie das Auseinanderreißen nicht allzu
komplexer implizit gegebener Objekte zu reagieren. Zusätzlich besteht die Möglichkeit, die Triangulierung krümmungsadaptiv zu gestalten, um bei gleichbleibender Darstellungsqualität eine Reduktion der Dreiecksanzahl zu erreichen.
A natural extension of SLD-resolution is introduced as a goal directed proof procedure
for the full first order implicational fragment of intuitionistic logic. Its intuitionistic semantic fits a procedural interpretation of logic programming. By allowing arbitrary nested implications it can be used for implementing modularity in logic programs. With adequate negation axioms it gives an alternative to negation as failure and leads to a proof procedure for full first order predicate logic.
The use of non-volatile semiconductor memory within an extended storage hierarchy promises significant performance improvements for transaction processing. Although page-addressable semiconductor memories like extended memory, solid-state disks and disk caches are commercially available since several years, no detailed investigation of their use for transaction processing has been performed so far. We present a comprehensive simulation study that compares the performance of these storage types and of different usage forms. The following usage forms are considered: allocation of entire log and database files in non-volatile semiconductor memory, using a so-called write buffer to perform disk writes asynchronously, and caching of database pages at intermediate storage levels (in addition to main memory caching). Our simulations are conducted with both synthetically generated workloads and traces from real-life database applications. In particular, simulation results will be presented for the debit-credit workload frequently used in transaction processing benchmarks. As expected, the greatest performance improvements (but at the highest cost) can be achieved by storing log and database files completely in non-volatile semiconductor memory. For update-intensive
workloads, a limited amount of non-volatile memory used as a write buffer also proved to be very effective. To reduce the number of disk reads; caching of database pages in addition to main memory is best supported by an extended memory buffer. In this respect, disk caches are found to be less effective as they are designed for one-level caching. Different storage costs suggest that it may be cost-effective to use two or even three of the intermediate storage types together. The performance improvements obtainable by the use of non-volatile semiconductor memory is also found to reduce the need for sophisticated DBMS buffer management in order to achieve high transaction processing performance.
The rapid development of any field of knowledge brings with it unavoidable fragmentation and proliferation of new disciplines. The development of computer science is no exception. Software engineering (SE) and human-computer interaction (HCI) are both relatively new disciplines of computer science. Furthermore, as both names suggest, they each have strong connections with other subjects. SE is concerned with methods and tools for general software development based on engineering principles. This discipline has its roots not only in computer science but also in a number of traditional engineering disciplines. HCI is concerned with methods and tools for the development of human-computer interfaces, assessing the usability of computer systems and with broader issues about how people interact with computers. It is based on theories about how humans process information and interact with computers, other objects and other people in the organizational and social contexts in
which computers are used. HCI draws on knowledge and skills from psychology, anthropology and sociology in addition to computer science. Both disciplines need ways of measuring how well their products and development processes fulfil their intended requirements. Traditionally SE has been concerned with 'how software is constructed' and HCI with 'how people use software'. Given the
different histories of the disciplines and their different objectives, it is not surprising that they take different approaches to measurement. Thus, each has its own distinct 'measurement culture.' In this paper we analyse the differences and the commonalties of the two cultures by examining the measurement approaches used by each. We then argue the need for a common measurement taxonomy and framework, which is derived from our analyses of the two disciplines. Next we demonstrate the usefulness of the taxonomy and framework via specific example studies drawn from our own work and that of others and show that, in fact, the two disciplines have many important similarities as well as differences and that there is some evidence to suggest that they are growing closer. Finally, we discuss the role of the taxonomy as a framework to support: reuse, planning future studies, guiding practice and facilitating communication between the two disciplines.
Optimization of Projection Methods for Solving ill-posed Problems. In this paper we propose a modification of the projection scheme for solving ill-posed problems. We show that this modification allows to obtain the best possible order of accuracy of Tikhonov Regularization using an amount of information which is far less than for the standard projection technique.
In this paper we show how Metropolis Light Transport can be extended both in the underlying theoretical framework and the algorithmic implementation to incorporate volumetric scattering.
We present a generalization of the path integral formulation thathandles anisotropic scattering in non-homogeneous media. Based on this framework we introduce a new mutation strategy that is
specifically designed for participating media. It exploits the locality of light propagation by perturbing certain interaction points within the medium. To efficiently sample inhomogeneous media a new ray marching method has been developed that avoids aliasing artefacts and is significantly faster than stratified sampling. The resulting global illumination algorithm provides a physically correct simulation of light transport in the presence of participating media that includes effects such as volume caustics and multiple volume scattering. It is not restricted to certain classes of geometry and scattering models and has minimal memory requirements. Furthermore, it is unbiased and robust, in the sense that it produces satisfactory results for a wide range of input scenes and lighting situations within acceptable time bounds. In particular, we found that it is weil suited for complex scenes with many light sources.
For most applications the used transport service providers are predetermined during the development of the application. This makes it difficult to consider the application communication requirements and to exploit specific features of the network technology. Specialized protocols that are more efficient and offer a qualitative improved service are typically not supported by most applications because they are not commonly available. In this paper we propose a concept for the realization of protocol independent transport services. Only a transport service is predetermined during the development of the application and an appropriate transport service provider is dynamically selected at run time. This enables to exploit specialized protocols if possible, but standard protocols could still be used if necessary. The main focus of this paper is how a transport service could provide a new transport service provider transparently to existing applications. A prototype is presented that maps TCP/IP based applications to an ATM specific transport service provider which offers a reliable and unreliable transport service like TCP/IP.
The Analytic Blossom
(2001)
Blossoming is a powerful tool for studying and computing with Bézier and B-spline curves and surfaces - that is, for the investigation and analysis of polynomials and piecewise polynomials in geometric modeling. In this paper, we define a notion of the blossom for Poisson curves. Poisson curves are to analytic functions what Bézier curves are to polynomials - a representation adapted to geometric design. As in the polynomial setting, the blossom provides a simple, powerful, elegant and computationally meaningful way to analyze Poisson curves. Here, we
define the analytic blossom and interpret all the known algorithms for Poisson curves - subdivision, trimming, evaluation of the function and its derivatives, and conversion between the Taylor and the Poisson basis - in terms of this analytic blossom.
Mobile Agenten im Internet
(2001)
Mobile Agenten haben sich in den letzten Jahren zunehmend in der Architektur und Programmierung verteilter Systeme bewährt. Es sind Programme, die einen Internen Zustand mit sich führen, während sie verschiedene, möglicherweise auf unterschiedlichen Plattformen basierende, Systeme besuchen. Auf dem jeweiligen System nehmen sie Dienste in Anspruch, indem sie entweder lokale Bibliotheken ansprechen, oder auf durch das System bereitgestellte Dienste zugreifen. Dabei müssen mobile Agenten sowohl alle vom Programm benötigten Daten, wie auch den gesamten Code mit sich führen. Zwar sind die Daten ein wichtiger (wenn nicht sogar der entscheidende) Teil eines Agenten, trotzdem wird in der Regel nicht als wertvoller, eigenständiger Part angesehen. Dies ist jedoch nicht immer ratsam, könnten doch Agenten am aktuellen Aufenthaltsort einen „Container" zurückzulassen um ihm anderen Agenten zur Verfügung zu stellen (natürlich erst nach erfolgter Zugriffskontrolle), bzw. die Daten erst dann auf ein Migrationsziel übertragen, wenn sich durch lokale Aufrufe des Systems herausgestellt hat, dass sie dort benötigt werden. Diese Arbeit ist zweigeteilt, insofern, als dass sie sich mit den zwei verschiedenen „Ebenen" der mobilen Agenten beschäftigt. Im ersten Teil werden die für die Migration und Nutzung der Resourcen notwendigen Aspekte besprochen. Dabei wird der Schwerpunkt auf die notwendige Unterstützung durch die Umgebung gelegt, wobei nicht eine neue integrierte Umgebung entworfen, sondern vielmehr die notwendigen Blöcke aufgezeigt werden sollen. Diese können dann als Teil eines Environments oder aber als eigentständige Komponente bereitsgestellt werden. Der zweite Teil beschäftigt sich mit den durch die Interaktion verschiedener Agenten entstehenden Probleme. Stichworte hierbei sind die Kostenkontrolle (wer bezahlt auf welche Art für in Anspruch genommene Dienste), Workflow Unterstützung, sowie Sicherheit in einem offenen, verteilten System, in dem es keine zentrale Überprüfung von Rechten und Identitäten geben kann. Abgeschlossen wird diese Ausarbeitung mit einer Bewertung der auf den beiden Ebenen gefundenen Problemen und Eigenheiten, wobei dann die Frage aufgeworfen wird, ob Agenten in der heutigen Form überhaupt sinnvoll sind.
Temporal stratifizierte Programme sind spezielle Logik-Programme auf der Grundlage einer linearen, temporalen Aussagenlogik, mit denen zustandsendliche reaktive Systeme spezifiziert werden können. Dabei wird die Umgebung eines zu implementierenden Steuerungsprogrammes durch eine Menge von PROLOG-ähnlichen Programmklauseln beschrieben; zusätzlich wird eine Sicherheitsbedingung angegeben, die in dem System gelten soll. Die Sprache ist so gestaltet, daß sie für resolutionsbasierte Verfahren zur Verifikation und Synthese von Steuerungsprogrammen geeignet ist. Wir zeigen, daß temporal stratifizierte Programme in ihrer Ausdrucksmächtigkeit endlichen Automaten gleichkommen.
In dieser Arbeit beschreiben wir einen Ansatz zur automatischen Synthese zustandsendlicher, reaktiver Systeme, ausgehend von einer rein deklarativen, logischen Spezifikation. Dazu verwenden wir temporal stratifizierte Programme,
das sind spezielle Logik-Programme auf der Grundlage einer linearen, temporalen Aussagenlogik. Die Umgebung eines zu implementierenden Steuerungsprogrammes wird hier durch eine Menge von PROLOG-ähnlichen Programmklauseln beschrieben; zusätzlich wird eine Sicherheitsbedingung angegeben, die in dem System gelten soll. Wir zeigen, wie durch eine solche Spezifikation ein sie implementierender endlicher Automat definiert ist und geben einen Algorithmus zu seiner Berechnung auf der Grundlage einer Fixpunkt-Iteration an.
In this work we propose a set of term-rewriting techniques for modelling object-oriented computation. Based on symbolic variants of explicit substitutions calculi, we show how to deal with imperative statements like assignment and sequence in specifications in a pure declarative style. Under our model, computation with classes and objects becomes simply normal form calculation, exactly as it is the case in term-rewriting based languages (for instance the functional languages). We believe this kind of unification between functions and
objects is important because it provides plausible alternatives for using the term-rewriting theory as an engine for supporting the formal and mechanical reasoning about object-oriented specifications.
Visualization of large data sets, especially on small machines, requires advanced techniques in image processing and image generation. Our hybrid raytracer is capable of rendering volumetric and geometric data simultaneously, without loss of accuracy due to data conversion. Compound data sets, consisting of several types of data, are called "hybrid data sets". There is only one rendering pipeline to obtain loss-less and efficient visualization of hybrid data. Algorithms apply to both types of data. Optical material properties are stored in the same data base for both volumetric and geometric objects, and anti-aliasing methods appeal to both data types. Stereoscopic display routines have been added to obtain true three-dimensional visualization on various media, and animation features allow generation of recordable 3-D sequences.
Trimming of surfaces and volumes, curve and surface modeling via Bézier's idea of destortion, segmentation, reparametrization, geometric continuity are examples of applications of functional composition. This paper shows how to
compose polynomial and rational tensor product Bézier representations. The problem of composing Bezier splines and B-spline representations will also be addressed in this paper.
The composition of Bézier curves and tensor product Bézier surfaces, polynomial as well as rational, is applied to exactly and explicitely represent trim curves of tensor product Bézier surfaces. Trimming curves are assumed to be defined as Bézier curves in surface parameter domain. A Bézier spline approximation of lower polynomial degree is built up as weil which is based on the exact trim curve representation in coordinate space.
We propose a framework for the synthesis of temporal logic programs which are formulated in a simple temporal logic programming language from both positive and negative examples. First we will prove that results from the theory of first order inductive logic programming carry over to the domain of temporal logic. After this we will show how programs formulated in the presented language can be generalized or specialized in order to satisfy the specification induced by the sets of examples.
We propose several algorithms for efficient Testing of logical Implication in the case of ground objects. Because the problem of Testing a set of propositional formulas for (un)satisfiability is \(NP\)-complete there's strong evidence that there exist examples for which every algorithm which solves the problem of testing for (un)satisfiability has a runtime that is exponential in the length of the input. So will have our algorithms. We will therefore point out classes of logic programs for which our algorithms have a lower runtime. At the end of this paper we will give an outline of an algorithm for theory refinement which is based on the algorithms described above.
Approximating illumination by point light sources, as done in many professional applications, suffers from the problem of the weak singularity: Numerical exceptions caused by the division by the squared distance between the point light source and the point to be illuminated must be avoided. Multiple importance sampling overcomes these problems by combining multiple sampling techniques by weights. Such a set of weights is called a heuristic. So far the estimators resulting from a heuristic only have been analyzed for variance. Since the cost of sampling is not at all constant for different sampling techniques, it is possible to find more efficient heuristics, even though they may hove higher variance. Based on our new stratification heuristic, we present a robust and unbiased global illumination algorithm. By numerical examples, we show that it is more efficient than previous heuristics. The algorithm is as simple as a path tracer, but elegantly avoids the problem of the weak singularity.
We present an algorithm for determining quadrature rules for computing the direct illumination of predominantly diffuse objects by high dynamic range images. The new method precisely reproduces fine shadow detail, is much more efficient as compared to Monte Carlo integration, and does not require any manual intervention.
As opposed to Monte Carlo integration the quasi-Monte Carlo method does not allow for an (consistent) error estimate from the samples used for the integral approximation. In addition the deterministic error bound of quasi-Monte Carlo integration is not accessible in the setting of computer graphics, since usually the integrands are of unbounded variation. The structure of the high dimensional functionals to be computed for photorealistic image synthesis implies the application of the randomized quasi-Monte Carlo method. Thus we can exploit low discrepancy sampling and at the same time we can estimate the variance. The resulting technique is much more efficient than previous bidirectional path tracing algorithms.
Der ProLan-X - Sprachreport
(1992)
Bei der Realisierung großer Software-Projekte treten immer wieder Probleme auf, was die
Koordination der Mitarbeiter, die Ausnutzung der vorhandenen Ressourcen und nicht zuletzt die
Qualität der erzeugten Produkte angeht. Um die Vorgänge bei der Produktion von Software
durchschaubarer und verständlicher zu machen, versucht man, diese aus der Sicht von Meta-Modellen zu beschreiben. Dabei fließen die individuellen Rahmenbedingungen einer jeden
Entwicklungsumgebung ein; die vorhandenen Ressourcen werden ebenso modellien wie die
durchzuführenden Tätigkeiten und ihre Abhängigkeiten. Die Beschreibungssprache für den Software-Prozeß ProLan-X dient der (konkreten) Beschreibung der Bestandteile des Meta-Modells MoMo, das ebenfalls in dieser Arbeitsgruppe entwickelt wurde [Schramm]. Die am Projekt beteiligten Personen, Hardware- und Software-Ressourcen und ihre Aufgaben werden in möglichst natürlicher Weise verhaltensorientien beschrieben. Aus dieser Beschreibung kann eine Ablaufumgebung generien werden, die die Durchführung des Projekts unterstützt und protokolliert. Der vorliegende Bericht faßt die Eigenschaften der Sprache ProLan-X zusammen und erläuten ihre Verwendung. Er setzt das MoMo-Modell als bekannt voraus.
In dieser Arbeit wird eine Integration der temporallogischen Verarbeitungskonzepte
der Programmiersprache ExTeLL in die objektorientierte Wirtssprache \(C^{++}\) vorgestellt. Dabei war unser Ziel eine Schnittstelle zur komfortablen Kommunikation der Sprachkomponenten zu entwickeln, derart daß die Sprachsynthese eine homogene Gesamtsprache darstellt . Hierbei haben wir besonderen Wert auf die Nutzung der Möglichkeiten der jeweils hinzugefügten Sprachkomponente und einen syntaktisch einheitlichen Aufbau der Gesamtsprache gelegt. Dies erforderte insbesondere die Integration des Typkonzepts von \(C^{++}\) sowie der Mechanismen zur Überladung von Funktionen und Prozeduren in ExTeLL und in der zugrundeliegenden Temporallogik
EITeL.