Refine
Year of publication
Document Type
- Article (92) (remove)
Language
- German (92) (remove)
Has Fulltext
- yes (92)
Keywords
- Schule (12)
- MINT (11)
- Mathematische Modellierung (11)
- AG-RESY (10)
- Stadtplanung (9)
- Denkmäler (8)
- Monitoring (8)
- Raumplanung (8)
- PARO (6)
- Brücken (5)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (23)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (23)
- Kaiserslautern - Fachbereich Mathematik (19)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (9)
- Kaiserslautern - Fachbereich Sozialwissenschaften (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Biologie (3)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (3)
- Universität (1)
Es werden Ergebnisse aus einer Kontaktsimulation vorgestellt, welche die Oberflächenveränderung eines Axiallagers infolge von unerwünschtem elektrischem Stromdurchgang bei Mischreibung zeigen. Das hierzu entwickelte Modell berücksichtigt neben den Oberflächenrauheiten auch das nichtlineare Materialverhalten des Wälzlagerwerkstoffes. Im Gegensatz zu bekannten Modellierungsmethoden für ähnliche Problemstellungen, wird hier ein neuartiger Ansatz auf Basis einer gekoppelten Euler- Lagrange- Finite Element Simulation entwickelt. Das Modell liefert, mit experimentell geschädigten Oberflächen als Eingangsgröße, Erkenntnisse zum Traganteilsverhalten und weiterer mechanischer Kenngrößen infolge kombinierter mechanischer und elektrischer Belastungen.
Neben einem populistischen Demokratieverständnis bildet auch ein majoritärer Relativismus Teil der deutschen politischen Kultur. Dieser Aufsatz argumentiert und liefert Evidenz dafür, dass es sich um zwei unterschiedliche, aber zugleich teils miteinander verwandte Demokratieauffassungen handelt und dass es wichtig ist, beide auseinanderzuhalten. Wie der Populismus erwartet der majoritäre Relativismus die möglichst unmittelbare und getreue Verwirklichung der Interessen in der Bevölkerung, er hält dabei jedoch ausdrücklich nicht an der Idee eines wahren und einheitlichen Volkswillens fest. Während beide positiv mit der Unterstützung der rechtspopulistischen Partei Alternative für Deutschland (AfD) zusammenhängen, zeigt nur der Populismus einen negativen Zusammenhang mit optimierendem Problemlösen durch künstliche Intelligenz in der politischen Führung, der majoritäre Relativismus hingegen sogar einen positiven Zusammenhang. Bemerkenswert ist zudem, dass der majoritäre Relativismus Unterstützung für die AfD besser vorhersagt als ein populistisches Demokratieverständnis. Damit leistet der Aufsatz einen wichtigen Beitrag zur Debatte über Populismus als Bestandteil der politischen Kultur in Deutschland.
Cellular membranes can serve as barriers between subcellular compartments, but they can also interact to form dynamically regulated membrane contact sites between a specific pair of organelles. Focussing on plants, this article discusses local redox environments and the current knowledge on membrane contact sites as examples for the dividing and connecting functions of membranes, respectively.
Die Möglichkeit einer Prämienanpassung in der deutschen PKV ist vom Wert des sogenannten auslösenden Faktors abhängig, der mittels einer linearen Extrapolation der Schadenquotienten der vergangenen drei Jahre berechnet wird. Seine frühzeitige, verlässliche Vorhersage ist aus Sicht des Risikomanagements von großer Bedeutung. Wir untersuchen deshalb vielfältige Vorhersageansätze, die von klassischen Zeitreihenansätzen und Regression über neuronale Netze bis hin zu hybriden Modellen reichen. Während bei den klassischen Methoden Regression mit ARIMA-Fehlern am besten abschneidet, zeigt ein neuronales Netz, das mit Zeitreihenvorhersage kombiniert oder auf desaisonalisierten und trendbereinigten Daten trainiert wurde, das insgesamt beste Verhalten.
Daseinsvorsorge im Bereich des Schutzes der Trinkwasserressourcen beginnt mit der Pflege des Wasserdargebots. In Anbetracht der sich in tatsächlicher und rechtlicher Hinsicht ändernden Gegebenheiten beim Schutz von Trink-, Mineral- und Heilwasservorkommen (Klimawandel, “Wasserstress” infolge qualitativer und quantitativer Verschlechterungen bis hin zur Trinkwasserknappheit) stellt sich die Frage, wie den Gefahren der zunehmenden Verschlechterung dieser Ressourcen begegnet werden kann. Der nachfolgende Beitrag belegt die These, dass auch bei einer gut gemeinten von Beschleunigungs- und Deregulierungsbestrebungen getragenen landesgesetzlichen Änderung risikovorsorgender, rechtssystematischer Schutzkomponenten der abwägungsrelevante Belang nicht außer Acht bleiben darf, dass es dadurch zu einer systematischen Verschlechterung des rechtlichen und umweltplanerischen Kontroll- und Schutzsystems mit nachteiligen Folgewirkungen für diese Schutzgüter kommen kann. Insofern sollte der Stellenwert, welcher der objektiv-rechtliche Rechtsschutz bei der Erhaltung der besonderen “Naturschätze”, der Trink-, Mineral- und Heilwasservorkommen, einnimmt, nicht unterschätzt werden.
Im Rahmen dieses Beitrags werden Ergebnisse einer Untersuchung an feststoffgeschmierten Wälzlagern vorgestellt. Betrachtet werden dabei Lager, welche einen speziellen, modifizierten Käfig verwenden. Die Käfigtaschen des Käfigs dienen dabei, zusätzlich zu ihrer ursprünglichen Funktion, der Führung der Wälzkörper, als Schmierstoffdepot. Es werden zunächst Prüfaufbau und die Versuchsbedingungen erläutert und in diesem Zusammenhang wird gezeigt, dass der in diesem Beitrag verwendete Aufbau, verglichen mit dem Aufbau vorangegangener Arbeiten, eine deutlich reduzierte Streuung aufweist. Als eine nicht zu vernachlässigende Fehlerquelle bei der gravimetrischen Bestimmung des Käfigtaschenverschleißes wurde das hygroskopische Verhalten des Polymercompounds identifiziert. Einer Verfälschung dieser Messergebnisse durch die unkontrollierte Feuchtigkeitsaufnahme aus der Umgebung, muss durch einen zeitlich vorgelagerten Trocknungsprozess unter definierten Bedingungen vorgebeugt werden. Zudem wird gezeigt, dass die Käfigtaschen sowohl durch den Innenring des Lagers, als auch durch die Wälzkörper verschlissen werden. Hierbei wird eine Messmethode zur Ermittlung der, durch den Innenring verschlissenen, Materialmenge vorgestellt. Durch Oberflächenanalysen der Messingstruktur des Käfigs wird eine Reduzierung des Zinks nachgewiesen, sowie eine Änderung der Oberflächenstruktur festgestellt. Als Ursache wird ein Sublimieren des Zinks aufgrund der Versuchsbedingungen vermutet. Weiterhin wird gezeigt, dass die Prüftemperatur von 300 °C zu einem Schrumpfen der Lagerringe führt. Eine Vorwegnahme dieser Maßverringerung ist durch Temperierung bei 300 °C für 48 h möglich.
Der vorliegende Aufsatz untersucht, (1) inwieweit Unterschiede in der Ausgestaltung der Migrationspolitik auf substaatlicher Ebene in der Bundesrepublik Deutschland bestehen und (2) wodurch sich die Policy-Varianz zwischen den deutschen Ländern erklären lässt. Während bestehende Studien ähnlich gelagerte Fragen meist nur auf Basis eines spezifischen Indikators der Migrationspolitik untersucht haben – wie etwa der Ausgaben – schlagen wir ein mehrdimensionales Messkonzept vor, das sechs unterschiedliche Dimensionen der Migrationspolitik auf Länderebene unterscheidet: (1) die Art der Unterbringung, (2) die Art der Leistungserbringung, (3) die Gesundheitsversorgung, (4) die Aufnahmepraxis, (5) die Abschiebepraxis, sowie die (6) bundesstaatliche Positionierung am Beispiel der „sicheren Herkunftsländer“. Zur Analyse möglicher Pfade zur Erklärung der Unterschiede zwischen den Bundesländern nutzen wir eine fuzzy-set QCA-Analyse und greifen auf Parteipolitik, sozioökonomischen Kontext und die Einstellungen der Bevölkerung als Bedingungen zurück.
Unsere Ergebnisse zeigen, dass in der Tat substanzielle Unterschiede zwischen den Bundesländern bestehen. Zudem finden wir, dass die parteipolitische Zusammensetzung der Regierung in unterschiedlichen Pfaden eine wichtige Bedingung für das Vorliegen restriktiver bzw. permissiver Migrationspolitik ist. In keinem einzigen kausalen Pfad der fsQCA-Analyse ist überhaupt eine Erklärung restriktiver bzw. permissiver Migrationspolitik ohne Berücksichtigung der Parteiideologie möglich – ein Ergebnis, das klar für die hohe Relevanz der parteipolitischen Zusammensetzung der Regierung spricht. Die Einstellungsmuster der Bevölkerung in dem jeweiligen Bundesland, die Migrationspolitik und die sozioökonomischen Bedingungen scheinen hingegen nur eine untergeordnete Rolle zu spielen.
The plasma membrane harbors a specific set of transmembrane proteins which enable diverse cellular functions such as nutrient uptake, ion homeostasis and cellular signaling. The surface levels of these proteins need to be dynamically regulated to allow for plastic changes in cellular behaviour e. g. upon cell stress or during neuronal communication. Endocytosis is a powerful mechanism for quickly adapting the surface proteome via protein internalization. Here, I discuss how endocytosis contributes to brain function and counteracts cell stress.
A Strained Partnership: Krise und Resilienz in den transatlantischen Beziehungen 20 Jahre nach 9/11
(2021)
2021 lieferte aus transatlantischer Perspektive gleich mehrere Zäsuren. Im Januar wurde US-Präsident Donald Trump, dessen disruptive Politik diverse Konflikte mit Europa provozierte, durch Joseph R. Biden abgelöst. Im August endete in Afghanistan der längste Einsatz in der Geschichte der NATO mit einem chaotischen Abzug und der Machtübernahme der Taliban, fast 20 Jahre nach dem Beginn des Krieges. Und schließlich läuteten die Bundestagswahlen im September das Ende der Amtszeit Angela Merkels ein, die als Bundeskanzlerin in 16 Regierungsjahren auf vier US-Präsidenten traf. Diese Zäsuren bieten Anlass genug, eine Bilanz der transatlantischen Beziehungen seit 9/11 zu ziehen.
Die politikwissenschaftliche Literatur zum deutschen Föderalismus ist überaus vielfältig. Neben Analysen der institutionellen Arrangements, ihrer Veränderungen sowie der Dynamiken des deutschen Verbundföderalismus, finden sich auch zahlreiche Untersuchungen zu einzelnen Politikfeldern, die sowohl die Interaktionen zwischen Bund und Ländern als auch die Varianz zwischen den Policies der Länder samt ihrer Bestimmungsfaktoren untersuchen. Darüber hinaus haben sich in den vergangenen Jahrzehnten eigene Forschungszweige zu Parteien im Bundesstaat und zur Parlamentsforschung auf Länderebene etabliert. Trotz dieser großen Forschungsaktivität sind jedoch einige zentrale Fragen der Politikwissenschaft zum Zusammenspiel zwischen Wählern, Parteien, Parlamenten und Regierungen sowie deren Wirkung auf politischen Outputs und Outcomes weiterhin unbeantwortet. Dies ist, so das Argument dieses Beitrags, insbesondere der fehlenden Zusammenführung einzelner Literaturstränge und der noch unzureichenden empirischen Datenbasis geschuldet. Mittels einer Systematisierung des gegenwärtigen Literaturstands entwirft der Aufsatz ein Forschungsprogramm, das auf eine umfassende Analyse des politischen Willensbildungs- und Entscheidungsfindungsprozesses in den deutschen Bundesländern abstellt und Fragen der Responsivität und Rückkopplung systematisch in den Blick nimmt.
Dort, wo in Prozessen und Anwendungen Flüssigkeiten unter hohem Druck in rotierende Systeme eingespeist werden, kommen Radialwellendichtringe an die Grenzen ihrer Leistungsfähigkeit. Treten in den Dichtkontakten zusätzlich noch hohe Relativgeschwindigkeiten auf, eignen sich auch Gleitringdichtungen nicht mehr als dynamische Dichtung. Aufgrund ihrer sehr hohen thermischen Beständigkeit etablierten sich Rechteckdichtringe aus Hochleistungskunststoffen wie Polyimiden für diese Anwendungen. In ihrem Aufbau ähneln sie Kolbenringen, wie sie in Verbrennungskraftmaschinen und Kolbenmaschinen zum Einsatz kommen, weshalb im englischen Sprachgebrauch die Bezeichnung „piston ring“ verbreitet ist.
Als zentrale Größe für die Belastung des Rechteckdichtrings wird das Lastäquivalent aus dem Produkt von anliegendem Fluiddruck und der Relativgeschwindigkeit im Kontakt herangezogen (auch p · v-Wert). Der p · v-Wert wird als Systemkenngröße herangezogen, um die Eignung des Werkstoffs hinsichtlich ertragbarer Reibleistungen im Kontakt für die jeweilige Anwendung zu prüfen. Vorangegangene Arbeiten befassten sich vorwiegend mit der Leckagebildung, Reibungsreduzierung sowie der Bestimmung geeigneter Materialpaarungen für das Dichtsystem. Dabei wurden Einflüsse von Lageabweichungen auf die Funktionalität der Dichtringe nicht betrachtet. Mit Hilfe eines adaptierten Prüfstands am Lehrstuhl für Maschinenelemente und Getriebetechnik der Technische Universität Kaiserslautern, der zur Untersuchung von Radialwellendichtringen unter statischen und dynamischen Auslenkungen dient, soll das Verständnis über Rechteckdichtringe unter statischen und dynamischen Auslenkung erweitert werden.
Das Verhalten von Rechteckdichtringen unter statischen und dynamischen Lageabweichungen wird von sich überlagernden Einflüssen bestimmt. Hierbei hängt die auftretende Leckage des Dichtsystems vorrangig von den Betriebsgrößen wie Fluiddruck und den statischen Lageabweichungen ab. Dynamische Verlagerungen innerhalb des Dichtsystem beeinflussen das Leckageverhalten negativ, wobei kein Zusammenhang zwischen Leckage und Betrag oder Frequenz der Auslenkung herrscht. Die Querschnittsfläche des Dichtrings sowie die Geometrie der Nut führen so divergierenden Betriebsverhalten, wobei die druckabhängige Leckagebildung von anderen Verhaltensmustern überlagert werden kann.
Das Controlling hat seinen Platz in der Betriebswirtschaftslehre und damit als akademische Disziplin noch nicht gefunden, ja es ist nicht einmal allgemein geklärt, ob Controlling überhaupt eine wissenschaftliche Disziplin ist. Denn für die Anerkennung als wissenschaftliche Teildisziplin müsste es mit Kant gelingen, „das Unterscheidende, was sie mit keiner andern gemein hat, und was ihr also eigenthümlich ist“ genau zu bestimmen. Der Versuch einer derartigen „Bestimmung“ ist charakteristisch für die wissenschaftliche Beschäftigung mit „Controlling“ im deutschen Sprachraum.
Nach einem systematisierenden Überblick über bisherige Konzeptionalisierungsversuche und deren kritischer Würdigung wird aus der Erfolglosigkeit dieser Bemühungen in den letzten 50 Jahren der Schluss gezogen, dass der Versuch, „Controlling“ in Relation zur „klassischen“ Betriebswirtschaftslehre zu konzeptionalisieren, gescheitert ist. Will man nun den Versuch einer wissenschaftlichen Konzeptionalisierung nicht gänzlich aufgeben, so ist es möglicherweise sinnvoll, auf einen alternativen Referenzrahmen zurückzugreifen. Ein solcher Referenzrahmen stellt das Konzept der Privatwirtschaftslehre (PWL) dar. Dieses wird im Weiteren genutzt, um eine andere Fundierung des Controllings zu schaffen, um wiederum auf dieser Basis einen Controllingansatz zu formulieren, der die zuvor kritisierten Schwächen überwindet.
Seit 1993 veranstaltet der Fachbereich Mathematik der TU Kaiserslautern jährlich die mathematischen Modellierungswochen. Die Veranstaltung erwuchs parallel zu der steigenden Relevanz angewandter mathematischer Forschungsgebiete, wie der Techno- und der Wirtschaftsmathematik. Sie soll dazu dienen, Schülerinnen und Schülern die Bedeutung mathematischer Arbeitsweisen in der heutigen Berufswelt, insbesondere in Industrie und Wirtschaft, begreifbar zu machen. Darüber hinaus bietet die Modellierungswoche den teilnehmenden Lehrkräften einen Einblick in die Projektarbeit mit offenen Fragestellungen im Rahmen der mathematischen Modellierung. In diesem Report beschreiben wir die Projekte, die während der Modellierungswoche im Dezember 2022 durchgeführt wurden.
Das MINT-EC-Girls-Camp: Math-Talent-School richtet sich an mathematikbegeisterte Schülerinnen von MINT-EC-Schulen, die Einblicke in die Berufswelt von Mathematikerinnen und Mathematikern bekommen möchten. Die Veranstaltung veranschaulicht den Schülerinnen die steigende Relevanz angewandter mathematischer Forschungsgebiete, wie der Techno- und der Wirtschaftsmathematik. Sie soll dazu dienen, Schüler:innen die Bedeutung mathematischer Arbeitsweisen in der heutigen Berufswelt, insbesondere in Industrie und Wirtschaft, begreifbar zu machen. Die Talent-School wird organisiert von MINT-EC und dem Felix-Klein-Zentrum für Mathematik. Die fachwissenschaftliche Betreuung der Schülerinnen während dieser Talent-School wurde durch Mitarbeitende des Kompetenzzentrums für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS) der TU Kaiserslautern und des Fraunhofer ITWM umgesetzt. In diesem Report beschreiben wir die Projekte, die während der Talent-School im Oktober 2022 durchgeführt wurden.
Seit 1993 veranstaltet der Fachbereich Mathematik der TU Kaiserslautern jährlich die mathematischen Modellierungswochen. Die Veranstaltung erwuchs parallel zu der steigenden Relevanz angewandter mathematischer Forschungsgebiete, wie der Technomathematik und der Wirtschaftsmathematik. Sie soll dazu dienen, Schülerinnen und Schülern die Bedeutung mathematischer Arbeitsweisen in der heutigen Berufswelt, insbesondere in Industrie und Wirtschaft, begreifbar zu machen. Darüber hinaus bietet die Modellierungswoche den teilnehmenden Lehrkräften einen Einblick in die Projektarbeit mit offenen Fragestellungen im Rahmen der mathematischen Modellierung. In diesem Report beschreiben wir die Projekte, die während der Modellierungswoche im Dezember 2021 durchgeführt wurden. Der Themenschwerpunkt der Veranstaltung lautete "Wetter und Katastrophenschutz".
Regelkonzept für eine Niederspannungsnetzautomatisierung unter Verwendung des Merit-Order-Prinzips
(2022)
Durch die zunehmende Erzeugungsleistung auf Niederspannungsnetzebene (NS-Netzebene) durch Photovoltaikanlagen, sowie die Elektrifizierung des Wärme- und des Verkehrssektors sind Investitionen in die NS-Netze notwendig. Ein höherer Digitalisierungsgrad im NS-Netz birgt das Potential, die notwendigen Investitionen genauer zu identifizieren, und damit ggf. zu reduzieren oder zeitlich zu verschieben. Hierbei stellt die Markteinführung intelligenter Messsysteme, sog. Smart Meter, eine neue Möglichkeit dar, Messwerte aus dem NS-Netz zu erhalten und auf deren Grundlage die Stellgrößen verfügbarer Aktoren zu optimieren. Dazu stellt sich die Frage, wie Messdaten unterschiedlicher Messzyklen in einem Netzautomatisierungssystem genutzt werden können und wie sich das nicht-lineare ganzzahlige Optimierungsproblem der Stellgrößenoptimierung effizient lösen lässt. Diese Arbeit befasst sich mit der Lösung des Optimierungsproblems. Dazu kommt eine Stellgrößenoptimierung nach dem Merit-Order-Prinzip zur Anwendung.
In diesem Text werden einige wichtige Grundlagen zusammengefasst, mit denen ein schneller Einstieg in das Arbeiten mit Arduino und Raspberry Pi möglich ist. Wir diskutieren nicht die Grundfunktionen der Geräte, weil es dafür zahlreiche Hilfestellungen im Internet gibt. Stattdessen konzentrieren wir uns vor allem auf die Steuerung von Sensoren und Aktoren und diskutieren einige Projektideen, die den MINT-interdisziplinären Projektunterricht bereichern können.
Die Konstruktion eines Schrittzählers mit einem Arduino-Mikrocontroller und einem Bewegungssensor ist ein spannendes Technikprojekt. Wir erläutern den Grundgedanken hinter der produktorientierten Modellierung und die vielfältigen Möglichkeiten, die Fragestellung zu bearbeiten. Darüberhinaus werden die technischen Details der verwendeten Hardware diskutiert, um einen schnellen Einstieg ins Thema zu ermöglichen.
Personalentwicklung junger Graduierter und Forschender - Das Personalkonzept der TU Kaiserslautern
(2010)
Der Artikel befasst sich mit dem Personalkonzept der TU Kaiserslautern (TUK) im Bereich des Postgradualen. Der Grundgedanke konnte u.a. mit den Förderungen der Stiftung Mercator und des Stifterverbands für die Deutsche Wissenschaft erstmalig an der TUK erprobt werden und wurde anschließend als Teil des Weiterqualifizierungskonzepts der TUK von der International School for Graduate Studies (ISGS )übernommen.
Dieser Beitrag beschreibt eine Lernumgebung für Schülerinnen und Schüler der Unter- und Mittelstufe mit einem Schwerpunkt im Fach Mathematik. Das Thema dieser Lernumgebung ist die Simulation von Entfluchtungsprozessen im Rahmen von Gebäudeevakuierungen. Dabei wird das Konzept eines zellulären Automaten vermittelt, ohne dabei Programmierkenntnisse vorauszusetzen oder anzuwenden. Anhand dieses speziellen Simulationswerkzeugs des zellulären Automaten werden Eigenschaften, Kenngrößen sowie Vor- und Nachteile von Simulationen im Allgemeinen thematisiert. Dazu gehören unter anderem die experimentelle Datengewinnung, die Festlegung von Modellparametern, die Diskretisierung des zeitlichen und räumlichen Betrachtungshorizonts sowie die zwangsläufig auftretenden (Diskretisierungs-)Fehler, die algorithmischen Abläufe einer Simulation in Form elementarer Handlungsanweisungen, die Speicherung und Visualisierung von Daten aus einer Simulation sowie die Interpretation und kritische Diskussion von Simulationsergebnissen. Die vorgestellte Lernumgebung ermöglicht etliche Variationen zu weiteren Aspekten des Themas „Evakuierungssimulation“ und bietet dadurch auch vielfältige Differenzierungsmöglichkeiten.
Die MINT-EC-Girls-Camp: Math-Talent-School ist eine vom Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) initiierte Veranstaltung, die regelmäßig als Kooperation zwischen dem Felix-Klein-Zentrum für Mathematik und dem Verein mathematisch-naturwissenschaftlicher Excellence-Center an Schulen e.V. (Verein MINT-EC) durchgeführt wird. Die methodisch-didaktische Konzeption der Math-Talent-Schools erfolgt durch das Kompetenzzentrum für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS), einer wissenschaftlichen Einrichtung des Fachbereichs Mathematik der Technischen Universität Kaiserslautern. Die inhaltlich-organisatorische Ausführung übernimmt das Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in enger Abstimmung und Kooperation von Wissenschaftlern der Technischen Universität und des Fraunhofer ITWM. Die MINT-EC-Girls-Camp: Math-Talent-School hat zum Ziel, Mathematik-interessierten Schülerinnen einen Einblick in die Arbeitswelt von Mathematikerinnen und Mathematikern zu geben. In diesem Artikel stellen wir die Math-Talent-School vor. Hierfür werden die fachlichen und fachdidaktischen Hintergründe der Projekte beleuchtet, der Ablauf der Veranstaltung erläutert und ein Fazit gezogen.
Wir zeigen an einigen Beispielen, wie man numerische Simulationen in Tabellenkalkulationsprogrammen (hier speziell in Excel) erzeugen kann. Diese können beispielsweise im Kontext von mathematischer Modellierung verwendet werden.
Die Beispiele umfassen ein Modell zur Ausbreitung von Krankheiten, die Flugkurve eines Fußballs unter Berücksichtigung von Luftreibung, eine Monte-Carlo-Simulation zur experimentellen Bestimmung von pi, eine Monte-Carlo-Simulation eines gemischten Kartenstapels und die Modellierung von Benzinpreisen mit einem Preistrend und Rauschen
Im Gegensatz zum Übertragungsnetz, dessen Struktur hinreichend genau bekannt ist, sind passende Netzmodelle
für Mittelspannungsnetze (MS-Netze) wegen der hohen Anzahlen der MS-Netze und Verteilnetzbetreiber (VNB)
nur schwer abzubilden. Des Weiteren ist eine detaillierte Darstellung realer MS-Netze in wissenschaftlichen Publikationen
aus datenschutzrechtlichen Gründen meist nicht erwünscht. In dieser Arbeit werden MS-Netzmodelle
sowie ihre Entwicklung im Detail erklärt. Damit stehen erstmals für die Öffentlichkeit nachvollziehbare MS-Netzmodelle
für den deutschsprachigen Raum zur Verfügung. Sie können als Benchmark für wissenschaftliche Untersuchungen
sowie zur Methodenentwicklung verwendet werden.
Medieneinsatz in der Hochschullehre. Akademische Lehr-Lernkonzepte zwischen Zumutung und Zu-Mutung.
(2017)
Das vorliegende systematische Review nimmt – ausgehend vom BMBF-geförderten Verbundforschungsprojekt „You(r) Study“ – Forschungsarbeiten zur Rolle digitaler Medien zur Gestaltung von Lehr-Lernarrangements durch Dozierende in den Blick. Ausgehend von konzeptionellen Beiträgen und empirischen Studien werden neben den Lehr-Lernzielen und den Funktionen, die Lehrende digitalen Medien beimessen auch die Rolle von digitalen Medien in verschiedenen Lehrformaten und Disziplinen in den Blick genommen. Aus diesem Vorgehen ergibt sich ein erstes Bild über die Ziele und Perspektiven der Gestaltung von Lehr-Lernarrangements mit und in Medien in der Hochschullehre.
Durch die stetige Zunahme von dezentralen Erzeugungsanlagen, den anstehenden Smart-Meter Rollout sowie die zu erwartende Elektrifizierung des Verkehrssektors (E-Mobilität) steht die Netzplanung und Netzbetriebsführung von Niederspannungsnetzen (NS-Netzen) in Deutschland vor großen Herausforderungen. In den letzten Jahren wurden daher viele Studien, Forschungs- und Demonstrationsprojekte zu den oben genannten Themen durchge-führt und die Ergebnisse sowie die entwickelten Methoden publiziert. Jedoch lassen sich die publizierten Methoden meist nicht nachbilden bzw. validieren, da die Untersuchungsmodelle oder die angesetzten Szenarien für Dritte nicht nachvollziehbar sind. Es fehlen einheitliche Netzmodelle, die die deutschen NS-Netze abbilden und für Ver-gleichsuntersuchungen herangezogen werden können, ähnlich dem Beispiel der nordamerikanischen Verteilnetzmodelle des IEEE.
Im Gegensatz zum Übertragungsnetz, dessen Struktur hinreichend genau bekannt ist, sind passende Netzmodelle für NS-Netze wegen der hohen Anzahlen der NS-Netze und Verteilnetzbetreiber (VNB) nur schwer abzubilden. Des Weiteren ist eine detaillierte Darstellung realer NS-Netze in wissenschaftlichen Publikationen aus daten-schutzrechtlichen Gründen meist nicht erwünscht. Für Untersuchungen im Rahmen eines Forschungsprojekts wurden darum möglichst charakteristische synthetische NS-Netzmodelle erstellt, die sich an gängigen deutschen Siedlungsstrukturen und üblichen Netzplanungsgrundsätzen orientieren. In dieser Arbeit werden diese NS-Netzmodelle sowie ihre Entwicklung im Detail erklärt. Damit stehen erstmals für die Öffentlichkeit nachvollziehbare NS-Netzmodelle für den deutschsprachigen Raum zur Verfügung. Sie können als Benchmark für wissenschaftliche Untersuchungen sowie zur Methodenentwicklung verwendet werden.
Betrachtet man sowohl die klassische betriebs-wirtschaftliche Literatur als auch die Literatur der Controlling-Forschung, so ist ersichtlich, dass jeweils eine Anspruchskongruenz der Eigenkapitalgeber unterstellt wird, welche zu einem einheitlichen Diskontsatz führt, wie dies insbesondere auch im Shareholder Value-Ansatz deutlich wird. Grundlage dieses Postulates ist die neoklassische Theorie, welche unter restriktiven Prämissen die Einmütigkeit der Shareholder hinsichtlich des Formalziels „Shareholder Value“-Maximierung modelltheoretisch abzuleiten vermag. Hierbei werden jedoch ein vollkommener Kapitalmarkt sowie eine Entscheidungssituation unter Sicherheit vorausgesetzt. Beide Prämissen sind auf realen Märkten nicht gegeben. Trotz dieser fehlenden modelltheoretisch strengen Einmütigkeit können jedoch Unternehmen, wie auch empirisch zu sehen ist, offensichtlich durchaus (in gewissen Grenzen) divergierende Shareholderansprüche inkorporieren, welches mit den traditionellen Modellen nicht plausibel abzubilden ist.
Die Frage, wie dies dennoch konzeptionell begründet werden könnte, konstituiert die Ausgangsgrundlage dieses Forschungsbeitrags. Hierbei werden zuerst die standardökonomischen Ansätze zur Klärung der Einmütigkeitsfrage kritisch reflektiert, bevor mit dem Konzept der bounded rationality nach Simon und Gigerenzer eine verhaltenswissenschaftliche Gegenposition eingenommen wird. Diese kann, wie gezeigt wird, als konzeptionelle Grundlage dienen, um die empirisch evidente, hinreichende Einmütigkeit unter den Eigenkapitalgebern eines Unternehmens zu erklären. Hierbei stellt sich jedoch für das Management die zentrale Frage, wie hoch die erwarteten Renditeansprüche der Shareholder legitimer Weise ausfallen dürfen. Diese Frage gewinnt an zusätzlicher Relevanz, wenn man davon ausgeht, dass die Eigenkapitalrenditen im Bezug zum zusätzlichen Risiko, welches die Eigenkapitalgeber tragen, überproportional hoch ausfallen. Das Controlling kann in diesem Kontext einen bedeutenden Beitrag zur Führungsunterstützung des Managements – und damit zu einem dauerhaften Erfolg des Unternehmens – leisten.
Während des Forschungsprozesses zur Erstellung einer wissenschaftlichen Arbeit müssen zahlreiche Entscheidungen getroffen und auch gerechtfertigt werden. Dies gilt nicht nur für konzeptionelle Arbeiten, sondern insbesondere auch für empirisch ausgerichtete Arbeiten. In diesem Zusammenhang leistet der vorliegende Leitfaden einen Beitrag zur konzeptionellen sowie anwendungsbezogenen empirischen Grundlagenforschung im Controlling unter besonderer Berücksichtigung der Vorgehensweise am Lehrstuhl für Unternehmensrechnung und Controlling. Das zentrale
Ziel des Leitfadens liegt dabei in dem Aufzeigen eines Überblicks über die Grundlagen der empirischen Forschung im Controlling. Hierzu wird in einem ersten Schritt die wissenschaftstheoretische Relevanz der fundierten empirischen Forschung im Kontext realwissenschaftlicher Untersuchungen aufgezeigt und diese mit dem Forschungskonzept des Lehrstuhls verknüpft. Hieran anschließend werden einige empirische Forschungsdesigns vorgestellt, wobei insbesondere die Methodik der Vignetten-studie näher erörtert wird. Abschließend befasst sich der folgende Beitrag mit der konzeptionell fundierten Durchführung einer empirischen Studie anhand des 6-Phasen-Modells nach Reiß und Sarris (2012).
Der vorliegende Artikel befasst sich mit der Realisierung eines einfachen Motion Capturing Verfahrens in MATLAB als Vorschlag für eine Umsetzung in der Schule. Die zugrunde liegende Mathematik kann ab der Mittelstufe leicht vermittelt werden. Je nach technischer Ausstattung können mit einfachen Mitteln farbige Marker in Videos oder Webcam-Streams verfolgt werden. Notwendige Konzepte und Algorithmen werden im Artikel beleuchtet.
Die Akustik liefert einen interessanten Hintergrund, interdisziplinären und fächerverbindenen Unterricht zwischen Mathematik, Physik und Musik durchzuführen. SchülerInnen können hierbei beispielsweise experimentell tätig sein, indem sie Audioaufnahmen selbst erzeugen und sich mit Computersoftware Frequenzspektren erzeugen lassen. Genauso können die Schüler auch Frequenzspektren vorgeben und daraus Klänge erzeugen. Dies kann beispielsweise dazu dienen, den Begriff der Obertöne im Musikunterricht physikalisch oder mathematisch greifbar zu machen oder in der Harmonielehre Frequenzverhältnisse von Intervallen und Dreiklängen näher zu untersuchen.
Der Computer ist hier ein sehr nützliches Hilfsmittel, da der mathematische Hintergrund dieser Aufgabe -- das Wechseln zwischen Audioaufnahme und ihrem Frequenzbild -- sich in der Fourier-Analysis findet, die für SchülerInnen äußerst anspruchsvoll ist. Indem man jedoch die Fouriertransformation als numerisches Hilfsmittel einführt, das nicht im Detail verstanden werden muss, lässt sich an anderer Stelle interessante Mathematik betreiben und die Zusammenhänge zwischen Akustik und Musik können spielerisch erfahren werden.
Im folgenden Beitrag wird eine Herangehensweise geschildert, wie wir sie bereits bei der Felix-Klein-Modellierungswoche umgesetzt haben: Die SchülerInnen haben den Auftrag erhalten, einen Synthesizer zu entwickeln, mit dem verschiedene Musikinstrumente nachgeahmt werden können. Als Hilfsmittel haben sie eine kurze Einführung in die Eigenschaften der Fouriertransformation erhalten, sowie Audioaufnahmen verschiedener Instrumente.
Es ist eine Alltagsbeobachtung für welche sich zahlreiche empirische Belege finden, dass ge-sundheitsbewusste Verhaltensweisen wie etwa das regelmäßige Betreiben von Sport oder der Konsum von als gesund geltenden Lebensmitteln in bestimmten Kreisen der Bevölkerung zu-nehmen. Parallel ist ein weiterer Trend zu beobachten: die Zunahme umweltbewusster Verhal-tensweisen. Gerade im Bereich des Konsums gehen solche gesundheits- und umweltbewusste Verhaltensweisen häufig miteinander einher. Wer sich gesundheitsbewusst ernähren möchte, greift in aller Regel auf umweltbewusste Produkte zurück. Die Vermutung liegt nahe, dass ge-sundheits- und umweltbewussten Verhaltensweisen bestimmten gemeinsamen Einstellungen, Überzeugungen und Werten zugrunde liegen. Als ein solches Wertecluster kann auf theoreti-scher Ebene eine postmaterialistische Werteorientierung identifiziert werden. Gesundheits- und Umweltbewusstsein würden demnach in wechselseitiger Beziehung zueinander stehen und durch eine postmaterialistische Werteorientierung determiniert werden. Ziel der vorliegenden Arbeit ist es, eben diesen Zusammenhang mittels Strukturgleichungsmodellierung empirisch zu überprüfen. Dies geschieht anhand von Daten des Sozio-Ökonomischen Panels aus dem Jahr 2006 (n=661). Während sich ein positiver und durchaus starker Zusammenhang zwischen Ge-sundheits- und Umweltbewusstsein findet und auch das Umweltbewusstsein positiv von einer postmaterialistischen Werteorientierung abhängig ist, zeigt sich für das Gesundheitsbewusst-sein kein signifikanter, bzw. in verschiedenen Modellvariationen sogar eine negative Abhän-gigkeit von einer postmaterialistischen Werteorientierung. Aufgrund dieser Ergebnisse wird vorgeschlagen, das Gesundheitsbewusstsein als mehrdimensionales Konstrukt zu betrachten. Differenziert wird in ein lebensstilbedingtes Gesundheitsbewusstsein, über welches z.B. Hobby- und Leistungssportler verfügen, und ein defensives Gesundheitsbewusstsein, wie es z.B. bei chronisch Kranken Personen wie Diabetikern zu finden ist. Jedoch sind weitere Ana-lysen nötig, um diese Theorie zu testen.
Die Region Saarland-Lothringen-Westpfalz zeichnet sich durch eine Jahrhunderte alte, gemeinsame Geschichte aus, in der dieser Landstrich nicht immer durch territoriale Grenzen getrennt war. Bereits die römischen Baumeister hinterließen Bauwerke von großer kulturhistorischer Relevanz, die die regionale Infrastruktur bis zum heutigen Tag prägen. Um dieses kulturell bedeutungsvolle Erbe auch weiterhin bewahren zu können sowie modernen Ingenieurbauwerken zu einer möglichst langen Lebensdauer zu verhelfen, muss der Zustand der Bausubstanz kontinuierlich geprüft bzw. überwacht werden.
Im Rahmen des durch das Programm INTERREG IV A-Großregion geförderten Projektes „CURe MODERN – Initiative moderne Bauwerksprüfung, Stadt- und Regionalplanung SMLPO“ wurde ein Netzwerk von spezialisierten Partnern aus den Regionen Saarland, Lothringen und Westpfalz aufgebaut, das zum grenzüberschreitenden Erfahrungsaustausch im Bereich zerstörungsfreier Prüfverfahren im Bauwesen und der Stadt- und Regionalplanung beiträgt.
Geoweb‐Werkzeuge als Monitoringmaßnahmen im grenzüberschreitenden Raum Saarland - Lothringen
(2014)
Im Rahmen dieser Arbeit wird dargestellt, welches Potential von neuen und innovativen technischen Lösungen für grenzüberschreitende raumplanerische Fragestellungen erreicht werden kann. Der Betrachtungsfokus dieser Arbeit liegt auf genau dieser Schnittstelle und versucht, die sich daraus ergebenden Vorteile aufzuzeigen. Neben dem Ziel einer Einführung und Anwendung von zerstörungsfreien Prüfsystemen, hat das von INTERREG IVa geförderte Projekt CURe MODERN unter anderem das Ziel der Erstellung einer sog. Kulturdatenbank. Dabei werden exemplarisch die Möglichkeiten von 3D-Visualisierungen als Kommunikationsmittel sowie einer Open Source basierten Datenbank aufgezeigt, welche die grenzüberschreitenden Planungen unterstützen und abstimmen soll. Durch die Konzeption und Erstellung einer WebGIS Plattform wird eine grenzüberschreitende Kulturdatenbank für das Projekt CURe MODERN erstellt. Die WebGIS Plattform ermöglicht es dem Anwender neue Untersuchungsobjekte sowie die dazugehörigen Untersuchungen zu erstellen und zu verwalten. Die so zusammengeführten Informationen und Untersuchungsergebnisse können sowohl der internen Kommunikation als auch der Präsentation und Vermittlung von notwendigen Handlungsmaßnahmen kommunalen Entscheidungsträgern gegenüber dienen und stellen somit die Grundlage für ein Infrastruktur- und Baukulturmonitoringsystem dar.
Bund, Länder und Gemeinden in der Bundesrepublik Deutschland verfügen über ein Straßennetz mit insgesamt etwa 106.000 Straßenbrücken. Aufgrund des zunehmend schlechteren Bauwerkszustandes und infolge steigender Anforderungen durch höhere Verkehrsbelastung entsteht Handlungsbedarf an den Brückenbauwerken. Dazu wurde vom Bundesministerium für Verkehr, Bau und Stadtentwicklung eine einheitliche Strategie entwickelt, nach der die Bausubstanz zu bewerten und Entscheidungen über Ertüchtigung oder Ersatzneubau getroffen werden können. Das Ergebnis der Bestandsaufnahme für Bundesfernstraßen und kommunale Brücken sowie die Problemstellungen aus konstruktiver Sicht werden dargestellt. Das Vorgehen zur Festlegung der Prioritäten bezüglich der Bearbeitung wird erläutert und erste Ergebnisse der Nachrechnungen dargestellt. An zwei Beispielen werden Alternativen von Koppelfugensanierungen bzw. dem erforderlichen Neubau einer Brücke infolge Korrosionsschäden an Vertikalvorspannung erläutert.
Der Eurodistrict SaarMoselle hat sich zum Ziel gesetzt, eine funktionierende grenzüberschreitende Agglomeration zu entwickeln. Der Raum SaarMoselle wird sich jedoch nur weiterentwickeln können, wenn die Hindernisse, die auf Grund der Grenze in verschiedenen Bereichen noch existieren, überwunden werden. Zu den Problembereichen oder Herausforderungen gehört das Thema grenzüberschreitender ÖPNV. Es ist nämlich festzustellen, dass der ÖPNV auf grenzüberschreitender Ebene nur sehr geringfügig genutzt wird. Der Vortrag beleuchtet einen Teil der Gründe für die aktuelle Situation, stellt aber auch die Errungenschaften des grenzüberschreitenden ÖPNV sowie zwei Projekte mit großer Tragweite vor.
Die Brücke von Rosbrück ist ein Bauwerk aus Spannbeton, das vom Departement Moselle verwaltet wird. Da sie schon 1952 gebaut wurde, weist sie mehrere Spannkabel auf, die offensichtlich rissig oder brüchig sind. Diese Schädigungen stellen die Tragfähigkeit des Bauwerks in Frage.
Es erschien daher notwendig, den Zustand der Kabel im Inneren der Träger zu überprüfen. Im Vorfeld der Kontrolle mittels der MFL-Methode (Magnetic Flux Leakage) wurde deren Position im Verhältnis zu den Ausführungsebenen überprüft. Da diese Überprüfung schlüssig war, wurden dann die MFL-Messungen an einem der Träger des Bauwerks durchgeführt. Die Ergebnisse sind beweiskräftig und es wurden keine Mängel nachgewiesen. In der Folge erscheint es nötig, die Überprüfung (Auskultation) auf geschädigte Bereiche auszudehnen.
Der Betrieb von Autobahn-Straßenbauwerken soll den ständigen Verkehrsfluss unter guten Sicherheitsbedingungen und unter Berücksichtigung der Benutzerfreundlichkeit gewährleisten.
Hierzu werden die entsprechenden Bauwerke gewartet und in gutem Zustand erhalten, sodass sie ihren Zweck zu jedem Zeitpunkt optimal erfüllen.
Damit dieses Ziel erreicht werden kann, braucht es eine langfristige Sicht der Dinge und eine organisierte Verwaltung der Bauüberwachung sowie der durchzuführenden Arbeiten. Dabei müssen die notwendigen Maßnahmen so ausgeführt werden, dass möglichst geringe Beeinträchtigungen für die Nutzer entstehen.
Somit muss unbedingt eine entsprechende Vorgehensweise im Hinblick auf die Ingenieurbauwerke festgelegt werden, sodass den unterschiedlichen Akteuren ein langfristiger strategischer und finanzieller Plan zur Verfügung steht, der es ihnen erlaubt, die entsprechenden Maßnahmen unter möglichst geringem technischen und somit finanziellen Risiko umzusetzen und vor allem die Instandhaltung als präventive statt als kurative Aufgabe zu begreifen. Wenn es keine entsprechende Politik gibt, so sehen sich die Verantwortlichen der Aufgabe gegenüber gestellt, in Dringlichkeitsfällen Ad-Hoc Entscheidungen zu fällen, was zu technischen und finanziellen Unwägbarkeiten führt. Gleichzeitig bestehen natürlich die Risiken, die mit der Substanz des Bauwerks selbst und mit seiner Alterung einhergehen, weiterhin. Es gilt, dass „vorbeugen besser als heilen“ ist, auch im technischen Bereich. Auch wenn das Risiko nicht vollständig beherrscht wird, so ist es doch wichtig, dass es bekannt ist und dass entsprechend gehandelt wird.
Für Verantwortliche im Finanzbereich und aus der Politik hat der Faktor Zeit nicht die gleiche Bedeutung wie für die Betreiber. Dennoch müssen die unterschiedlichen Akteure unbedingt zu einer klaren Übereinkunft bezüglich der gemeinsamen Instandhaltungs-Strategie kommen und diese dann auch einhalten! Bei eventuellen Unstimmigkeiten müssen Entscheidungen sorgfältig abgewogen werden, unter Berücksichtigung der technischen und finanziellen Konsequenzen die sich für die Zukunft ergeben können, ohne das Risiko für Schadensereignisse außer Acht zu lassen. Leider erweisen sich Schadensfälle als wichtige Hebel im Budget, stehen sie doch zunächst für das
2
Scheitern eines Betriebs, der auf Prävention ausgerichtet ist. Oder anders gesagt, eine solche extreme Situation sollte nicht zur politischen Strategie werden.
Die Vorstellung der allgemeinen Politik der Gruppe Sanef mit praktischen Beispielen (die Praxis sollte man nie aus den Augen verlieren!) soll einem Erfahrungsbericht entsprechen, der zuweilen idealistisch geprägt, sehr wahrscheinlich unvollständig und weiter verbesserbar ist, aber dennoch als Grundlage zur Debatte taugt.
Brücken und andere Ingenieurbauwerke im Zuge von Straßen sind in Deutschland regelmäßig alle 6 Jahre einer handnahen Prüfung zu unterziehen. Diese Verpflichtung gilt für alle Baulastträger. Dabei werden alle relevanten Schäden erfasst, bewertet und dokumentiert. Je nach Art des Schadens können weitergehende Untersuchungen im Rahmen einer Objektbezogenen Schadensanalyse notwendig werden. Damit das Bauwerk dadurch nicht weiter geschädigt wird, sollten für Vor-Ort-Untersuchungen zerstörungsfreie Prüfverfahren eingesetzt werden.
Damit die Bauwerksprüfungen qualitativ hochwertig durchgeführt werden können, ist wichtig hierfür entsprechende Aus- und Fortbildung anzubieten. Hierfür werden seit geraumer Zeit entsprechende Lehrgänge angeboten vom „Verein zur Förderung der Qualitätssicherung und Zertifizierung der Aus-/Fortbildung von Ingenieurinnen/Ingenieuren der Bauwerksprüfung“ (VFIB) angeboten.
Ergebnisse aktueller Bauforschung am Beispiel des Zisterzienserklosters Wörschweiler/Saarland
(2014)
Die Ruinen des 1171 gegründeten Zisterzienserklosters Wörschweiler zählen zu den wenigen mittelalterlichen Baudenkmalen des Saarlands. Trotz der großen Zerstörungen nach Aufhebung der Abtei 1558 geben die Ruinen Einblick in die bauliche Struktur und Organisation eines
„klassischen“ Zisterzienserklosters und sind damit von überregionaler Bedeutung. Freie Bewitterung und unsachgemäße Restaurierungen des 19./20. Jahrhunderts haben 2009 eine Gesamtinstandsetzung der Anlage erforderlich gemacht, die im laufenden Jahr ihren Abschluss finden wird. Ziel ist die Sicherung und Konservierung der Ruine als solche einschließlich ihrer Putz- und Farbbefunde. Vorbereitend erfolgte eine steingerechte Bestandserfassung des Aufgehenden im Maßstab
1:50 durch die TU Kaiserslautern in Zusammenarbeit mit der saarländischen Landesdenkmalpflege. Weiterhin vorbereitend wurde die bisher unzureichend dokumentierte Restaurierungsgeschichte der Klosterruine aufgearbeitet, die wichtige Hinweise für den restauratorischen Umgang mit dem Mauerwerk und für die zu erwartenden Funde liefern konnte. Eine baubegleitende Forschung einschließlich einer lokalen Grabung gab neue Einblicke in die komplexe Baugeschichte des Klosterbergs, dessen Siedlungsanfänge bis in römische Zeit zurückreichen. Insbesondere im Bereich der Klausur spiegelt sich in der ursprünglichen baulichen Qualität und Ausstattung der Gebäude die überregionale Bedeutung des Klosters bereits in seiner Zeit wider.
Zerstörungsfreie (ND) Erkundungstechniken, seien es nun zerstörungsfreie oder geophysikalische Bewertungsmethoden, werden üblicherweise im Bau- und Transportwesen, im Bereich der Energietechnik oder der Stadtentwicklung angewandt. Während sich jedoch im Laufe der letzten Jahrzehnte das Interesse auf interne geometrische Informationen zu der untersuchten Umgebung richtete, konzentrieren sich jüngere Forschungen auf Informationen, die mit der Art und dem Zustand dieser Umgebung verbunden sind, um so dem Begiff der zerstörungsfreien Bewertung näher zu kommen. Die gegenwärtig laufenden Studien versuchen, die aus zerstörungsfreien Messungen abgeleiteten Werte in statistische, mit Lebensdauermodellen verknüpfte Ansätze zu integrieren.
Das in Manderen, Departement Moselle, gelegene Schloss von Malbrouck befindet sich genau an der deutschen und luxemburgischen Grenze. Sein Bau wurde nach dem Willen von Arnold VI, dem Grundherrn von Sierck, im Jahre 1419 begonnen, wurde 1434, in dem Jahr, in dem das Schloss für geeignet befunden wurde, einem Angriff widerstehen zu können, vollendet und dann in den Dienst des Erzbistums Trier gestellt.
Unglücklicherweise war zum Zeitpunkt des Todes von Ritter Arnold dessen Nachfolge nicht gesichert, weshalb das Schloss ab Ende des XV. bis Anfang des XVII. Jahrhunderts von einer Hand in die nächste überwechselte.
Seit es im Jahre 1930 unter Denkmalschutz gestellt wurde und der Conseil Général de la Moselle es 1975 von seinem letzten Eigentümer, einem Bauern, zurückkaufte, wurde das Schloss vollständig saniert und im September 1988 wiedereröffnet. Wie jedes andere Bauwerk dieser Größenordnung braucht es eine feine und genaue Überwachung. Aus diesem Grund wollte der Conseil Général de la Moselle strategischer Partner im Projekt CURe MODERN werden.
Die Bestanderhaltung historischer Bauwerke bedarf gründlicher Voruntersuchung, Qualitätskontrolle und Bauwerksüberwachung, um die Eingriffe in die Denkmalsubstanz zu minimieren und Folgeschäden zu vermeiden. Zerstörungsfreie Prüfmethoden und numerische Modellierungsverfahren bieten heute bewährte und neue Möglichkeiten, gesicherte Kenntnisse über die Bauwerke und die altersbedingten Veränderungen ihrer Baumaterialien zu erzielen und gleichzeitig die Eingriffe für Materialentnahmen und Bauwerksöffnungen zu minimieren. Anhand von Fallbeispielen werden aktuelle Forschungsergebnisse präsentiert. Georadarmessungen werden mit theoretischen Modellierungen kombiniert, um gemessene Anomalien in Materialparametern zu begründen. Moderne Anforderungen wie die energetische Sanierung historischer Gebäude werfen neue Problemfelder auf, für die anhand von Modellierungen des Wärme- und Feuchtetransports Antworten gefunden werden. Die Weiterentwicklung von Ultraschallmesstechnik und Signalauswertung ermöglicht neue Anwendungen bei der Untersuchung verwitterter Sandsteinoberflächen mittels Rayleighwellen.
In der Betriebswirtschaftslehre bestehen unterschiedliche Sichtweisen in Bezug auf Unternehmensziele und deren Verhältnis zu Stakeholderzielen. Der vorliegende Beitrag untersucht das Verhältnis von Unternehmenszielen und Stakeholderzielen, wobei die zentrale Zielsetzung des Beitrags darin besteht, die Stakeholderziele zu spezifizieren, da bislang existierende Kataloge mit Stakeholderzielen wenig detailliert sind. Dabei werden die unterschiedlichen Stakeholderziele anhand ihrer drei Zieldimensionen untersucht sowie in Formal- und Sachziele unterteilt. Des Weiteren wird deutlich, dass zwischen Unternehmenszielen und Stakeholderzielen durch die differierenden Ziele der unterschiedlichen Stakeholdergruppen ständige Konflikte herrschen, wodurch es grundsätzlich innerhalb unter-nehmerischer Zielsysteme nur zu einer Quasilösung der Konflikte kommen kann.
Die fortschreitende Verbreitung von Ethernet-basierten Strukturen mit dezentralen und verteilten Anwendungen in der Automatisierung führt zu den so genannten netzbasier-ten Automatisierungssystemen (NAS). Diese sind zwar in Anschaffung und Betrieb kostengünstiger, moderner und flexibler als herkömmliche Strukturen, weisen jedoch nicht-deterministische Verzögerungen auf. Die genaue Analyse der resultierenden Antwortzeiten ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen, Fragen der Verlässlichkeit zu klären. In diesem ersten von zwei Beiträgen wird hierfür zunächst die für die speziellen Bedürfnisse der Strukturbeschreibung von netzbasierten Automatisierungssystemen entwickelte Modellierungssprache DesLaNAS vorgestellt und auf ein einführendes Beispiel angewendet. Im zweiten Beitrag wird darauf aufbauend gezeigt, welchen Einfluss die einzelnen System-komponenten (SPS, Netzwerk, I/O-Karten) sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse selbst wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) angewendet.
Netzbasierte Automatisierungssysteme (NAS) sind das Ergebnis der zunehmenden Dezentralisierung von Automatisierungssystemen mittels neuerer Netzwerkstrukturen. Eine ganze Fülle von Einflussfaktoren führt jedoch zu einem Spektrum von nicht-deterministischen Verzögerungen, die direkten Einfluss auf Qualität, Sicherheit und Zuverlässigkeit der Automatisierungsanlagen haben. Eine genaue Analyse dieser Einflussfaktoren ist somit nicht nur Voraussetzung für den verantwortungsbewussten Einsatz dieser Technologie sondern ermöglicht es auch, bereits im Vorfeld von Umstrukturierungen oder Erweiterungen Fragen der Verlässlichkeit zu klären. In diesem Beitrag wird gezeigt, welchen Einfluss einzelne Komponenten sowie netzbedingte Verhaltensmodi wie Synchronisation und die gemeinsame Nutzung von Ressourcen auf die Antwortzeiten des Gesamtsystems haben. Zur Analyse wird die wahrscheinlichkeitsbasierte Modellverifikation (PMC) verwendet. Umfangreiche Messungen wurden zur Validierung der Ergebnisse durchgeführt.
Den in der industriellen Produktion eingesetzten Manipulatoren fehlt in der Regel die Möglichkeit, ihre Umwelt wahrzunehmen. Damit Mensch und Roboter in einem gemeinsamen Arbeitsraum arbeiten können, wird im SIMERO-System die Transferbewegung des Roboters durch Kameras abgesichert. Dieses Kamerasystem wird auf Ausfall überprüft. Dabei werden Fehler in der Bildübertragung und Positionierungsfehler der Kameras betrachtet.
Zur Zeit haben Industrieroboter nur eine sehr begrenzte Wahrnehmung ihrer Umwelt. Wenn sich Menschen im Arbeitsraum des Roboters aufhalten sind sie daher gefährdet. Durch eine Einteilung der möglichen Roboterbewegung in verschiedene Klassen kann gezeigt werden, dass die für einen Menschen im Arbeitsraum gefährlichste Bewegung die freie Transferbewegung ist. Daher besteht die betrachtete Aufgabe darin, diese Transferbewegung eines Manipulators durchzuführen, ohne mit dynamischen Hindernissen, wie zum Beispiel Menschen, zu kollidieren. Das SIMERO-System gliedert sich in die vier Hauptkomponenten Bildverarbeitung, Robotermodellierung, Kollisionserkennung und Bahnplanung. Diese Komponenten werden im einzelnen vorgestellt. Die Leistungsfähigkeit des Systems und die weiteren Verbesserungen werden an einem Versuch exemplarisch gezeigt.
Die Domäne der Operationsroboter liegt heute in Fräsarbeiten an knöchernen Strukturen. Da Roboter über eine extreme Präzision verfügen und nicht ermüden bietet sich ihr Einsatz ins-besondere bei langwierigen und zugleich hochpräzisen Fräsvorgängen im Bereich der lateralen Schädelbasis an. Aus diesem Grunde wurde ein Verfahren entwickelt, welches aus einer geometrischen Beschreibung des Implantates eine geeignete Fräsbahn errechnet und eine kraftgeregelte Prozesskontrolle des Fräsvorganges implementiert. Mit einem 6*achsigen Knickarmroboter erfolgten die Untersuchungen primär an Tierpräparaten und zur Optimierung an Felsenbeinpräparaten.
In der empirischen, fragebogengestützten Analyse wurde die Nutzung von zweck- und prozeßbezogenen Unterstützungspotentialen des Internet von umweltberichterstattenden Unternehmen in Deutschland untersucht. Die Analyse ist in drei Kapitel gegliedert: Zur thematischen Einführung wird die Umweltberichterstattung von Unternehmen im Internet skizziert (Kapitel 2). Als Systematik von internetbasierten Unterstützungspotentialen zur Umweltberichterstattung wird eine vierteilige Gliederung zugrunde gelegt. Sie enthält inhalts-, darstellungs-, zweck- und prozeßbezogene Unterstützungspotentiale. An die Systematik schließt sich eine Darstellung der Forschungssituation zur Umweltberichterstattung, insbesondere zu der im In-ternet, an (Kapitel 3). Damit ist die Basis für die eigens in 2000 durchgeführte empirische Analyse gelegt (Kapitel 4). Die Untersuchungsergebnisse umfassen - neben der Darlegung der Untersuchungsmethodik (Abschnitt 4.1) - die empirischen Befunde zu folgenden spezifischen Fragenbereichen: Allgemeines zu Internet-Umweltberichten (Abschnitt 4.2), Information der Öffentlichkeit (Abschnitt 4.3), Kommunikation mit Zielgruppen (Abschnitt 4.4), Integration von Internet-Umweltberichten in die Unternehmenskommunikation (Abschnitt 4.5), Transparenz durch Internet-Umweltberichte (Abschnitt 4.6) sowie Erstellung von Internet-Umweltberichten (Abschnitt 4.7).
Von den Umweltberichten deutscher Unternehmen werden bisher erst unter 3% im Internet veröffentlicht. Die Tendenz ist steigend. Hier werden die im Internet verfügbaren Umweltberichte ausgewertet und Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen. Der Beitrag ist in fünf Abschnitte gegliedert: Zur thematischen Einführung werden betriebliche Umweltberichte durch eine Morphologie charakterisiert (Abschnitt 2). Es schließen sich die IKT-spezifischen Herausforderungen an umweltberichterstattende Unternehmen als Ansatzpunkte für Umweltberichte im Internet an (Abschnitt 3). Damit ist die Basis für eine Systematisierung der internetbasierten Unterstützungspotenziale zur Umweltberichterstattung gelegt (Abschnitt 4). Der Systematik folgt eine detaillierte Bestandsaufnahme der Umweltberichte deutscher Unternehmen im Internet in fünffacher Hinsicht (Abschnitt 5): Die zugrunde gelegte Untersuchungsmethodik zur Bestandsaufnahme wird erläutert (Abschnitt 5.1). Die ergänzend herangezogenen empirischen Studien zu Umweltberichten im Internet werden ausgewertet (Abschnitt 5.2). Die Ergebnisse bzgl. Inhalt und Darstellung von Umweltberichten im Internet werden ausführlicher beschrieben (Abschnitt 5.3) und durch Erklärungsansätze interpretiert (Abschnitt 5.4). Abschließend werden auf der Grundlage der konzeptionell erschließbaren Unterstützungspotenziale einerseits und der empirischen Studien andererseits zentrale Tendenzen zur zukünftigen Entwicklung von Umweltberichten im Internet vorgetragen (Abschnitt 5.5).
Die Umweltberichterstattung spielt sowohl für den ökonomischen Erfolg von Unternehmen als auch für eine ökologisch nachhaltige Entwicklung eine zunehmend wichtige Rolle. Dafür sprechen drei Gründe: Erstens können Unternehmen kön-nen durch eine freiwillige und informative Umweltberichterstattung ökologische Schwachstellen aufdecken, Umweltbelastungen reduzieren und Wettbewerbsvorteile im Markt erzielen. Zweitens nehmen gesetzliche und moralische Verpflichtungen zur Umweltberichterstattung zu. Drittens sind die technischen Möglichkeiten zur Umweltberichterstattung durch den Einsatz des Internet enorm gestiegen. Alle drei Tendenzen sind gute Gründe für den Einsatz des Internet zur Umweltberichterstattung. Allerdings sind bei den Umweltberichten von kleinen und mittelständischen Unternehmen (KMU) insgesamt bisher erst weniger als 3% im Internet veröffentlicht, die Tendenz ist jedoch steigend. Bislang nutzen überwiegend internationale und weltweit tätige Großunternehmen das Internet zur Umweltberichterstattung. KMU präsentieren bislang nur selten Umweltberichte im Internet. Hier werden die im Internet verfügbaren Umweltberichte von KMU ausgewertet, generelle Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen und die Möglichkeiten von KMU für eine internetbasierte Umweltbe-richterstattung am Beispiel von Umweltberichten dargestellt. Die Studie ist in sechs Kapitel gegliedert: Zur thematischen Einführung werden Umweltberichte als Kern der Umweltkommunikation von Unternehmen behandelt (Kapitel 2). Es schließen sich die informations- und kommunikationstechnischen (IKT) Herausforderungen an umweltberichterstattende Unternehmen an. Sie werden als Ansatzpunkte für Umweltberichte im Internet und zur Ausschöpfung der technischen Unterstützungspotentiale des Internet betrachtet (Kapitel 3). Damit ist die Basis für eine Übersicht über die verschiedenen technischen Unterstützungspotentiale beim Einsatz von Internettechnologien und -diensten für die Umweltbe-richterstattung gelegt (Kapitel 4). Der Übersicht folgt eine detaillierte Bestandsauf-nahme von Umweltberichten im Internet von KMU in Deutschland (Kapitel 5). Auf der Grundlage der empirischen Bestandsaufnahme werden dann die Möglichkeiten einer internetbasierten Umweltberichterstattung für KMU abgeleitet (Kapitel 6).
Hier werden die im Internet verfügbaren Umweltberichte von Unternehmen ausgewertet, Praxiserfahrungen von im Internet umweltberichterstattenden Unternehmen dokumentiert, generelle Gründe für die Nutzung des Internet für die Umweltberichterstattung vorgetragen, eine Klassifikation von Umweltberichten im Internet entworfen und Entwicklungstendenzen in der Umweltberichterstattung skizziert. Die Studie ist in sechs Kapitel gegliedert: Zur thematischen Einführung werden Umweltberichte als Kern der Umweltkommunikation von Unternehmen behandelt (Kapitel 2). Es schließen sich die spezifischen informations- und kommunikationstechnischen (IKT) Herausforderungen an umweltberichterstattende Unternehmen an. Diese werden als Ansatzpunkte für eine Umweltberichterstattung im Internet sowie zur Ausschöpfung der technischen Unterstützungspotentiale des Internet betrachtet (Kapitel 3). Damit ist die Basis für eine Übersicht über die verschiedenen technischen Unterstützungspotentiale beim Einsatz von Internettechnologien und -diensten für die Umweltberichterstattung gelegt (Kapitel 4). Der Übersicht folgt eine detaillierte Bestandsaufnahme zu Umweltberichten von Unternehmen im Internet für Deutschland (Kapitel 5). Auf der Grundlage der Bestandsaufnahme wird abschließend für den Einsatz des Internet zur Umweltberichterstattung argumentiert (Kapitel 6).
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
Aufgrund der vernetzten Strukturen und Wirkungszusammenhänge dynamischer Systeme werden die zugrundeliegenden mathematischen Modelle meist sehr komplex und erfordern ein hohes mathematisches Verständnis und Geschick. Bei Verwendung von spezieller Software können jedoch auch ohne tiefgehende mathematische oder informatorische Fachkenntnisse komplexe Wirkungsnetze dynamischer Systeme interaktiv erstellt werden. Als Beispiel wollen wir schrittweise das Modell einer Miniwelt entwerfen und Aussagen bezüglich ihrer Bevölkerungsentwicklung treffen.
Es wird die Aufgabe der vollständigen räumlichen Abdeckung von Regionen in durch mobile Roboter betrachtet. Da-bei können die Regionen in vollständig, teilweise oder nicht bekannten Umgebungen liegen. Zur Lösung wird ein Verfahren aus der Computer-grafik zum Füllen von Bildregionen zugrunde gelegt. Das Verfahren hat eine lokale Sichtweise und läßt somit den Einsatz von Sensordaten und das Auftreten von unvorhergesehenen Hindernissen zu. Die Regionen können durch Karten off-line vorgegeben sein oder durch Sensordaten on-line aufgebaut werden. Dennoch ist eine vollständige und genau einma-lige Flächenbearbeitung garantiert. Dies wird an Beispielen in einer graphischen Visualisierung der Realzeit-Steuerung des Roboters validiert.
Diese Arbeit skizziert einen allgemeinen Ansatz zur Montage deformierbarer linearer Werkstücke (wie Kabel, Drähte, Schläuche, Blattfedern) mit Industrierobotern. Hierzu werden insbesondere die folgenden zwei Aspekte betrachtetet. Erstens die zuverlässige Ausführung der Montage unter Berücksichtigung der Werkstückdeformation und anderer Unsicherheiten, zweitens die numerische Simulation des Werkstückverhaltens. Zur robusten Ausführung der Montage wird das aus der Montage starrer Werkstücke bekannte Konzept der Manipulation-Skills auf deformierbare Werkstücke übertragen. Bei der numerischen Simulation wird insbesondere die Bestimmung der Greifertrajektorie bei gegebener Aufgabenstellung betrachtet.
Anwendungen effizienter Verfahren in Automation - Universität Karlsruhe auf der SPS97 in Nürnberg -
(1998)
Die Bewegungsplanung für Industrieroboter ist eine notwendige Voraussetzung, damit sich autonome Systeme kollisionsfrei durch die Umwelt bewegen können. Die Berücksichtigung von dynamischen Hindernissen zur Laufzeit erfordert allerdings leistungsfähige Algorithmen, zur Lösung dieser Aufgabenstellung in Echtzeit. Eine Möglichkeit zur Beschleunigung der Algorithmen ist der effiziente Einsatz von skalierbarer Parallelverarbeitung. Die softwaretechnische Umsetzung kann aber nur dann erfolgreich sein, wenn ein Parallelrechner zur Verfügung steht, der einen hohen Datendurchsatz bei geringer Latenzzeit bietet. Darüber hinaus muß dieser Parallelrechner unter vertretbarem Aufwand bedienbar sein und ein gutes Preisleistungsverhältnis aufweisen, damit die Parallelverarbeitung verstärkt in der Industrie zum Einsatz kommt. In diesem Artikel wird ein Workstation-Cluster auf der Basis von neun Standard- PCs vorgestellt, die über eine spezielle Kommunikationskarte miteinander vernetzt sind. In den einzelnen Abschnitten werden die gesammelten Erfahrungen bei der Inbetriebnahme, Systemadministration und Anwendung geschildert. Als Beispiel für eine Anwendung auf diesem Cluster wird ein paralleler Bewegungsplaner für Industrieroboter beschrieben.
In diesem Papier vergleichen wir Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung. Wir zeigen, wie ein integrierter Ansatz die Erstellung von Expertensystemen erleichtert. Das von uns entwickelte und implementierte System ermoeglicht einen "sanften" Entwicklungsprozess ausgehend von initialen Protokollen zu einer semi-formale Strukturierung in Form eines getypten Hypertextes. Dem Hypertext ist eine aufgabenorientierte Struktur aufgepraegt, so dass eine anschliessende Operationalisierung in Form eines Expertensystems vereinfacht wird. Die in diesem Prozess erzeugte Zwischenrepraesentation (der Hypertext) wird von einem Interpreter direkt zur interaktiven Loesung von Problemen benutzt, wobei die einzelnen Aufgaben auf die verschiedenen Sachbearbeiter verteilt werden. Abschliessend erlaeutern wir, dass Hypertext und Expertensysteme nur die Raender eines Kontinuums einer allgemeinen Wissensverarbeitung sind.
In diesem Beitrag wird gezeigt, wie mit Hilfe von Knowledge Engineering Techniken eine komplexe Domäne, die Entwicklung von Bebauungsplänen, modelliert werden kann. Dabei wird insbesondere auf notwendige Erweiterungen bekannter Ansätze eingegangen, die sich aus einer praxisbezogenen Entwurfsdomäne ergeben. Der beschriebene Ansatz unterstützt die Koordination mehrerer Agenten durch die Verwaltung von Abhängigkeiten. Das beschriebene Projekt "Intelligenter Bebauungsplan" integriert GIS/CAD, Hypertext und Expertensystemtechnologie. Die Strukturierung der benötigten Informationen als Hypertext wurde von den beteiligten Stadtplanern gewünscht und ist eine natürliche Repräsentation für Gesetzestexte (und Kommentare), da sie ohnehin viele Querverweise enthalten.
In diesem Papier stellen wir einen Interpreter vor, der die Validierung von konzeptuellen Modellen bereits in fruehen Entwicklungsphasen unterstuetzt. Wir vergleichen Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung und erlaeutern, wie ein integrierter Ansatz die Erstellung von Expertensystemen vereinfacht. Das von uns entwickelte Knowledge Engineering Werkzeug ermoeglicht einen "sanften" Uebergang von initialen Protokollen ueber eine semi-formale Spezifikation in Form eines getypten Hypertextes hin zu einem operationalen Expertensystem. Ein Interpreter nutzt die in diesem Prozess erzeugte Zwischenrepraesentation direkt zur interaktiven Loesung von Problemen, wobei einzelne Aufgaben ueber ein lokales Rechnernetz auf die Bearbeiter verteilt werden. Das heisst, die Spezifikation des Expertensystems wird direkt fuer die Loesung realer Probleme eingesetzt. Existieren zu einzelnen Teilaufgaben Operationalisierungen (d.h. Programme), dann werden diese vom Computer bearbeitet.
In diesem Papier beschreiben wir eine Methode zur Spezifikation und Operationalisierung von konzeptuellen Modellen kooperativer wissensbasierter Arbeitsabläufe. Diese erweitert bekannte Ansätze um den Begriff des Agenten und um alternative Aufgabenzerlegungen. Das Papier beschreibt schwerpunktmäßig Techniken, die unserem verteilten Interpreter zugrunde liegen. Dabei gehen wir insbesondere auf Methoden ein, die Abhängigkeiten zwischen Aufgaben behandeln und ein zielgerichtetes Backtracking effizient unterstützen.
Die Lösung einer Konfigurationsaufgabe in technischen Domänen besteht aus einer Menge von Bauteilen, die miteinander verträglich sind und in ihrem Zusammenspiel die gegebenen Anforderung erfüllen. Eine gängige Vorgehensweise bei der Suche nach einer Lösung ist die schrittweise Spezialisierung einer abstrakten Aufgabenstellung oder ihre Zerlegung in Teilaufgaben. Ein Konfigurationssystem, das diese Vorgehensweise unterstützt, muss Wissen enthalten, wie eine Aufgabe spezialisiert oder in Teilaufgaben zerlegt werden kann, welche konkreten Bauteile zur Erfüllung einer ausreichend detaillierten Teilaufgabe verwendet werden können und ob alle Teile einer Lösung miteinander verträglich sind. Aufgrund dieses Wissens kann eine konsistente Lösung durch Tiefensuche hergeleitet werden.
Struktur und Werkzeuge des experiment-spezifischen Datenbereichs der SFB501 Erfahrungsdatenbank
(1999)
Software-Entwicklungsartefakte müssen zielgerichtet während der Durchführung eines Software- Projekts erfasst werden, um für die Wiederverwendung aufbereitet werden zu können. Die methodische Basis hierzu bildet im Sonderforschungsbereich 501 das Konzept der Erfahrungsdatenbank. In ihrem experiment-spezifischen Datenbereich werden für jedes Entwicklungsprojekt alle Software-Entwicklungsartefakte abgelegt, die während des Lebenszyklus eines Projektes anfallen. In ihrem übergreifenden Datenbereich werden all die jenigen Artefakte aus dem experiment-spezifischen Datenbereich zusammengefasst, die für eine Wiederverwendung in nachfolgenden Projekten in Frage kommen. Es hat sich gezeigt, dass bereits zur Nutzung der Datenmengen im experiment- spezifischen Datenbereich der Erfahrungsdatenbank ein systematischer Zugriff notwendig ist. Ein systematischer Zugriff setzt jedoch eine normierte Struktur voraus. Im experiment-spezifischen Bereich werden zwei Arten von Experimenttypen unterschieden: "Kontrollierte Experimente" und "Fallstudien". Dieser Bericht beschreibt die Ablage- und Zugriffsstruktur für den Experimenttyp "Fallstudien". Die Struktur wurde aufgrund der Erfahrungen in ersten Fallstudien entwickelt und evaluiert.
Deduktionssysteme
(1999)
Die Realisierung zunehmend komplexer Softwareprojekte erfordert das direkte und indirekteZusammenwirken einer immer größer werdenden Zahl von Personen. Die dafür benötigte Infrastrukturist mit der zunehmenden globalen Rechner-Vernetzung bereits vorhanden, doch wird ihr Potential vonherkömmlichen Werkzeugen in der Regel bei weitem nicht ausgeschöpft. Das in diesem Artikelvorgestellte Rahmenmodell für Softwareentwicklung wurde explizit im Hinblick auf die globaleKooperation von Entwicklern entworfen. WebMake, eine auf diesem Modell basierende Software-entwicklungsumgebung, adressiert das Ziel seiner Einsetzbarkeit im globalen Maßstab durch dieVerwendung des World-Wide Web als Datenspeicherungs- und Kommunikationsinfrastruktur.
Beim Greifen deformierbarer oder zerbrechlicher Werkstücke kommen der Greifgeschwindigkeit sowie der Greifkraft besondere Bedeutung zu. In dieser Arbeit wird eine universelle Steuerung für pneumatische Greifer beschrieben, die eine einfache Einstellung dieser Größen über zwei spannungsgesteuerte Proportionalventile gestattet. Diese Anordnung wird für eine Einflußanalyse von Greifkraft und Greifgeschwindigkeit beim Greifen von Kabeln und Kabelbäumen genutzt, welche sich als robust und unproblematisch erwiesen haben.
Ein Teilaspekt der formalen Logik besteht in der Untersuchung wie die logischen Konsequenzen (insbesondere die Tautologien) einer vorgegebenen Formelmenge unter Verwendung gewisser Reglements schrittweise hergeleitet werden können. Hierbei ist die Logik bestimmt durch eine konsequente Trennung von Syntax und Semantik. Diese Abhandlung stellt exemplarisch das Tableau-Kalkül und das Kalkül des natürlichen Schließens vor.
Liegruppen
(1997)