Refine
Year of publication
Document Type
- Article (103) (remove)
Language
- German (103) (remove)
Has Fulltext
- yes (103)
Keywords
- Schule (12)
- MINT (11)
- Mathematische Modellierung (11)
- AG-RESY (10)
- Stadtplanung (9)
- Denkmäler (8)
- Monitoring (8)
- Raumplanung (8)
- PARO (6)
- Brücken (5)
- Modellierungswoche (5)
- Bestandserhaltung (4)
- CoMo-Kit (4)
- Internet (4)
- Wissensverarbeitung (4)
- Zerstörungsfreie Prüfung (4)
- Hypermediale Umweltberichte (3)
- Internetbasierte Umweltberichterstattung (3)
- Robotik (3)
- Umweltberichterstattung (3)
- Zustandserfassung (3)
- EG-Öko-Audit-Verordnung (EMAS) (2)
- Ertüchtigung (2)
- HANDFLEX (2)
- Kooperation (2)
- Mensch-Roboter-Kooperation (2)
- Model checking (2)
- Networked Automation Systems (2)
- Netzwerk (2)
- Response-Zeit (2)
- SIMERO (2)
- Schadensdiagnose (2)
- Simulation (2)
- Umweltkommunikation (2)
- distributed control systems (2)
- probabilistic model checking (2)
- safe human robot cooperation (2)
- verteilte Steuerungen (2)
- wahrscheinlichkeitsbasierte Modellverifikation (2)
- Ablagestruktur (1)
- Access System (1)
- Arduino (1)
- Automatisierungssystem (1)
- Automatisierungstechnik (1)
- Bebauungsplanung (1)
- Bewegungsplanung (1)
- Bildungstheorie (1)
- CODET (1)
- Case Study Erfahrungsdatenbank (1)
- Controlling (1)
- Controlling, Controllingkonzeption, Verhaltenswissenschaft, Stakeholder Theory (1)
- Digitale Medien (1)
- Elektronik (1)
- Elektronische Medien (1)
- Erstellung von Expertensystemen (1)
- Eurodistrict (1)
- Evakuierung (1)
- Experience Base (1)
- Experiment (1)
- Expertensysteme (1)
- Fallstu (1)
- Fehler (1)
- Fräsen (1)
- Geoweb-Werkzeuge (1)
- Gesundheitsbewusstsein (1)
- Grenzüberschreitende Raumplanung (1)
- Grenzüberschreitender öffentlicher Personennahverkehr (1)
- Hochschuldidaktik (1)
- Hochschule (1)
- Internetbasierte Umweltkommunikation (1)
- Kalkül (1)
- Kalkül des natürlichen Schließens (1)
- Konfirmatorische Faktoranalyse (1)
- Kulturdatenbank (1)
- Lehre (1)
- Lehrkräfte (1)
- Literature Review (1)
- Logik (1)
- Math-Talent-School (1)
- Mediendidaktik (1)
- Medieneinsatz (1)
- Mensch-Roboter-Koexistenz (1)
- Modellierung (1)
- Morphologischer Kasten (1)
- Motion Capturing (1)
- Netz-Architekturen (1)
- Netzbasierte Automatisierungssysteme (1)
- Netzbasierte Automatisierungssysteme (NAS) (1)
- Netzwerkmanagement (1)
- Neue Medien (1)
- Operationsroboter (1)
- PVM (1)
- Parallel Virtual Machines (1)
- Personalentwicklung (1)
- Postmaterialismus (1)
- Projektarbeit (1)
- Projektunterricht (1)
- Raspberry Pi (1)
- SKALP (1)
- SWEEPING (1)
- Schädelbasis (1)
- Sicherheit (1)
- Smart-Grid (1)
- Smart-Meter (1)
- Stakeholder (1)
- Stakeholderziele (1)
- Straßennetz (1)
- Straßenverkehrsinfrastruktur (1)
- Structure (1)
- Strukturgleichungsmodell (1)
- Suchraum (1)
- Suchve (1)
- Synchronisation zyklischer Prozesse (1)
- Synthesizer (1)
- Tabellenkalkulation (1)
- Tableau-Kalkül (1)
- Theory of Planned Behaviour (1)
- Theory of Reasoned Action (1)
- Umweltb (1)
- Umweltbe (1)
- Umweltbericht (1)
- Umweltberichte (1)
- Umweltbewusstsein (1)
- Unternehmensziele (1)
- WebGIS (1)
- Wirkungsnetz (1)
- Wissenschaftsmanagement (1)
- Workstation-Cluster (1)
- Zellulärer Automat (1)
- Zugriffskonflikte (1)
- Zugriffstruktur (1)
- Zugriffsystem (1)
- access conflict (1)
- aleph (1)
- dynamische Systeme (1)
- formale Logik (1)
- grenzwert (1)
- human robot cooperation (1)
- iMSys (1)
- kardinalzahl (1)
- limes (1)
- loss of information (1)
- mathematische Modellierung (1)
- regelbasiertes Problemlösen (1)
- robotergestützt (1)
- safe human robot coexistence (1)
- synchronization of cyclic processes (1)
- unendlich (1)
- ÖPNV (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Informatik (27)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (23)
- Kaiserslautern - Fachbereich Mathematik (19)
- Kaiserslautern - Fachbereich Wirtschaftswissenschaften (9)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (6)
- Kaiserslautern - Fachbereich Sozialwissenschaften (6)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (5)
- Kaiserslautern - Fachbereich Biologie (4)
- Kaiserslautern - Fachbereich Chemie (2)
- Kaiserslautern - Fachbereich Physik (1)
- Universität (1)
Anwendungen effizienter Verfahren in Automation - Universität Karlsruhe auf der SPS97 in Nürnberg -
(1998)
Die Bewegungsplanung für Industrieroboter ist eine notwendige Voraussetzung, damit sich autonome Systeme kollisionsfrei durch die Umwelt bewegen können. Die Berücksichtigung von dynamischen Hindernissen zur Laufzeit erfordert allerdings leistungsfähige Algorithmen, zur Lösung dieser Aufgabenstellung in Echtzeit. Eine Möglichkeit zur Beschleunigung der Algorithmen ist der effiziente Einsatz von skalierbarer Parallelverarbeitung. Die softwaretechnische Umsetzung kann aber nur dann erfolgreich sein, wenn ein Parallelrechner zur Verfügung steht, der einen hohen Datendurchsatz bei geringer Latenzzeit bietet. Darüber hinaus muß dieser Parallelrechner unter vertretbarem Aufwand bedienbar sein und ein gutes Preisleistungsverhältnis aufweisen, damit die Parallelverarbeitung verstärkt in der Industrie zum Einsatz kommt. In diesem Artikel wird ein Workstation-Cluster auf der Basis von neun Standard- PCs vorgestellt, die über eine spezielle Kommunikationskarte miteinander vernetzt sind. In den einzelnen Abschnitten werden die gesammelten Erfahrungen bei der Inbetriebnahme, Systemadministration und Anwendung geschildert. Als Beispiel für eine Anwendung auf diesem Cluster wird ein paralleler Bewegungsplaner für Industrieroboter beschrieben.
Im Rahmen dieses Beitrags werden Ergebnisse einer Untersuchung an feststoffgeschmierten Wälzlagern vorgestellt. Betrachtet werden dabei Lager, welche einen speziellen, modifizierten Käfig verwenden. Die Käfigtaschen des Käfigs dienen dabei, zusätzlich zu ihrer ursprünglichen Funktion, der Führung der Wälzkörper, als Schmierstoffdepot. Es werden zunächst Prüfaufbau und die Versuchsbedingungen erläutert und in diesem Zusammenhang wird gezeigt, dass der in diesem Beitrag verwendete Aufbau, verglichen mit dem Aufbau vorangegangener Arbeiten, eine deutlich reduzierte Streuung aufweist. Als eine nicht zu vernachlässigende Fehlerquelle bei der gravimetrischen Bestimmung des Käfigtaschenverschleißes wurde das hygroskopische Verhalten des Polymercompounds identifiziert. Einer Verfälschung dieser Messergebnisse durch die unkontrollierte Feuchtigkeitsaufnahme aus der Umgebung, muss durch einen zeitlich vorgelagerten Trocknungsprozess unter definierten Bedingungen vorgebeugt werden. Zudem wird gezeigt, dass die Käfigtaschen sowohl durch den Innenring des Lagers, als auch durch die Wälzkörper verschlissen werden. Hierbei wird eine Messmethode zur Ermittlung der, durch den Innenring verschlissenen, Materialmenge vorgestellt. Durch Oberflächenanalysen der Messingstruktur des Käfigs wird eine Reduzierung des Zinks nachgewiesen, sowie eine Änderung der Oberflächenstruktur festgestellt. Als Ursache wird ein Sublimieren des Zinks aufgrund der Versuchsbedingungen vermutet. Weiterhin wird gezeigt, dass die Prüftemperatur von 300 °C zu einem Schrumpfen der Lagerringe führt. Eine Vorwegnahme dieser Maßverringerung ist durch Temperierung bei 300 °C für 48 h möglich.
Die politikwissenschaftliche Literatur zum deutschen Föderalismus ist überaus vielfältig. Neben Analysen der institutionellen Arrangements, ihrer Veränderungen sowie der Dynamiken des deutschen Verbundföderalismus, finden sich auch zahlreiche Untersuchungen zu einzelnen Politikfeldern, die sowohl die Interaktionen zwischen Bund und Ländern als auch die Varianz zwischen den Policies der Länder samt ihrer Bestimmungsfaktoren untersuchen. Darüber hinaus haben sich in den vergangenen Jahrzehnten eigene Forschungszweige zu Parteien im Bundesstaat und zur Parlamentsforschung auf Länderebene etabliert. Trotz dieser großen Forschungsaktivität sind jedoch einige zentrale Fragen der Politikwissenschaft zum Zusammenspiel zwischen Wählern, Parteien, Parlamenten und Regierungen sowie deren Wirkung auf politischen Outputs und Outcomes weiterhin unbeantwortet. Dies ist, so das Argument dieses Beitrags, insbesondere der fehlenden Zusammenführung einzelner Literaturstränge und der noch unzureichenden empirischen Datenbasis geschuldet. Mittels einer Systematisierung des gegenwärtigen Literaturstands entwirft der Aufsatz ein Forschungsprogramm, das auf eine umfassende Analyse des politischen Willensbildungs- und Entscheidungsfindungsprozesses in den deutschen Bundesländern abstellt und Fragen der Responsivität und Rückkopplung systematisch in den Blick nimmt.
Im Gegensatz zum Übertragungsnetz, dessen Struktur hinreichend genau bekannt ist, sind passende Netzmodelle
für Mittelspannungsnetze (MS-Netze) wegen der hohen Anzahlen der MS-Netze und Verteilnetzbetreiber (VNB)
nur schwer abzubilden. Des Weiteren ist eine detaillierte Darstellung realer MS-Netze in wissenschaftlichen Publikationen
aus datenschutzrechtlichen Gründen meist nicht erwünscht. In dieser Arbeit werden MS-Netzmodelle
sowie ihre Entwicklung im Detail erklärt. Damit stehen erstmals für die Öffentlichkeit nachvollziehbare MS-Netzmodelle
für den deutschsprachigen Raum zur Verfügung. Sie können als Benchmark für wissenschaftliche Untersuchungen
sowie zur Methodenentwicklung verwendet werden.
Durch die stetige Zunahme von dezentralen Erzeugungsanlagen, den anstehenden Smart-Meter Rollout sowie die zu erwartende Elektrifizierung des Verkehrssektors (E-Mobilität) steht die Netzplanung und Netzbetriebsführung von Niederspannungsnetzen (NS-Netzen) in Deutschland vor großen Herausforderungen. In den letzten Jahren wurden daher viele Studien, Forschungs- und Demonstrationsprojekte zu den oben genannten Themen durchge-führt und die Ergebnisse sowie die entwickelten Methoden publiziert. Jedoch lassen sich die publizierten Methoden meist nicht nachbilden bzw. validieren, da die Untersuchungsmodelle oder die angesetzten Szenarien für Dritte nicht nachvollziehbar sind. Es fehlen einheitliche Netzmodelle, die die deutschen NS-Netze abbilden und für Ver-gleichsuntersuchungen herangezogen werden können, ähnlich dem Beispiel der nordamerikanischen Verteilnetzmodelle des IEEE.
Im Gegensatz zum Übertragungsnetz, dessen Struktur hinreichend genau bekannt ist, sind passende Netzmodelle für NS-Netze wegen der hohen Anzahlen der NS-Netze und Verteilnetzbetreiber (VNB) nur schwer abzubilden. Des Weiteren ist eine detaillierte Darstellung realer NS-Netze in wissenschaftlichen Publikationen aus daten-schutzrechtlichen Gründen meist nicht erwünscht. Für Untersuchungen im Rahmen eines Forschungsprojekts wurden darum möglichst charakteristische synthetische NS-Netzmodelle erstellt, die sich an gängigen deutschen Siedlungsstrukturen und üblichen Netzplanungsgrundsätzen orientieren. In dieser Arbeit werden diese NS-Netzmodelle sowie ihre Entwicklung im Detail erklärt. Damit stehen erstmals für die Öffentlichkeit nachvollziehbare NS-Netzmodelle für den deutschsprachigen Raum zur Verfügung. Sie können als Benchmark für wissenschaftliche Untersuchungen sowie zur Methodenentwicklung verwendet werden.
Regelkonzept für eine Niederspannungsnetzautomatisierung unter Verwendung des Merit-Order-Prinzips
(2022)
Durch die zunehmende Erzeugungsleistung auf Niederspannungsnetzebene (NS-Netzebene) durch Photovoltaikanlagen, sowie die Elektrifizierung des Wärme- und des Verkehrssektors sind Investitionen in die NS-Netze notwendig. Ein höherer Digitalisierungsgrad im NS-Netz birgt das Potential, die notwendigen Investitionen genauer zu identifizieren, und damit ggf. zu reduzieren oder zeitlich zu verschieben. Hierbei stellt die Markteinführung intelligenter Messsysteme, sog. Smart Meter, eine neue Möglichkeit dar, Messwerte aus dem NS-Netz zu erhalten und auf deren Grundlage die Stellgrößen verfügbarer Aktoren zu optimieren. Dazu stellt sich die Frage, wie Messdaten unterschiedlicher Messzyklen in einem Netzautomatisierungssystem genutzt werden können und wie sich das nicht-lineare ganzzahlige Optimierungsproblem der Stellgrößenoptimierung effizient lösen lässt. Diese Arbeit befasst sich mit der Lösung des Optimierungsproblems. Dazu kommt eine Stellgrößenoptimierung nach dem Merit-Order-Prinzip zur Anwendung.
Struktur und Werkzeuge des experiment-spezifischen Datenbereichs der SFB501 Erfahrungsdatenbank
(1999)
Software-Entwicklungsartefakte müssen zielgerichtet während der Durchführung eines Software- Projekts erfasst werden, um für die Wiederverwendung aufbereitet werden zu können. Die methodische Basis hierzu bildet im Sonderforschungsbereich 501 das Konzept der Erfahrungsdatenbank. In ihrem experiment-spezifischen Datenbereich werden für jedes Entwicklungsprojekt alle Software-Entwicklungsartefakte abgelegt, die während des Lebenszyklus eines Projektes anfallen. In ihrem übergreifenden Datenbereich werden all die jenigen Artefakte aus dem experiment-spezifischen Datenbereich zusammengefasst, die für eine Wiederverwendung in nachfolgenden Projekten in Frage kommen. Es hat sich gezeigt, dass bereits zur Nutzung der Datenmengen im experiment- spezifischen Datenbereich der Erfahrungsdatenbank ein systematischer Zugriff notwendig ist. Ein systematischer Zugriff setzt jedoch eine normierte Struktur voraus. Im experiment-spezifischen Bereich werden zwei Arten von Experimenttypen unterschieden: "Kontrollierte Experimente" und "Fallstudien". Dieser Bericht beschreibt die Ablage- und Zugriffsstruktur für den Experimenttyp "Fallstudien". Die Struktur wurde aufgrund der Erfahrungen in ersten Fallstudien entwickelt und evaluiert.
Versions- und Konfigurationsmanagement sind zentrale Instrumente zur intellektuellen Beherrschung komplexer Softwareentwicklungen. In stark wiederverwendungsorientierten Softwareentwicklungsansätzen -wie vom SFB bereitgestellt- muß der Begriff der Konfiguration von traditionell produktorientierten Artefakten auf Prozesse und sonstige Entwicklungserfahrungen erweitert werden. In dieser Veröffentlichung wird ein derartig erweitertes Konfigurationsmodell vorgestellt. Darüberhinau wird eine Ergänzung traditioneller Projektplanungsinformationen diskutiert, die die Ableitung maßgeschneiderter Versions- und Konfigurationsmanagementmechanismen vor Projektbeginn ermöglichen.
Janus-Materialien sind anisotrope Nano- und Mikroarchitekturen, die zwei verschiedene Seiten mit unterschiedlichen oder entgegengesetzten physikochemischen Eigenschaften aufweisen. Parallel zur Entwicklung neuer Methoden zur Herstellung dieser Materialien wurden entscheidende Fortschritte in Bezug auf Anwendungen erzielt, z. B. in der Biologie, der Katalyse, der Pharmazie und neuerdings auch in der Batterietechnologie. Dieser Kurzaufsatz stellt die jüngsten und wichtigsten Erfolge bei der Anwendung aufgabenspezifisch funktionalisierter Janus-Nanomaterialien im Bereich der heterogenen Katalyse für unterschiedliche chemische Transformationen vor. Er umfasst Reduktionreaktionen, oxidative Entschwefelung und Farbstoffabbau, asymmetrische Katalyse, Biomassetransformationen, Kaskadenreaktionen, Oxidationsreaktionen, übergangsmetallkatalysierte Kreuzkupplungsreaktionen, elektro- und photokatalytische Reaktionen sowie Gasphasenreaktionen. Zum Abschluss folgt ein Ausblick auf mögliche zukünftige Anwendungen.
Computational-Fluid-Dynamics (CFD)-Simulationen in Kombination mit Tropfenpopulationsbilanzen führen zu einem praxisgerechten Standard, um auf Basis verfügbarer Prozessdaten den Strömungsverlauf – und damit die Verweilzeitverteilung – in liegenden Abscheidern beliebiger Größe zu berechnen. Durch Implementierung des Tropfenverhaltens wird auch die Berechnung eines tropfenspezifischen Abscheider-Wirkungsgrades ermöglicht. Die Methodenentwicklung erfolgte mit baugleichen Anlagen an drei verschiedenen Standorten. Die darauf beruhenden CFD-Simulationen wurden erfolgreich mit experimentellen Daten der beteiligten Industriepartner validiert.
Daseinsvorsorge im Bereich des Schutzes der Trinkwasserressourcen beginnt mit der Pflege des Wasserdargebots. In Anbetracht der sich in tatsächlicher und rechtlicher Hinsicht ändernden Gegebenheiten beim Schutz von Trink-, Mineral- und Heilwasservorkommen (Klimawandel, “Wasserstress” infolge qualitativer und quantitativer Verschlechterungen bis hin zur Trinkwasserknappheit) stellt sich die Frage, wie den Gefahren der zunehmenden Verschlechterung dieser Ressourcen begegnet werden kann. Der nachfolgende Beitrag belegt die These, dass auch bei einer gut gemeinten von Beschleunigungs- und Deregulierungsbestrebungen getragenen landesgesetzlichen Änderung risikovorsorgender, rechtssystematischer Schutzkomponenten der abwägungsrelevante Belang nicht außer Acht bleiben darf, dass es dadurch zu einer systematischen Verschlechterung des rechtlichen und umweltplanerischen Kontroll- und Schutzsystems mit nachteiligen Folgewirkungen für diese Schutzgüter kommen kann. Insofern sollte der Stellenwert, welcher der objektiv-rechtliche Rechtsschutz bei der Erhaltung der besonderen “Naturschätze”, der Trink-, Mineral- und Heilwasservorkommen, einnimmt, nicht unterschätzt werden.
Editorial
(2021)
Erstmalig wurde Synchrotron-basierte nukleare inelastische Streuung (NIS) unter Nutzung des Mößbauer-Isotops 161Dy für die Untersuchung der vibronischen Eigenschaften eines DyIII-basierten Einzelmolekülmagneten, [Dy(Cy3PO)2(H2O)5]Br3⋅2 (Cy3PO)⋅2 H2O⋅2 EtOH, eingesetzt. Die experimentelle partielle Phononen-Zustandsdichte, die alle Schwingungen mit einer Auslenkung des DyIII-Ions enthält, wurde mit Hilfe von auf Dichtefunktionaltheorie (DFT) basierenden Simulationen reproduziert, was die Zuordnung aller intramolekularen Schwingungsmoden des Moleküls ermöglicht. Diese Studie zeigt, dass 161Dy-NIS als eine experimentelle Methode ein hohes Potential besitzt, um zur Klärung der Rolle von Phononen in Einzelmolekülmagneten beizutragen.
Editorial
(2020)
Editorial
(2020)
Dieser Beitrag beschreibt eine Lernumgebung für Schülerinnen und Schüler der Unter- und Mittelstufe mit einem Schwerpunkt im Fach Mathematik. Das Thema dieser Lernumgebung ist die Simulation von Entfluchtungsprozessen im Rahmen von Gebäudeevakuierungen. Dabei wird das Konzept eines zellulären Automaten vermittelt, ohne dabei Programmierkenntnisse vorauszusetzen oder anzuwenden. Anhand dieses speziellen Simulationswerkzeugs des zellulären Automaten werden Eigenschaften, Kenngrößen sowie Vor- und Nachteile von Simulationen im Allgemeinen thematisiert. Dazu gehören unter anderem die experimentelle Datengewinnung, die Festlegung von Modellparametern, die Diskretisierung des zeitlichen und räumlichen Betrachtungshorizonts sowie die zwangsläufig auftretenden (Diskretisierungs-)Fehler, die algorithmischen Abläufe einer Simulation in Form elementarer Handlungsanweisungen, die Speicherung und Visualisierung von Daten aus einer Simulation sowie die Interpretation und kritische Diskussion von Simulationsergebnissen. Die vorgestellte Lernumgebung ermöglicht etliche Variationen zu weiteren Aspekten des Themas „Evakuierungssimulation“ und bietet dadurch auch vielfältige Differenzierungsmöglichkeiten.
Der vorliegende Artikel befasst sich mit der Realisierung eines einfachen Motion Capturing Verfahrens in MATLAB als Vorschlag für eine Umsetzung in der Schule. Die zugrunde liegende Mathematik kann ab der Mittelstufe leicht vermittelt werden. Je nach technischer Ausstattung können mit einfachen Mitteln farbige Marker in Videos oder Webcam-Streams verfolgt werden. Notwendige Konzepte und Algorithmen werden im Artikel beleuchtet.
Bund, Länder und Gemeinden in der Bundesrepublik Deutschland verfügen über ein Straßennetz mit insgesamt etwa 106.000 Straßenbrücken. Aufgrund des zunehmend schlechteren Bauwerkszustandes und infolge steigender Anforderungen durch höhere Verkehrsbelastung entsteht Handlungsbedarf an den Brückenbauwerken. Dazu wurde vom Bundesministerium für Verkehr, Bau und Stadtentwicklung eine einheitliche Strategie entwickelt, nach der die Bausubstanz zu bewerten und Entscheidungen über Ertüchtigung oder Ersatzneubau getroffen werden können. Das Ergebnis der Bestandsaufnahme für Bundesfernstraßen und kommunale Brücken sowie die Problemstellungen aus konstruktiver Sicht werden dargestellt. Das Vorgehen zur Festlegung der Prioritäten bezüglich der Bearbeitung wird erläutert und erste Ergebnisse der Nachrechnungen dargestellt. An zwei Beispielen werden Alternativen von Koppelfugensanierungen bzw. dem erforderlichen Neubau einer Brücke infolge Korrosionsschäden an Vertikalvorspannung erläutert.
Medieneinsatz in der Hochschullehre. Akademische Lehr-Lernkonzepte zwischen Zumutung und Zu-Mutung.
(2017)
Das vorliegende systematische Review nimmt – ausgehend vom BMBF-geförderten Verbundforschungsprojekt „You(r) Study“ – Forschungsarbeiten zur Rolle digitaler Medien zur Gestaltung von Lehr-Lernarrangements durch Dozierende in den Blick. Ausgehend von konzeptionellen Beiträgen und empirischen Studien werden neben den Lehr-Lernzielen und den Funktionen, die Lehrende digitalen Medien beimessen auch die Rolle von digitalen Medien in verschiedenen Lehrformaten und Disziplinen in den Blick genommen. Aus diesem Vorgehen ergibt sich ein erstes Bild über die Ziele und Perspektiven der Gestaltung von Lehr-Lernarrangements mit und in Medien in der Hochschullehre.
Beim Greifen deformierbarer oder zerbrechlicher Werkstücke kommen der Greifgeschwindigkeit sowie der Greifkraft besondere Bedeutung zu. In dieser Arbeit wird eine universelle Steuerung für pneumatische Greifer beschrieben, die eine einfache Einstellung dieser Größen über zwei spannungsgesteuerte Proportionalventile gestattet. Diese Anordnung wird für eine Einflußanalyse von Greifkraft und Greifgeschwindigkeit beim Greifen von Kabeln und Kabelbäumen genutzt, welche sich als robust und unproblematisch erwiesen haben.
Diese Arbeit skizziert einen allgemeinen Ansatz zur Montage deformierbarer linearer Werkstücke (wie Kabel, Drähte, Schläuche, Blattfedern) mit Industrierobotern. Hierzu werden insbesondere die folgenden zwei Aspekte betrachtetet. Erstens die zuverlässige Ausführung der Montage unter Berücksichtigung der Werkstückdeformation und anderer Unsicherheiten, zweitens die numerische Simulation des Werkstückverhaltens. Zur robusten Ausführung der Montage wird das aus der Montage starrer Werkstücke bekannte Konzept der Manipulation-Skills auf deformierbare Werkstücke übertragen. Bei der numerischen Simulation wird insbesondere die Bestimmung der Greifertrajektorie bei gegebener Aufgabenstellung betrachtet.
Der Eurodistrict SaarMoselle hat sich zum Ziel gesetzt, eine funktionierende grenzüberschreitende Agglomeration zu entwickeln. Der Raum SaarMoselle wird sich jedoch nur weiterentwickeln können, wenn die Hindernisse, die auf Grund der Grenze in verschiedenen Bereichen noch existieren, überwunden werden. Zu den Problembereichen oder Herausforderungen gehört das Thema grenzüberschreitender ÖPNV. Es ist nämlich festzustellen, dass der ÖPNV auf grenzüberschreitender Ebene nur sehr geringfügig genutzt wird. Der Vortrag beleuchtet einen Teil der Gründe für die aktuelle Situation, stellt aber auch die Errungenschaften des grenzüberschreitenden ÖPNV sowie zwei Projekte mit großer Tragweite vor.
Die Brücke von Rosbrück ist ein Bauwerk aus Spannbeton, das vom Departement Moselle verwaltet wird. Da sie schon 1952 gebaut wurde, weist sie mehrere Spannkabel auf, die offensichtlich rissig oder brüchig sind. Diese Schädigungen stellen die Tragfähigkeit des Bauwerks in Frage.
Es erschien daher notwendig, den Zustand der Kabel im Inneren der Träger zu überprüfen. Im Vorfeld der Kontrolle mittels der MFL-Methode (Magnetic Flux Leakage) wurde deren Position im Verhältnis zu den Ausführungsebenen überprüft. Da diese Überprüfung schlüssig war, wurden dann die MFL-Messungen an einem der Träger des Bauwerks durchgeführt. Die Ergebnisse sind beweiskräftig und es wurden keine Mängel nachgewiesen. In der Folge erscheint es nötig, die Überprüfung (Auskultation) auf geschädigte Bereiche auszudehnen.
Die Lösung einer Konfigurationsaufgabe in technischen Domänen besteht aus einer Menge von Bauteilen, die miteinander verträglich sind und in ihrem Zusammenspiel die gegebenen Anforderung erfüllen. Eine gängige Vorgehensweise bei der Suche nach einer Lösung ist die schrittweise Spezialisierung einer abstrakten Aufgabenstellung oder ihre Zerlegung in Teilaufgaben. Ein Konfigurationssystem, das diese Vorgehensweise unterstützt, muss Wissen enthalten, wie eine Aufgabe spezialisiert oder in Teilaufgaben zerlegt werden kann, welche konkreten Bauteile zur Erfüllung einer ausreichend detaillierten Teilaufgabe verwendet werden können und ob alle Teile einer Lösung miteinander verträglich sind. Aufgrund dieses Wissens kann eine konsistente Lösung durch Tiefensuche hergeleitet werden.
Der vorliegende Aufsatz untersucht, (1) inwieweit Unterschiede in der Ausgestaltung der Migrationspolitik auf substaatlicher Ebene in der Bundesrepublik Deutschland bestehen und (2) wodurch sich die Policy-Varianz zwischen den deutschen Ländern erklären lässt. Während bestehende Studien ähnlich gelagerte Fragen meist nur auf Basis eines spezifischen Indikators der Migrationspolitik untersucht haben – wie etwa der Ausgaben – schlagen wir ein mehrdimensionales Messkonzept vor, das sechs unterschiedliche Dimensionen der Migrationspolitik auf Länderebene unterscheidet: (1) die Art der Unterbringung, (2) die Art der Leistungserbringung, (3) die Gesundheitsversorgung, (4) die Aufnahmepraxis, (5) die Abschiebepraxis, sowie die (6) bundesstaatliche Positionierung am Beispiel der „sicheren Herkunftsländer“. Zur Analyse möglicher Pfade zur Erklärung der Unterschiede zwischen den Bundesländern nutzen wir eine fuzzy-set QCA-Analyse und greifen auf Parteipolitik, sozioökonomischen Kontext und die Einstellungen der Bevölkerung als Bedingungen zurück.
Unsere Ergebnisse zeigen, dass in der Tat substanzielle Unterschiede zwischen den Bundesländern bestehen. Zudem finden wir, dass die parteipolitische Zusammensetzung der Regierung in unterschiedlichen Pfaden eine wichtige Bedingung für das Vorliegen restriktiver bzw. permissiver Migrationspolitik ist. In keinem einzigen kausalen Pfad der fsQCA-Analyse ist überhaupt eine Erklärung restriktiver bzw. permissiver Migrationspolitik ohne Berücksichtigung der Parteiideologie möglich – ein Ergebnis, das klar für die hohe Relevanz der parteipolitischen Zusammensetzung der Regierung spricht. Die Einstellungsmuster der Bevölkerung in dem jeweiligen Bundesland, die Migrationspolitik und die sozioökonomischen Bedingungen scheinen hingegen nur eine untergeordnete Rolle zu spielen.
Personalentwicklung junger Graduierter und Forschender - Das Personalkonzept der TU Kaiserslautern
(2010)
Der Artikel befasst sich mit dem Personalkonzept der TU Kaiserslautern (TUK) im Bereich des Postgradualen. Der Grundgedanke konnte u.a. mit den Förderungen der Stiftung Mercator und des Stifterverbands für die Deutsche Wissenschaft erstmalig an der TUK erprobt werden und wurde anschließend als Teil des Weiterqualifizierungskonzepts der TUK von der International School for Graduate Studies (ISGS )übernommen.
Dort, wo in Prozessen und Anwendungen Flüssigkeiten unter hohem Druck in rotierende Systeme eingespeist werden, kommen Radialwellendichtringe an die Grenzen ihrer Leistungsfähigkeit. Treten in den Dichtkontakten zusätzlich noch hohe Relativgeschwindigkeiten auf, eignen sich auch Gleitringdichtungen nicht mehr als dynamische Dichtung. Aufgrund ihrer sehr hohen thermischen Beständigkeit etablierten sich Rechteckdichtringe aus Hochleistungskunststoffen wie Polyimiden für diese Anwendungen. In ihrem Aufbau ähneln sie Kolbenringen, wie sie in Verbrennungskraftmaschinen und Kolbenmaschinen zum Einsatz kommen, weshalb im englischen Sprachgebrauch die Bezeichnung „piston ring“ verbreitet ist.
Als zentrale Größe für die Belastung des Rechteckdichtrings wird das Lastäquivalent aus dem Produkt von anliegendem Fluiddruck und der Relativgeschwindigkeit im Kontakt herangezogen (auch p · v-Wert). Der p · v-Wert wird als Systemkenngröße herangezogen, um die Eignung des Werkstoffs hinsichtlich ertragbarer Reibleistungen im Kontakt für die jeweilige Anwendung zu prüfen. Vorangegangene Arbeiten befassten sich vorwiegend mit der Leckagebildung, Reibungsreduzierung sowie der Bestimmung geeigneter Materialpaarungen für das Dichtsystem. Dabei wurden Einflüsse von Lageabweichungen auf die Funktionalität der Dichtringe nicht betrachtet. Mit Hilfe eines adaptierten Prüfstands am Lehrstuhl für Maschinenelemente und Getriebetechnik der Technische Universität Kaiserslautern, der zur Untersuchung von Radialwellendichtringen unter statischen und dynamischen Auslenkungen dient, soll das Verständnis über Rechteckdichtringe unter statischen und dynamischen Auslenkung erweitert werden.
Das Verhalten von Rechteckdichtringen unter statischen und dynamischen Lageabweichungen wird von sich überlagernden Einflüssen bestimmt. Hierbei hängt die auftretende Leckage des Dichtsystems vorrangig von den Betriebsgrößen wie Fluiddruck und den statischen Lageabweichungen ab. Dynamische Verlagerungen innerhalb des Dichtsystem beeinflussen das Leckageverhalten negativ, wobei kein Zusammenhang zwischen Leckage und Betrag oder Frequenz der Auslenkung herrscht. Die Querschnittsfläche des Dichtrings sowie die Geometrie der Nut führen so divergierenden Betriebsverhalten, wobei die druckabhängige Leckagebildung von anderen Verhaltensmustern überlagert werden kann.
In diesem Papier vergleichen wir Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung. Wir zeigen, wie ein integrierter Ansatz die Erstellung von Expertensystemen erleichtert. Das von uns entwickelte und implementierte System ermoeglicht einen "sanften" Entwicklungsprozess ausgehend von initialen Protokollen zu einer semi-formale Strukturierung in Form eines getypten Hypertextes. Dem Hypertext ist eine aufgabenorientierte Struktur aufgepraegt, so dass eine anschliessende Operationalisierung in Form eines Expertensystems vereinfacht wird. Die in diesem Prozess erzeugte Zwischenrepraesentation (der Hypertext) wird von einem Interpreter direkt zur interaktiven Loesung von Problemen benutzt, wobei die einzelnen Aufgaben auf die verschiedenen Sachbearbeiter verteilt werden. Abschliessend erlaeutern wir, dass Hypertext und Expertensysteme nur die Raender eines Kontinuums einer allgemeinen Wissensverarbeitung sind.
In diesem Beitrag wird gezeigt, wie mit Hilfe von Knowledge Engineering Techniken eine komplexe Domäne, die Entwicklung von Bebauungsplänen, modelliert werden kann. Dabei wird insbesondere auf notwendige Erweiterungen bekannter Ansätze eingegangen, die sich aus einer praxisbezogenen Entwurfsdomäne ergeben. Der beschriebene Ansatz unterstützt die Koordination mehrerer Agenten durch die Verwaltung von Abhängigkeiten. Das beschriebene Projekt "Intelligenter Bebauungsplan" integriert GIS/CAD, Hypertext und Expertensystemtechnologie. Die Strukturierung der benötigten Informationen als Hypertext wurde von den beteiligten Stadtplanern gewünscht und ist eine natürliche Repräsentation für Gesetzestexte (und Kommentare), da sie ohnehin viele Querverweise enthalten.
In diesem Papier stellen wir einen Interpreter vor, der die Validierung von konzeptuellen Modellen bereits in fruehen Entwicklungsphasen unterstuetzt. Wir vergleichen Hypermedia- und Expertensystemansaetze zur Wissensverarbeitung und erlaeutern, wie ein integrierter Ansatz die Erstellung von Expertensystemen vereinfacht. Das von uns entwickelte Knowledge Engineering Werkzeug ermoeglicht einen "sanften" Uebergang von initialen Protokollen ueber eine semi-formale Spezifikation in Form eines getypten Hypertextes hin zu einem operationalen Expertensystem. Ein Interpreter nutzt die in diesem Prozess erzeugte Zwischenrepraesentation direkt zur interaktiven Loesung von Problemen, wobei einzelne Aufgaben ueber ein lokales Rechnernetz auf die Bearbeiter verteilt werden. Das heisst, die Spezifikation des Expertensystems wird direkt fuer die Loesung realer Probleme eingesetzt. Existieren zu einzelnen Teilaufgaben Operationalisierungen (d.h. Programme), dann werden diese vom Computer bearbeitet.
In diesem Papier beschreiben wir eine Methode zur Spezifikation und Operationalisierung von konzeptuellen Modellen kooperativer wissensbasierter Arbeitsabläufe. Diese erweitert bekannte Ansätze um den Begriff des Agenten und um alternative Aufgabenzerlegungen. Das Papier beschreibt schwerpunktmäßig Techniken, die unserem verteilten Interpreter zugrunde liegen. Dabei gehen wir insbesondere auf Methoden ein, die Abhängigkeiten zwischen Aufgaben behandeln und ein zielgerichtetes Backtracking effizient unterstützen.
The plasma membrane harbors a specific set of transmembrane proteins which enable diverse cellular functions such as nutrient uptake, ion homeostasis and cellular signaling. The surface levels of these proteins need to be dynamically regulated to allow for plastic changes in cellular behaviour e. g. upon cell stress or during neuronal communication. Endocytosis is a powerful mechanism for quickly adapting the surface proteome via protein internalization. Here, I discuss how endocytosis contributes to brain function and counteracts cell stress.
In der Betriebswirtschaftslehre bestehen unterschiedliche Sichtweisen in Bezug auf Unternehmensziele und deren Verhältnis zu Stakeholderzielen. Der vorliegende Beitrag untersucht das Verhältnis von Unternehmenszielen und Stakeholderzielen, wobei die zentrale Zielsetzung des Beitrags darin besteht, die Stakeholderziele zu spezifizieren, da bislang existierende Kataloge mit Stakeholderzielen wenig detailliert sind. Dabei werden die unterschiedlichen Stakeholderziele anhand ihrer drei Zieldimensionen untersucht sowie in Formal- und Sachziele unterteilt. Des Weiteren wird deutlich, dass zwischen Unternehmenszielen und Stakeholderzielen durch die differierenden Ziele der unterschiedlichen Stakeholdergruppen ständige Konflikte herrschen, wodurch es grundsätzlich innerhalb unter-nehmerischer Zielsysteme nur zu einer Quasilösung der Konflikte kommen kann.
Während des Forschungsprozesses zur Erstellung einer wissenschaftlichen Arbeit müssen zahlreiche Entscheidungen getroffen und auch gerechtfertigt werden. Dies gilt nicht nur für konzeptionelle Arbeiten, sondern insbesondere auch für empirisch ausgerichtete Arbeiten. In diesem Zusammenhang leistet der vorliegende Leitfaden einen Beitrag zur konzeptionellen sowie anwendungsbezogenen empirischen Grundlagenforschung im Controlling unter besonderer Berücksichtigung der Vorgehensweise am Lehrstuhl für Unternehmensrechnung und Controlling. Das zentrale
Ziel des Leitfadens liegt dabei in dem Aufzeigen eines Überblicks über die Grundlagen der empirischen Forschung im Controlling. Hierzu wird in einem ersten Schritt die wissenschaftstheoretische Relevanz der fundierten empirischen Forschung im Kontext realwissenschaftlicher Untersuchungen aufgezeigt und diese mit dem Forschungskonzept des Lehrstuhls verknüpft. Hieran anschließend werden einige empirische Forschungsdesigns vorgestellt, wobei insbesondere die Methodik der Vignetten-studie näher erörtert wird. Abschließend befasst sich der folgende Beitrag mit der konzeptionell fundierten Durchführung einer empirischen Studie anhand des 6-Phasen-Modells nach Reiß und Sarris (2012).
Betrachtet man sowohl die klassische betriebs-wirtschaftliche Literatur als auch die Literatur der Controlling-Forschung, so ist ersichtlich, dass jeweils eine Anspruchskongruenz der Eigenkapitalgeber unterstellt wird, welche zu einem einheitlichen Diskontsatz führt, wie dies insbesondere auch im Shareholder Value-Ansatz deutlich wird. Grundlage dieses Postulates ist die neoklassische Theorie, welche unter restriktiven Prämissen die Einmütigkeit der Shareholder hinsichtlich des Formalziels „Shareholder Value“-Maximierung modelltheoretisch abzuleiten vermag. Hierbei werden jedoch ein vollkommener Kapitalmarkt sowie eine Entscheidungssituation unter Sicherheit vorausgesetzt. Beide Prämissen sind auf realen Märkten nicht gegeben. Trotz dieser fehlenden modelltheoretisch strengen Einmütigkeit können jedoch Unternehmen, wie auch empirisch zu sehen ist, offensichtlich durchaus (in gewissen Grenzen) divergierende Shareholderansprüche inkorporieren, welches mit den traditionellen Modellen nicht plausibel abzubilden ist.
Die Frage, wie dies dennoch konzeptionell begründet werden könnte, konstituiert die Ausgangsgrundlage dieses Forschungsbeitrags. Hierbei werden zuerst die standardökonomischen Ansätze zur Klärung der Einmütigkeitsfrage kritisch reflektiert, bevor mit dem Konzept der bounded rationality nach Simon und Gigerenzer eine verhaltenswissenschaftliche Gegenposition eingenommen wird. Diese kann, wie gezeigt wird, als konzeptionelle Grundlage dienen, um die empirisch evidente, hinreichende Einmütigkeit unter den Eigenkapitalgebern eines Unternehmens zu erklären. Hierbei stellt sich jedoch für das Management die zentrale Frage, wie hoch die erwarteten Renditeansprüche der Shareholder legitimer Weise ausfallen dürfen. Diese Frage gewinnt an zusätzlicher Relevanz, wenn man davon ausgeht, dass die Eigenkapitalrenditen im Bezug zum zusätzlichen Risiko, welches die Eigenkapitalgeber tragen, überproportional hoch ausfallen. Das Controlling kann in diesem Kontext einen bedeutenden Beitrag zur Führungsunterstützung des Managements – und damit zu einem dauerhaften Erfolg des Unternehmens – leisten.
Das Controlling hat seinen Platz in der Betriebswirtschaftslehre und damit als akademische Disziplin noch nicht gefunden, ja es ist nicht einmal allgemein geklärt, ob Controlling überhaupt eine wissenschaftliche Disziplin ist. Denn für die Anerkennung als wissenschaftliche Teildisziplin müsste es mit Kant gelingen, „das Unterscheidende, was sie mit keiner andern gemein hat, und was ihr also eigenthümlich ist“ genau zu bestimmen. Der Versuch einer derartigen „Bestimmung“ ist charakteristisch für die wissenschaftliche Beschäftigung mit „Controlling“ im deutschen Sprachraum.
Nach einem systematisierenden Überblick über bisherige Konzeptionalisierungsversuche und deren kritischer Würdigung wird aus der Erfolglosigkeit dieser Bemühungen in den letzten 50 Jahren der Schluss gezogen, dass der Versuch, „Controlling“ in Relation zur „klassischen“ Betriebswirtschaftslehre zu konzeptionalisieren, gescheitert ist. Will man nun den Versuch einer wissenschaftlichen Konzeptionalisierung nicht gänzlich aufgeben, so ist es möglicherweise sinnvoll, auf einen alternativen Referenzrahmen zurückzugreifen. Ein solcher Referenzrahmen stellt das Konzept der Privatwirtschaftslehre (PWL) dar. Dieses wird im Weiteren genutzt, um eine andere Fundierung des Controllings zu schaffen, um wiederum auf dieser Basis einen Controllingansatz zu formulieren, der die zuvor kritisierten Schwächen überwindet.
Die MINT-EC-Girls-Camp: Math-Talent-School ist eine vom Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) initiierte Veranstaltung, die regelmäßig als Kooperation zwischen dem Felix-Klein-Zentrum für Mathematik und dem Verein mathematisch-naturwissenschaftlicher Excellence-Center an Schulen e.V. (Verein MINT-EC) durchgeführt wird. Die methodisch-didaktische Konzeption der Math-Talent-Schools erfolgt durch das Kompetenzzentrum für Mathematische Modellierung in MINT-Projekten in der Schule (KOMMS), einer wissenschaftlichen Einrichtung des Fachbereichs Mathematik der Technischen Universität Kaiserslautern. Die inhaltlich-organisatorische Ausführung übernimmt das Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in enger Abstimmung und Kooperation von Wissenschaftlern der Technischen Universität und des Fraunhofer ITWM. Die MINT-EC-Girls-Camp: Math-Talent-School hat zum Ziel, Mathematik-interessierten Schülerinnen einen Einblick in die Arbeitswelt von Mathematikerinnen und Mathematikern zu geben. In diesem Artikel stellen wir die Math-Talent-School vor. Hierfür werden die fachlichen und fachdidaktischen Hintergründe der Projekte beleuchtet, der Ablauf der Veranstaltung erläutert und ein Fazit gezogen.
Neben einem populistischen Demokratieverständnis bildet auch ein majoritärer Relativismus Teil der deutschen politischen Kultur. Dieser Aufsatz argumentiert und liefert Evidenz dafür, dass es sich um zwei unterschiedliche, aber zugleich teils miteinander verwandte Demokratieauffassungen handelt und dass es wichtig ist, beide auseinanderzuhalten. Wie der Populismus erwartet der majoritäre Relativismus die möglichst unmittelbare und getreue Verwirklichung der Interessen in der Bevölkerung, er hält dabei jedoch ausdrücklich nicht an der Idee eines wahren und einheitlichen Volkswillens fest. Während beide positiv mit der Unterstützung der rechtspopulistischen Partei Alternative für Deutschland (AfD) zusammenhängen, zeigt nur der Populismus einen negativen Zusammenhang mit optimierendem Problemlösen durch künstliche Intelligenz in der politischen Führung, der majoritäre Relativismus hingegen sogar einen positiven Zusammenhang. Bemerkenswert ist zudem, dass der majoritäre Relativismus Unterstützung für die AfD besser vorhersagt als ein populistisches Demokratieverständnis. Damit leistet der Aufsatz einen wichtigen Beitrag zur Debatte über Populismus als Bestandteil der politischen Kultur in Deutschland.