Refine
Year of publication
Document Type
- Doctoral Thesis (1468)
- Preprint (1152)
- Report (475)
- Article (332)
- Periodical Part (238)
- Master's Thesis (148)
- Working Paper (106)
- Conference Proceeding (32)
- Diploma Thesis (31)
- Lecture (25)
Language
- English (2475)
- German (1609)
- Multiple languages (4)
- Spanish (4)
Has Fulltext
- yes (4092) (remove)
Keywords
- AG-RESY (64)
- PARO (31)
- Stadtplanung (28)
- Modellierung (22)
- Simulation (22)
- Case-Based Reasoning (20)
- Erwachsenenbildung (20)
- wissenschaftliche Weiterbildung (19)
- Visualisierung (18)
- Hochschulforschung (17)
Faculty / Organisational entity
- Fachbereich Mathematik (1051)
- Fachbereich Informatik (847)
- Fachbereich Chemie (332)
- Fachbereich Maschinenbau und Verfahrenstechnik (331)
- Fachbereich Physik (293)
- Fachbereich Sozialwissenschaften (274)
- Fraunhofer (ITWM) (222)
- Fachbereich Elektrotechnik und Informationstechnik (140)
- Fachbereich Biologie (131)
- Fachbereich ARUBI (86)
Der moderne Schulbau verlangt nach neuen Wegen, um veränderte pädagogische und architektonische Anfor-derungen mit den präskriptiven Vorgaben bisheriger Bauweisen in Einklang zu bringen. Im Zyklus der ständigen Anpassung geltender Bauvorschriften an die Veränderungen der Gesellschaft und den Stand der Technik, gilt es, den Wunsch nach neuen Schulbauformen aufzugreifen und ingenieurmäßig und baurechtlich fortzuentwickeln. Basierend auf den Leitlinien neuer Schulbauformen und den darauf aufbauenden, mit ingenieurmäßiger Argumentation entwickelten Geometrien, werden diese, mittels rechnerischer Verfahren des Brandschutzingenieurwesens, konkretisiert. Um die These der Gleichwertigkeit des Sicherheitsniveaus von konventionellen und neuen pädagogischen Schulbauformen zu verifizieren, werden konventionelle Schulen als Grenzwertmodelle nach Maßgabe präskriptiver Vorgaben entwickelt und mithilfe eines Handrechenverfahrens werden die Grund-lagen von Personenströmen in Gebäuden ermittelt. Die Anwendung des Handrechenverfahrens auf konventionelle Schulmodelle liefert Erkenntnisse über die Leistungsfähigkeit der einzelnen Rettungswegelemente. Zusätzlich wird deutlich, dass das Verfahren sehr aufwändig ist und insbesondere bei paralleler graphischer Er-mittlung, es einer intensiven Auseinandersetzung mit dem Rechenverfahren bedarf. Für das Verständnis inge-nieurmäßiger Räumungsnachweise, stellt das Handrechenverfahren eine wichtige und notwendige Voraussetzung dar, um Computer unterstützte Individualmodelle korrekt anzuwenden und deren Ergebnisse sinnvoll interpretieren zu können. Es wird auch deutlich, dass das Handrechenverfahren aufgrund des hohen Aufwandes nicht dazu geeignet ist, um umfangreiche Parameterstudien durchzuführen.
Auf der Grundlage pädagogischer und architektonischer Leitlinien erfolgen Modellentwicklungen unterschiedlicher Raumformen. Das hierfür entwickelte Rettungswegsystem wird, unter Zuhilfenahme eines Computer unterstützen Individualmodells, mittels Parameterstudien zur Verifizierung ungünstigster Randbedingungen untersucht. Die ungünstigste Raumgeometrie bildet die Grundlage zur Fortentwicklung ganzer Gebäudegrundrisse und die Entwicklung unterschiedlich großer Schulgebäudekörper. Die Ergebnisse der Parameterstudien alter und neuer Schulbauformen, aus mehr als 8000 Simulationsdurchläufen, werden als bewertender Vergleich der Risikosituation, zu unterschiedlichen Schulmodellen herangezogen. Als wesentliche Vergleichsgröße dient die Anzahl der Agenten (Personen), welche bei der Gegenüberstellung konventioneller und neuer Schulbauformen, jeweils gleich ist.
Aus den Ergebnissen der Untersuchungen werden die Kapazitätsgrenzen konventioneller Schulbauformen nach Maßgabe präskriptiver Vorgaben verdeutlicht. Insbesondere die Bestimmung des ungünstigsten Szenarios unter Beachtung temporärer Zustände und die Berücksichtigung von Ausfallszenarien baulicher Rettungswege, verdeutlichen die Relevanz einer ingenieurmäßigen Betrachtung des Themas.
Zusätzlich zu den Vergleichsbetrachtungen zwischen konventionellen und neuen Schulbauformen wird ein Instrument entwickelt, welches die Qualität der Rettungswege hinsichtlich gegenläufiger Ströme berücksichtigt. Es erfolgt eine Betrachtung, die unter Berücksichtigung des zeitlichen Verlaufs die gegenläufige Bewegung von Flüchtenden Personen und den Kräften des abwehrenden Brandschutzes betrachtet. Die Instrumente zur Bestimmung der Qualität der Rettungswege sind dazu geeignet, allgemeingültig auf Gebäude besonderer Art und Nutzung zu übertragen.
In order to exploit the full lightweight potential of fibre-reinforced plastics (FRP), a detailed knowledge of their progressive failure behaviour under load is required. In this context, acoustic emission analysis offers a method to characterize the underlying mechanisms in more detail. By detecting and analszing acoustic waves emitted during
crack initiation and growth, the location and type of damage can be described over the course of the test. A major challenge thereby is the differentiation between FRP specific damaging events, such as fibre and matrix fractures, on the basis of their acoustic emissions.
The present work deals with the influence of two parameters which can have a significant impact on the acoustic characteristics of damaging events. These include the depth in which the damaging event occurs (source depth) and the lateral distance the acoustic wave has to travel from the source to the sensor (source-to-sensor distance).
In order to gain an understanding of the effects of both parameters, the work highlights the properties of guided waves in fibre- reinforced plastics as crucial. By analysing artificial acoustic emission sources as well as acoustic emissions from real damaging
events, the work demonstrates that changes in source depth and source-to-sensor distance can be accompanied by strong changes in the modal and frequency content of the acoustic emissions. These changes can even lead to a fibre break being mistakenly classified as a matrix break and vice versa. Consequently, for more reliable results in
source identification, the influence of source depth and source-to-sensor distance must be considered. In this context, the use of modal acoustic emission analysis can be of great benefit in understanding the underlying phenomena and developing more robust evaluation methods.
Der Beruf schulischer Lehrkräfte ist starken Spannungsverhältnissen und Antinomien ausgesetzt, die es gerade in der unterrichtlichen Gestaltung zu bewerkstelligen gilt. Durch aktuelle bildungspolitische Forderungen, die eine Medienkompetenzförderung und die Einbindung digitaler Medien in den Unterricht fordern, wachsen auch die Erwartungen an den Lehrer*innenberuf sowie seine Aufgaben. Da es gilt, Schülerinnen und Schüler auf eine selbst- und eigenverantwortliche Teilhabe in der Gesellschaft vorzubereiten, braucht es daher geeignete Lehr- und Lernkonzepte, um digital gestützte Veränderungs- und Arbeitsprozesse zu berücksichtigen. Das fordert zuweilen ein Umdenken bewährter Unterrichtskonzepte und Rollenwahrnehmungen von Lehrkräften. In der Arbeit steht daher die Rollenwahrnehmung schulischer Lehrkräfte unter der Perspektive eines digitalen Medieneinsatzes im Fokus. Dazu wurde in einem zweistufigen qualitativen Analyseverfahren Rollenwahrnehmungen von Lehrerinnen und Lehrern erhoben und diese vor dem Hintergrund der sozialen Rollentheorie von Parsons diskutiert.
Robuste Optimierung wird zur Entscheidungsunterstützung eines komplexen Beschaffungs- und Transportmodells genutzt, um die Risikoeinstellung der Entscheidenden abzubilden und gleichzeitig ein robustes Ergebnis zu erzielen. Die Modellierung des Problems ist umfassend dargestellt und Ergebnisse der nicht-deterministischen Planung bei verschiedenen Parametern und Risikoeinstellungen gegenübergestellt. Die Datenunsicherheit wird an einem Praxisfall erläutert und Methoden und -empfehlungen zum Umgang mit dieser dargestellt.
Glasfaserverstärktes Sheet Molding Compound (G-SMC) wird seit mehreren Jahrzehnten vorrangig in der Automobilindustrie zur Herstellung von Außenhaut- und Verkleidungsbauteilen verwendet.
Es handelt sich dabei hauptsächlich um ebene und großflächige Bauteile mit niedrigen oder semistrukturellen Anforderungen. Aufgrund der hohen Designfreiheit von Bauteilen dieser Werkstoff-klasse wird seit einigen Jahren versucht diese durch die Steigerung der mechanischen Kennwerte
als strukturelle Komponenten zu befähigen und in Fahrzeugstrukturen zu integrieren. Die beiden wichtigsten Stellgrößenen sind hierbei die Verwendung von Kohlenstofffasern (C-Fasern) zusammen
mit einem hohen Faservolumengehalt (über 40 Vol-%). Mit dem Einsatz teurer C-Fasern und dem Wunsch nach effzientem Materialeinsatz steigt der Bedarf nach Simulationswerkzeugen, um die Formfüllung bzw. Bauteilherstellung zu beschreiben. Für G-SMC wurden bisher DProzesssimulationen entwickelt und validiert. Trotz allem ist der Einsatz in der industriellen Praxis bisher kaum verbreitet. Insbesondere lassen sie sich auf den Einsatz von Kohlenstofffaserverstärkten Sheet Molding Compounds (C-SMC) nicht anwenden, da hierbei komplexe, teilweise verripte 3D-Bauteile vorliegen. Um die Material- und Produktkosten bei C-SMC zu senken, werden mittlerweile auch rezyklierte Halbzeuge angeboten und industriell eingesetzt. Diese Halbzeuge weisen in ihrem Umform- und Fließverhalten deutliche Unterschiede zu Neufasermaterialien auf.
Hier setzt die vorliegende Arbeit an. Sie leistet einen Beitrag zur Charakterisierung und phänomenologischen Beschreibung von C-SMC mit neuen und rezyklierten C-Fasern. Dabei stehen Methoden zur Erzeugung von Eingangs- und Validierungsdaten für die 3D-Prozesssimulation im
Vordergrund. Zur Bestimmung der Faserorientierungen als wichtigste Kenngröße wird das Wirbelstromverfahren in Transmission verwendet. Dabei wird erstmalig eine Methode zur Messung von komplexeren 3D-Bauteilen gezeigt und eine Übertragung auf Finite-Elemente-Netze (FE-Netze) entwickelt. Auf Basis der Materialcharakterisierung wird eine durchgängige, virtuelle 3D-Prozesskette (VPK) für den Pressvorgang bereitgestellt. Für die 3D-Simulation des Pressvorgangs wird der gekoppelte Euler-Lagrange-Ansatz (CEL) verwendet. Ein wichtiges Unterscheidungsmerkmal gegenüber der bisherigen Modellierung von G-SMC ist der festkörpermechanische Betrachtungsansatz des C-SMC beim Pressen. Insbesondere für rezykliertes C-SMC mit einer Wirrfaserstruktur und starken Kompaktierung kommen die bisher verwendeten uidmechanischen Anäatze an die Grenzen ihrer Gültigkeit. Für die Simulation der Bauteilabkühlung nach dem Pressvorgang wird eine linearelastische, orthotrope 3D-Verzugssimulation entwickelt.
Für die Verknüpfung der Presssimulation mit der anschließenden Verzugssimulation wird eine modulare Schnittstellenlösung bereitgestellt. Ein Fokus der Entwicklung ist die industrielle Einsetzbarkeit der VPK, weshalb Werkzeuge und Methoden bereitgestellt werden, um komplexere Modelle zu erstellen und diese zu verknüpfen. Die Anwendbarkeit und Prognosegüte der entwickelten VPK wird abschließend an einem Vorserienbauteil einer PKW-Stütze C-Säule ausführlich untersucht.
In der vorliegenden Arbeit werden die Chancen der Netzwerkbildung von Grundschulen im ländlichen Raum erörtert. Die Ausarbeitung gliedert sich in zwei Bereiche: einen theoretischen Überbau und die anschließende praktische Anwendung der erworbenen Kenntnisse. Das Thema wird also als Theorie-Praxis-Transfer bearbeitet.
This work deals with the simulation of the micro-cutting process of titanium. For this
purpose, a suitable crystal-plastic material model is developed and efficient implemen-
tations are investigated to simulate the micro-cutting process. Several challenges arise
for the material model. On the one hand, the low symmetry hexagonal close-packed
crystal structure of titanium has to be considered. On the other hand, large defor-
mations and strains occur during the machining process. Another important part is
the algorithm for the determination of the active slip systems, which has a significant
influence on the stability of the simulation. In order to obtain a robust implemen-
tation, different aspects, such as the algorithm for the determination of the active
slip systems, the method for mesh separation between chip and workpiece as well as
the hardening process are investigated, and different approaches are compared. The
developed crystal-plastic material model and the selected implementations are first
validated and investigated using illustrative examples. The presented simulations of
the micro-cutting process show the influence of different machining parameters on the
process. Finally, the influence of a real microstructure on the plastic deformation and
the cutting force during the process is shown.
Most of eukaryotes show signs of having sex or sexual recombination, and the other asexual eukaryotes have evidences of evolving from sexual ancestors. Meiotic recombination, or crossover are proved to have two pathways in eukaryotes, whose distribution was well studied in many model eukaryotes. However, the distribution of sex in specific lineage is debating. The distribution and evolution of meiotic recombination pathways in alveolates would provide us clues of lost/gaining of pathways in early eukaryotes and fill the gaps between protist and more complex multicellular organisms (fungi, animals and plants) .
In this dissertation, we designed a customized program with Python, which integrated Blastp and HMMER v3.0, to search for homologs of 51 meiotic genes (11 meiosis-specific and 40 meiosis-related genes ) in the whole genome sequences or EST data of five Ciliates, seven Apicomplexa, two Chromerida, one Perkinsus, one Dinoflagellates and Chrysophytes (golden algae). All candidate homologs were then verified by reciprocal Blastp search against the nonredundant protein sequence database of NCBI and phylogeny analysis of RAxML.
The gene inventory results shows that several eukaryotic meiosis-specific and meiosis-related genes are missing in every group. However, the presents of meiosis initiate protein Spo11 in some putative asexual lineage (Symbiodinium, Colpodean and Chrysophytes) suggest that they might be cryptically sexual. Within alveolates, Apicomplexa are capable of both pathways, while Ciliates and Dinoflagellates using a set of mitotic repair proteins for meiotic recombination. We speculated that the result of the abandonment of the pathway I might due to the abnormal chromosome structure of both Ciliates and Dinoflagellates. Phylogenetic analysis of the distribution of meiotic pathways within alveolates suggest that the reduction of meiotic pathway I in Ciliates and Dinoflagellates are independent. Considering that Apicomplexa are capable of both meiotic pathways, we would infer that those two pathways exist in the common ancestor of alveolates.
Simulating the flow of water in district heating networks requires numerical methods which are independent of the CFL condition. We develop a high order scheme for networks of advection equations allowing large time steps. With the MOOD technique unphysical oscillations of non smooth solutions are avoided. In numerical tests the applicability to real networks is shown.
This thesis consists of two parts, i.e. the theoretical background of (R)ABSDE including basic theorems, theoretical proofs and properties (Chapter 2-4), as well as numerical algorithms and simulations for (R)ABSDES (Chapter 5). For the theoretical part, we study ABSDEs (Chapter 2), RABSDEs with one obstacle (Chapter 3)and RABSDEs with two obstacles (Chapter 4) in the defaultable setting respectively, including the existence and uniqueness theorems, applications, the comparison theorem for ABSDEs, their relations with PDEs and stochastic differential delay equations (SDDE). The numerical algorithm part (Chapter 5) introduces two main algorithms, a discrete penalization scheme and a discrete reflected scheme based on a random walk approximation of the Brownian motion as well as a discrete approximation of the default martingale; we give the convergence results of the algorithms, provide a numerical example and an application in American game options in order to illustrate the performance of the algorithms.
Im Rahmen dieser Arbeit sollten literaturbekannte Polyoxometallate synthetisiert und mit verschiedenen Gegenionen umgesetzt werden. Ziel dabei sollte sein, Oxidationsreaktionen in Batch-Ansätzen durchzuführen und diese im Anschluss daran auf einen Rohrreaktor zu übertragen. Dabei wird zuerst die Synthese der Polyoxometallate vorgestellt. Im Anschluss daran werden Oxidationsreaktionen von Alkoholen und Olefinen diskutiert.
Es konnte festgestellt werden, dass die Oxidation von Alkoholen mit verschiedenen Polyoxometallaten in den Batch-Versuchen nach einigen Stunden keinen vollständigen Umsatz ergab. Im Rohrreaktor zeigte sich hingegen, dass hohe Ausbeuten innerhalb von Minuten erreichbar sind. Aufgrund dessen wurde der Rohrreaktor etwas umgebaut, um die Reaktionen in kleineren Maßstäben zu untersuchen, wobei auch die Verweilzeiten und die Temperatur variiert wurden. Auch hier konnten hohe Ausbeuten nach wenigen Minuten verzeichnet werden.
Anschließend wurden Olefine im Rohrreaktor untersucht, wobei es zu Problemen mit der verwendeten Pumpe kam. Folglich mussten der Katalysator bzw. das Gegenion verändert werden, um Untersuchungen in organischen Lösungsmitteln zu ermöglichen. Es stellte sich heraus, dass Olefine epoxidiert werden können, dies aber, im Vergleich zu den Alkoholen, wesentlich schlechter funktioniert. Weitere Untersuchungen in den Batch-Ansätzen bezüglich der Olefin Epoxidierung zeigten, dass dabei hohe Umsätze nach kurzen Zeiten realisiert werden.
Drahtlose Kommunikationssysteme dringen in immer mehr Anwendungsbereiche vor. Für einige Anwendungsszenarien, wie etwa die Prozessautomatisierung in Fabriken und Industrieanlagen, ist die Zuverlässigkeit vieler drahtloser Kommunikationssysteme wie IEEE 802.11 (WLAN) oder Bluetooth aber noch unzureichend. Daher wurden für diese Anwendungsbereiche spezielle Kommunikationssysteme wie WirelessHART oder ISA 100.11a entwickelt. Diese basieren meist auf Time Division Multiple Access (TDMA) und erreichen durch exklusive Reservierungen deterministische Zuverlässigkeit, falls kein anderes Kommunikationssystem die genutzten Kanäle stört.
Diese Arbeit behandelt geeignete Protokolle und Algorithmen, um die Zuverlässigkeit drahtloser Kommunikationssysteme zu verbessern. Im ersten Teil der Arbeit werden Verfahren für TDMA-basierte Kommunikationssysteme betrachtet. Basierend auf IEEE 802.15.4 werden mehrere Funktionalitäten für ProNet 4.0, einem an der Arbeitsgruppe Vernetzte Systeme der TU Kaiserslautern entwickelten Kommunikations-Stack für Industrie 4.0, entworfen und auf Imote 2 Sensorknoten implementiert. Zuverlässige Kommunikation bedarf Kenntnis von sowohl der Kommunikationstopologie, über die Knoten miteinander kommunizieren können, als auch der Interferenztopologie, die angibt, wie Knoten sich gegenseitig stören können. Dazu stellt die Arbeit mit dem Automatic Topology Discovery Protocol (ATDP) ein Verfahren zur automatischen Topologieerkennung vor. Anschließend wird QoS Multicast Routing betrachtet und mit dem QoS Multicast Routing Protocol (QMRP) ein Verfahren für partiell mobile Netzwerke entwickelt. Weiterhin wird mit ProMid eine Kommunikations-Middleware beschrieben, die ein hohes Abstraktionslevel aufweist und die darunter liegenden Schichten steuert. Die dienstorientierte Architektur nutzt eine verteilte Service Registry, wobei die Auswahl der Registry-Knoten anhand eines dafür entwickelten Clustering-Algorithmus erfolgt. Das Heterogeneous Network Clustering (HNC) genannte Verfahren berücksichtigt ein heterogenes Netzwerkmodell mit Knoten, die Clusterhead bzw. Gateway werden müssen, können bzw. nicht dürfen.
Der zweite Teil der Arbeit behandelt Protokolle und Algorithmen für zuverlässige wettbewerbsbasierte Kommunikationssysteme. Die in diesem Kapitel vorgestellten Verfahren sind in einem auf WLAN basierenden Kommunikations-Stack implementiert und evaluiert worden. Zunächst wird ein Verfahren für die Topologieerkennung in WLAN-Netzwerken vorgestellt. Anschließend wird ein auf dem Token Bucket-Mechanismus basierendes Verfahren zur Verkehrskontrolle entwickelt. Daraus wird mit der Unusable Wasted Bandwidth Ratio eine Metrik abgeleitet, die es erlaubt, die Auslastung des Mediums abzuschätzen. Aufbauend auf dem Verfahren zur Verkehrskontrolle wird eine kooperative faire Bandbreitenskalierung für WLAN vorgestellt. Das Verfahren verteilt die Bandbreite fair unter den internen Knoten unter Berücksichtigung der Quality of Service (QoS) Anforderungen. Dabei reagiert es dynamisch auf Änderungen des externen Verkehrs und verhindert so Überlastsituationen. Letztlich wird ein Clustering-Protokoll vorgestellt, welches durch das Anwendungsszenario der Überwachung von Güterzügen motiviert ist und Linientopologien bildet sowie dynamisch repariert. Das auf Bluetooth LE aufbauende Verfahren dient dazu, Energie einzusparen, und wurde in einer Kooperation mit der Bosch Engineering GmbH entwickelt.
Optical Character Recognition (OCR) is one of the central problems in pattern recognition. Its
applications have played a great role in the digitization of document images collected from het-
erogeneous sources. Many of the well-known scripts have OCR systems with sufficiently high
performance that enables OCR applications in industrial/commercial settings. However, OCR sys-
tems yield very-good results only on a narrow domain and very-specific use cases. Thus, it is still
a challenging task, and there are other exotic languages with indigenous scripts, such as Amharic,
for which no well-developed OCR systems exist.
As many as 100 million people speak Amharic, and it is an official working language of Ethiopia.
Amharic script contains about 317 different alphabets derived from 34 consonants with small changes.
The change involves shortening or elongating one of its main legs or adding small diacritics to the
right, left, top, or bottom of the consonant character. Such modifications lead the characters to have
similar shapes and make the recognition task complex, but this is particularly interesting for charac-
ter recognition research. So far, Amharic script recognition models are developed based on classical
machine learning techniques, and they are very limited in addressing the issues for Amharic OCR.
The motivation of this thesis is, therefore, to explore and tailor contemporary deep learning tech-
niques for the OCR of Amharic.
This thesis addresses the challenges in Amharic OCR through two main contributions. The first
contribution is an algorithmic contribution in which we investigate deep learning approaches that
suit the demand for Amharic OCR. The second is a technical contribution that comprises several
works towards the OCR model development; thus, it introduces a new Amharic database consisting
of collections of images annotated at a character and text-line level. It also presents a novel CNN-
based framework designed by leveraging the grapheme of characters in Fidel-Gebeta (where Fidel-
Gebeta consists of the full set of Amharic characters in matrix structure) and achieves 94.97%
overall character recognition accuracy.
In addition to character level methods, text-line level methods are also investigated and devel-
oped based on sequence-to-sequence learning. These models avoid several of the pre-processing
stages used in prior works by eliminating the need to segment individual characters. In this design,
we use a stack of CNNs, before the Bi-LSTM layers and train from end-to-end. This model out-
performs the LSTM-CTC based network, on average, by a CER of 3.75% with the ADOCR test
set. Motivated by the success of attention, in addressing the problems’ of long sequences in Neural
Machine Translation (NMT), we proposed a novel attention-based methodology by blending the
attention mechanism into CTC objective function. This model performs far better than the existing
techniques with a CER of 1.04% and 0.93% on printed and synthetic text-line images respectively.
Finally, this thesis provides details on various tasks that have been performed for the development
of Amharic OCR. As per our empirical analysis, the majority of the errors are due to poor annotation
of the dataset. As future work, the methods proposed in this thesis should be further investigated
and extended to deal with handwritten and historical Amharic documents.
Das Ultraschallschweißen ist eine innovative und vielversprechende Fügetechnologie für hybride
Werkstoffsysteme. Im Rahmen dieser Arbeit wird erstmalig das kontinuierliche Metall-
Ultraschallschweißen zur Verbindung von Leichtmetalllegierungen mit faserverstärkten Kunststoffen
für den Einsatz im Hydrauliksystem eines Flugzeuges betrachtet. Dafür wurden Ultraschallschweißanlagen
und Prozessparameter für translatorisches Schweißen ebener und für das
neuartige orbitale Schweißen rohrförmiger Fügepartner entwickelt. Das Ultraschallschweißen
von Titan erfordert besonders robuste Sonotroden. Die Härte, die Festigkeit und die vergleichsweise
geringe Wärmeleitfähigkeit bedeuten eine hohe mechanische und thermische Beanspruchung
der Sonotrode während des Schweißprozesses. Gleichzeitig muss die Sonotrode mit hoher
Amplitude von bis zu 50 μm schwingen, um eine feste Verbindung erzeugen zu können.
Der Werkstoff, die Geometrie und die Sonotrodenkoppelfläche müssen speziell für das Ultraschallschweißen
von Titan ausgelegt werden. Im Rahmen dieser Arbeit wurden Schweißanlagen,
Prozessparameter und Sonotroden erfolgreich für den orbitalen Ultraschallschweißprozess
entwickelt, sodass eine Ti6Al4V-Fitting/CF-PEEK-Rohr-Verbindung hergestellt werden
konnte, die einem Innendruck von 960 bar standhielt, der einer Axialkraft von 81,7 kN und
einer relativen Zugscherkraft in Bezug zur Schweißnahtlänge von 390 N/mm entspricht.
Die vorliegende Synopsis hat sich in ihren Inhalten maßgeblich mit drei Aspekten der Ganzkörper-Elektromyostimulation (GK-EMS) beschäftigt: der Zielgruppe, den Stimulationsparametern sowie der Effektivität des Trainings.
Auf Basis der durchgeführten Studien konnte die zu trainierende Zielgruppe um ein jugendliches Probandengut mit unterschiedlichem sportlichem Hintergrund (Radsport, Fußball) erweitert werden, was die Anwendung einer GK-EMS Applikation nun auch bei minderjährigen Athleten unter Einhaltung diverser Sicherheitsaspekte möglich macht.
Bei den untersuchten Stimulationsparametern wurden die Erkenntnisse in Bezug zur maximalen Intensitätstoleranz erweitert, hier kommt es nach drei aufeinanderfolgenden Untersuchungen zu einer Anpassung dieser, was ein Ansatz zur Erstellung eines Maximums und einer nachfolgenden Ableitung von objektiven Trainingsintensitäten sein kann. Die verwendete Stimulationsfrequenz (20 Hz oder 85 Hz) hat des Weiteren keinen Einfluss auf die Leistungssteigerungen unterschiedlicher Parameter (Counter Movement Jump, Squat Jump, Rumpfflexion und Rumpfextension) nach einer 10-wöchigen GK-EMS Applikation mit einem untrainierten Probandengut.
Die Effektivität des GK-EMS konnte durch einen 8 bis 10-wöchigen Trainingszeitraum mit unterschiedlichen Zielgruppen anhand unterschiedlicher Zielparameter belegt werden, vor allem bei den Maximalkraftparametern der Rumpfflexion (+33.7%), Rumpfextension (+20.9%), der Knieflexion (+20.7%) sowie Knieextension (+31.4%) wurden hierbei signifikante Leistungssteigerungen festgestellt.
Aufbauend auf den generierten Ergebnissen wurde ein 4-Faktoren-Modell des GK-EMS aufgestellt, welches in der praktischen Anwendung als ein dynamisches Leitbild zur sicheren und effektiven GK-EMS Anwendung zu betrachten ist und der Maximierung des Trainingserfolgs bei gleichzeitiger Kontrolle der Inhalte und Minimierung von gesundheitlichen Risiken für den Trainierenden dient.
Die Inhalte des GK-EMS, vor allem in Bezug auf die verwendeten Stimulationsparameter, sollten in zukünftigen Untersuchungen weiter spezifiziert werden, um eine verbesserte Systematisierung und somit eine sichere Anwendung des GK-EMS zu gewährleisten.
Mit dem Vorhandensein elektrischer Energie und moderner Sensorik an elektrisch unterstützten Fahrrädern eröffnen sich neue Möglichkeiten der Entwicklung von Fahrerassistenzsystemen am Pedelec zur Erhöhung der Sicherheit und des Fahrkomforts. Die Leistungsfähigkeit solcher Systeme kann durch die Nutzung von Inertialsensorik weiter gesteigert werden. Jedoch müssen solche Sensoren, vor allem bei sicherheitsrelevanten Assistenzsystemen, zuverlässige, robuste und plausible Sensordaten liefern. Hieraus ergibt sich das Thema dieser Arbeit: die Evaluation von Inertialsensorik für Fahrerassistenzsysteme am Pedelec anhand systematischer Untersuchung der Fahrdynamik.
Durch simulative und experimentelle Untersuchungen der MEMS-Sensorik und der Fahrdynamik, basierend auf Testkatalogen, werden die Anforderungen an Inertialsensorik abgeleitet und die Störbarkeit der Drehrate analysiert. Dabei führt die Betrachtung verschiedener Sensortypen, Fahrszenarien und Anbaupositionen zu der Erkenntnis, dass bspw. die Anbauposition am Sattelrohr und in der Antriebseinheit besonders geeignet sind. Vor allem der betrachtete Automotive-MEMS-Sensor liefert auch bei potentiell kritischen Vibrationen bei einer Fahrt über Kopfsteinpflaster oder über Treppenstufen sowie bei Bremsenquietschen zuverlässig plausible Sensordaten.
Zusätzlich zeigt eine Betrachtung der Auswirkungen von Sensorfehlern auf eine Datenfusion, d.h. der Berechnung der Raumwinkel, dass vor allem die Minimierung des Offset-Fehlers, bspw. durch eine Langzeitkorrektur, sinnvoll erscheint und resultierende Winkelfehler minimieren kann.
Die Untersuchung der Fahrdynamik betrachtet insbesondere das Fahrszenario (kritische) Kurvenfahrt. Anhand der Fahrdaten zahlreicher Pedelec-Nutzer werden eine Methode zur Erkennung von Kurvenfahrten sowie theoretische Ansätze zur Vermeidung einer kritischen Kurvenfahrt durch einen aktiven Lenkeingriff realisiert.
This paper presents a method for classifying traffic participants based on high-resolution automotive radar sensors for autonomous driving applications. The major classes of traffic participants addressed in this work are pedestrians, bicyclists and passenger cars. The preprocessed radar detections are first segmented into distinct clusters using density-based spatial clustering of applications with noise (DBSCAN) algorithm. Each cluster of detections would typically have different properties based on the respective characteristics of the object that they originated from. Therefore, sixteen distinct features based on radar detections, that are suitable for separating pedestrians, bicyclists and passenger car categories are selected and extracted for each of the cluster. A support vector machine (SVM) classifier is constructed, trained and parametrised for distinguishing the road users based on the extracted features. Experiments are conducted to analyse the classification performance of the proposed method on real data.
Multidisciplinary optimizations (MDOs) encompass optimization problems that combine different disciplines into a single optimization with the aim of converging towards a design that simultaneously fulfills multiple criteria. For example, considering both fluid and structural disciplines to obtain a shape that is not only aerodynamically efficient, but also respects structural constraints. Combined with CAD-based parametrizations, the optimization produces an improved, manufacturable shape. For turbomachinery applications, this method has been successfully applied using gradient-free optimization methods such as genetic algorithms, surrogate modeling, and others. While such algorithms can be easily applied without access to the source code, the number of iterations to converge is dependent on the number of design parameters. This results in high computational costs and limited design spaces. A competitive alternative is offered by gradient-based optimization algorithms combined with adjoint methods, where the computational complexity of the gradient calculation is no longer dependent on the number of design parameters, but rather on the number of outputs. Such methods have been extensively used in single-disciplinary aerodynamic optimizations using adjoint fluid solvers and CAD parametrizations. However, CAD-based MDOs leveraging adjoint methods are just beginning to emerge.
This thesis contributes to this field of research by setting up a CAD-based adjoint MDO framework for turbomachinery design using both fluid and structural disciplines. To achieve this, the von Kármán Institute’s existing CAD-based optimization framework cado is augmented by the development of a FEM-based structural solver which has been differentiated using the algorithmic differentiation tool CoDiPack of TU Kaiserslautern. While most of the code could be differentiated in a black-box fashion, special treatment is required for the iterative linear and eigenvalue solvers to ensure accuracy and reduce memory consumption. As a result, the solver has the capability of computing both stress and vibration gradients at a cost independent on the number of design parameters. For the presented application case of a radial turbine optimization, the full gradient calculation has a computational cost of approximately 3.14 times the cost of a primal run and the peak memory usage of approximately 2.76 times that of a primal run.
The FEM code leverages object-oriented design such that the same base structure can be reused for different purposes with minimal re-differentiation. This is demonstrated by considering a composite material test case where the gradients could be easily calculated with respect to an extended design space that includes material properties. Additionally, the structural solver is reused within a CAD-based mesh deformation, which propagates the structural FEM mesh gradients through to the CAD parameters. This closes the link between the CAD shape and FEM mesh. Finally, the MDO framework is applied by optimizing the aerodynamic efficiency of a radial turbine while respecting structural constraints.
#Sport #Gesundheit #Digital
(2021)
In ihrem 50. Jubiläumsjahr lud die Technische Universität Kaiserslautern am 26. und 27. November 2020 zu einem Höhepunkt ein: dem Kongress #Sport #Gesundheit #Digital. Für zwei Tage wurden im Rahmen eines Online-Forums gemeinsam die Themenfelder Sport, Gesundheit und Digitalisierung diskutiert. Wir freuen uns sehr, dass die Techniker Krankenkasse die TUK als Ausrichter der Veranstaltung besonders unterstützt hat. #SGD – Der Kongress setzte an der Schnittstelle von Sport, Gesundheit und Digitalisierung an und beleuchtete Chancen und Möglichkeiten, die durch das Zusammenspiel dieser Disziplinen entstehen können. Gleichzeitig wurden Risiken und Herausforderungen der digitalen Entwicklungen in Sport und Gesundheit betrachtet und perspektivisch mit Blick in die Zukunft analysiert. Hochkarätige Beiträge aus Wissenschaft und Praxis aus allen für das Themenspektrum relevanten Fachrichtungen sorgten für ein hohes Maß an Abwechslung und Transfer. Der Kongress richtete sich dabei nicht nur an Personen aus Wissenschaft und Praxis der Bereiche Gesundheitswesen und -management, Medizin und Psychologie. Ebenso angesprochen wurden Übungsleitende und Angehörige aus Hochschulsport und Sportwissenschaft, Studierende und Mitarbeitende aller bezogenen Fachrichtungen sowie alle allgemein interessierten Personen. Der vorliegende Kongressband stellt die Sammlung der Kongressinhalte dar. Neben den schriftlichen Beiträgen lassen sich hier auch Impressionen der Kongresstage und die Vorträge als interaktiv eingebundene Videos finden.
„Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“, schrieb der österreichisch-englische Philosoph Ludwig Wittgenstein (1922). Das Beherrschen der Schriftsprache wurde in der neuhumanistischen Bildungstheorie nach Wilhelm von Humboldt (Humboldt & Menze, 1997) in den Mittelpunkt der Bildungsprozesse gestellt.
Bildung kann daher nur dann gelingen, wenn die Schriftsprache beherrscht wird. Dabei wird Bildung als eine Art lebenslanges Lernen verstanden, in dem es darum geht, die Funktionsweisen der Gesellschaft und der Welt in der wir leben, zu verstehen und dahingegen zu handeln (Otto, 2007). Mit dem erfolgreichen Schriftspracherwerb und dem sicheren Umgang mit der Schriftsprache ist eine Art Teilhabe am „kulturellen Gedächtnis“ so Assmann (2007) sowie an gegenwärtigen Prozessen. Nicht für alle Kinder verläuft der Erwerb der Schriftsprache ohne Schwierigkeiten. In der ersten PISA-Studie aus dem Jahr 2000 lag der Prozentsatz leseschwacher Kinder in Deutschland bei ca. 24 Prozent (OECD, 2001). Dieser verringerte sich zwar in der PISA-Studie im Jahr 2015 auf rund 16 Prozent (PISA 2015 Results (Volume V), 2017). Die Ergebnisse der aktuellen PISA-Studie sind jedoch ernüchternd. In Bezug auf die Lesekompetenz ist der Anteil der leseschwachen Kinder auf 21 Prozent gestiegen, an Gymnasien sogar auf 29 Prozent (OECD, 2019). Auch Fischbach und Kollegen (Fischbach et al., 2013) fanden bei ihrer Studie im deutschsprachigen Raum heraus, dass 18 Prozent aller Grundschüler1 erhebliche Schwierigkeiten im Lesen und Schreiben aufweisen. Stellen sich erste Schwierigkeiten beim Erlernen des Lesens und Schreibens ein, muss eine zeitige Förderung der betroffenen Kinder an erster Stelle stehen. An diesem Punkt setzt das computerbasierte Trainingsprogramm Lautarium (Klatte, Steinbrink,
Bergström, & Lachmann, 2017) an, indem es Lehrern, Eltern, Therapeuten und den betroffenen Kindern ein Werkzeug an die Hand gibt, welches sich bereits in mehreren Studien als wirksam erwiesen hat (einen Überblick bietet Klatte et al., 2017).
Entwickelt wurde dieses Programm im Zuge eines Drittmittelprojekts mit dem Schwerpunkt „Entwicklungsstörungen schulischer Fertigkeiten“ des Bundesministeriums für Bildung und Forschung. Die hier durchgeführte Studie befasst sich mit den Effekten des Trainings mit dem computerbasierten Förderprogramms Lautarium auf die phonologischen und schriftsprachlichen Leistungen von Zweitklässlern mit Lese-Rechtschreibschwierigkeiten. Lautarium basiert auf aktuellen Forschungserkenntnissen zur Bedeutung der phonologischen Verarbeitung für den Schriftspracherwerb und umfasst aufeinander aufbauende Übungen zur Phonemwahrnehmung, phonologischen Bewusstheit und Graphem-Phonem-Zuordnung, zum Lesen und Schreiben lautgetreuer Wörter und zur schnellen Worterkennung. Zwar hat sich das Trainingsprogramm bereits in mehreren Studien als wirksam erwiesen, in der jetzigen Studie wird die Wirksamkeit jedoch erstmals im Rahmen eines randomisierten kontrollierten Designs (randomized controlled trial, RCT, „Goldstandard“ der klinischen Forschung) geprüft (Borah, Moriarty, Crown, & Doshi, 2014; Kaptchuk, 2001). Es wurde zunächst ein klassisches Prätest-Posttest-Follow-up–Design realisiert, um kurz- und langfristige Effekte des Lautarium-Trainings zu erfassen (Studienteil 1: Vortest bis Nachtest 2). Eine Gruppe von Kindern (n= 24) bearbeitete das Lautarium-Training, die andere Gruppe (n= 31) ein computerbasiertes Denktraining (Lenhard, Lenhard & Klauer, 2011). Das Training erfolgte täglich etwa 20 Minuten über mehrere Wochen im Rahmen des differenzierenden Unterrichts. Im Anschluss an den Follow-upTest arbeiteten die Gruppen mit dem jeweils anderen Programm, danach folgte ein weiterer, abschließender Nachtest 3 (Studienteil 2: bis Nachtest 3, n= 44). Studienteil 1 bestätigte signifikante und teilweise anhaltende Effekte des LautariumTrainings auf Untertests zur phonologischen Bewusstheit, zum Lesen und zur Rechtschreibung. Die in früheren Studien gezeigten Effekte ließen sich somit auch im Rahmen eines RCT-Designs replizieren. In Studienteil 2 zeigten sich signifikante Effekte auf die phonologische Bewusstheit. Abschließend werden Potentiale und Grenzen des Einsatzes von Lautarium im differenzierenden Unterricht diskutiert.
Indoor positioning system (IPS) is becoming more and more popular in recent years in industrial, scientific and medical areas. The rapidly growing demand of accurate position information attracts much attention and effort in developing various kinds of positioning systems that are characterized by parameters like accuracy,robustness,
latency, cost, etc. These systems have been successfully used in many applications such as automation in manufacturing, patient tracking in hospital, action detection for human-machine interacting and so on.
The different performance requirements in various applications lead to existence of greatly diverse technologies, which can be categorized into two groups: inertial positioning(involving momentum sensors embedded on the object device to be located) and external sensing (geometry estimation based on signal measurement). In positioning
systems based on external sensing, the input signal used for locating refers to many sources, such as visual or infrared signal in optical methods, sound or ultra-sound in acoustic methods and radio frequency based methods. This dissertation gives a recapitulative survey of a number of existence popular solutions for indoor positioning systems. Basic principles of individual technologies are demonstrated and discussed. By comparing the performances like accuracy, robustness, cost, etc., a comprehensive review of the properties of each technologies is presented, which concludes a guidance for designing a location sensing systems for indoor applications. This thesis will lately focus on presenting the development of a high precision IPS
prototype system based on RF signal from the concept aspect to the implementation up to evaluation. Developing phases related to this work include positioning scenario, involved technologies, hardware development, algorithms development, firmware generation, prototype evaluation, etc.. The developed prototype is a narrow band RF system, and it is suitable for a flexible frequency selection in UHF (300MHz3GHz) and SHF (3GHz30GHz) bands, enabling this technology to meet broad service preferences. The fundamental of the proposed system classified itself as a hyperbolic position fix system, which estimates a location by solving non-linear equations derived from time difference of arrival (TDoA) measurements. As the positioning accuracy largely depends on the temporal resolution of the signal acquisition, a dedicated RF front-end system is developed to achieve a time resolution in range of multiple picoseconds down to less than 1 pico second. On the algorithms aspect, two processing units: TDoA estimator and the Hyperbolic equations solver construct the digital signal processing system. In order to implement a real-time positioning system, the processing system is implemented on a FPGA platform. Corresponding firmware is generated from the algorithms modeled in MATLAB/Simulink, using the high level synthesis (HLS) tool HDL Coder. The prototype system is evaluated and an accuracy of better than 1 cm is achieved. A better performance is potential feasible by manipulating some of the controlling conditions such as ADC sampling rate, ADC resolution, interpolation process, higher frequency, more stable antenna, etc. Although the proposed system is initially dedicated to indoor applications, it could also be a competitive candidate for an outdoor positioning service.
Heading in Soccer: Does Kinematics of the Head‐Neck‐Torso Alignment Influence Head Acceleration?
(2021)
There is little scientific evidence regarding the cumulative effect of purposeful heading. The head-neck-torso alignment is considered to be of great importance when it comes to minimizing potential risks when heading. Therefore, this study determined the relationship between head-neck-torso alignment (cervical spine, head, thoracic spine) and the acceleration of the head, the relationship between head acceleration and maximum ball speed after head impact and differences between head accelerations throughout different heading approaches (standing, jumping, running). A total of 60 male soccer players (18.9 ± 4.0 years, 177.6 ± 14.9 cm, 73.1 ± 8.6 kg) participated in the study. Head accelerations were measured by a telemetric Noraxon DTS 3D Sensor, whereas angles for the head-neck-torso alignment and ball speed were analyzed with a Qualisys Track Manager program. No relationship at all was found for the standing, jumping and running approaches. Concerning the relationship between head acceleration and maximum ball speed after head impact only for the standing header a significant result was calculated (p = 0.024, R2 = .085). A significant difference in head acceleration (p < .001) was identified between standing, jumping and running headers. To sum up, the relationship between head acceleration and head-neck-torso alignment is more complex than initially assumed and could not be proven in this study. Furthermore first data were generated to check whether the acceleration of the head is a predictor for the resulting maximum ball speed after head impact, but further investigations have to follow. Lastly, we confirmed the results that the head acceleration differs with the approach.
Subject of this thesis is the investigation of photo-induced ultrafast elementary processes within the electronic excited-state manifold in mass-selected multinuclear coinage metal complexes (CMCs) in the gas phase. The chief objective is to ascertain how the intramolecular deactivation dynamics and gas phase reactivity are influenced by so-called metallophilic interactions between multiple d^10/d^8 metal centers, which in turn give rise to metal-delocalized electronic transitions. To this end, suitable molecular precursor ions were transferred into the gas phase by electrospray ionization (ESI) and subsequently isolated, activated, and finally analyzed in a Paul-type quadrupole ion trap (QIT) mass spectrometer. The QIT is modified to accept UV/Vis/NIR irradiation from a femtosecond laser setup. By combining several ion trap-based ion activation techniques and electronic photodissociation (PD) spectroscopy, the fragmentation pathways, as well as intrinsic optical properties (electronic PD spectra) of ionic CMCs are explored. In addition, the unconventional time-resolved transient photodissociation (t-PD) method, based on a femtosecond pump-probe excitation scheme, was employed for the first time on CMC ions in isolation, in order to elucidate their intrinsic photodynamics. This thesis mainly comprises five publications, covering the mass spectrometric and laser spectroscopic characterization of multinuclear Ag(I), Au(I), and Pt(II) based ionic complexes.
Klimawandel und der Wunsch nach nachhaltigen Konzepten: Im Rahmen dieser Ausarbeitung wurde ein nachhaltigkeitsorientiertes Nahverkehrskonzept für eine derzeit (2021) nicht mehr im Schienenpersonennahverkehr bedienten Strecke in Rheinland-Pfalz erarbeitet. Hierbei wurden die Effekte auf die Nachhaltigkeit untersucht und die Besonderheiten des vom demografischen Wandel betroffenen Gebietes einbezogen. Die für den Nahverkehr stillgelegte Schienenstrecke verläuft zwischen Staudernheim und Lauterecken-Grumbach in den Landkreisen Bad Kreuznach und Kusel und ist rund 21 Kilometer lang.
Mit dem Jahr 2020 wird der ursprüngliche zeitliche Horizont für das Nachhaltigkeitsziel der Bundesregierung zur Reduzierung der Flächenneuinanspruchnahme für Siedlungs- und Verkehrszwecke auf 30 Hektar am Tag erreicht. Angesichts der tatsächlichen Entwicklung des ‚Flächenverbrauchs‘ oberhalb dieses Zielwertes sowie dessen mannigfaltiger negativen ökologischen, sozialen und wirtschaftlichen Folgen kommt einer flächensparenden Siedlungsentwicklung nach wie vor höchste Priorität zu. Die Umwandlung von Freiraum in Siedlungs- und Verkehrsfläche erfolgt nicht nur in den städtisch geprägten Wachstumsregionen der Bundesrepublik. Auch in einigen ländlich-peripheren Bereichen zeigt sich trotz demografischer und teils struktureller Schrumpfung eine fortschreitende Flächenneuinanspruchnahme.
In den ‚Leitbildern und Handlungsstrategien für die Raumentwicklung in Deutschland‘ hebt die Ministerkonferenz für Raumordnung die Pläne und Programme der Regionalplanung als geeignetes Instrumentarium zur Steuerung einer flächensparenden Siedlungsentwicklung hervor und betont das regionalplanerische Potenzial als Koordinator und Kommunikator bei kooperativen Prozessen. Gleichwohl konstatiert die Raumforschung der Regionalplanung diesbezüglich immer wieder ein Steuerungs- und Implementationsdefizit, welches insbesondere auf ein nicht Ausnutzen des zur Verfügung stehenden formellen Instrumentariums sowie institutionelle Hemmnisse zurückgeführt wird. Im Fokus entsprechender Analysen standen bisher eher Wachstumsregionen mit engen Stadt-Umland-Verflechtungen. Eine Betrachtung ob der konsequenten Anwendung des verfügbaren Instrumentariums durch die Regionalplanung liegt inzwischen einige Jahre zurück. Es besteht zudem eine Forschungslücke hinsichtlich einer integrierenden Betrachtung ergänzender informeller Handlungsansätze.
Vor diesem Hintergrund widmet sich die vorliegende Arbeit der ganzheitlichen Untersuchung regionalplanerischer Handlungsansätze zur Steuerung einer flächensparenden Siedlungsentwicklung in unterschiedlich raumstrukturell geprägten Regionen. Als Fallstudien dienen die Region Main-Rhön in Bayern, die Region Rostock in Mecklenburg-Vorpommern und die Region Stuttgart in Baden-Württemberg. Mithilfe einer Governance-Analyse werden neben der Ausgestaltung des klassischen formellen Instrumentariums der Regionalplanung informelle Formen der Handlungskoordination unter Berücksichtigung institutioneller wie raumstruktureller Rahmenbedingungen erfasst. Expertengespräche ergänzen die Methodik zur Identifizierung von Erfolgen und Defiziten der jeweiligen Governance-Formen sowie deren Einflussfaktoren.
Im Ergebnis erfolgt die Governance einer flächensparenden Siedlungsentwicklung durch die Regionalplanung in allen Fallstudienregionen in erster Linie hierarchisch durch den Regionalplan und formelle Verfahren. In unterschiedlicher Intensität kommen zudem die Governance-Formen der Verhandlung oder des Netzwerks zum Einsatz. Ein ausdifferenziertes Governance-Regime stellt einen der wesentlichen Erfolgsfaktoren bei der Umsetzung einer flächensparenden Siedlungsentwicklung dar. Defizite ergeben sich aus der fehlenden Akzeptanz seitens der Adressaten der regionalplanerischen Handlungsansätze, welche auch auf die raumstrukturelle Prägung der Regionen zurückzuführen ist.
Daraus abgeleitete Empfehlungen für die Weiterentwicklung regionalplanerischer Governance-Regime umfassen die Optimierung des hierarchischen Planungsinstrumentariums, den Einsatzes ergänzender Governance-Formen sowie die Anpassung institutioneller Rahmenbedingungen. Die raumstrukturellen Rahmenbedingungen sind stets als wesentliche Grundlage für die inhaltliche Ausrichtung eines ausdifferenzierten Governance-Regimes der Regionalplanung für eine flächensparende Siedlungsentwicklung zu berücksichtigen.
In diesem Text werden einige wichtige Grundlagen zusammengefasst, mit denen ein schneller Einstieg in das Arbeiten mit Arduino und Raspberry Pi möglich ist. Wir diskutieren nicht die Grundfunktionen der Geräte, weil es dafür zahlreiche Hilfestellungen im Internet gibt. Stattdessen konzentrieren wir uns vor allem auf die Steuerung von Sensoren und Aktoren und diskutieren einige Projektideen, die den MINT-interdisziplinären Projektunterricht bereichern können.
Lewin hat mit seinen Arbeiten und insbesondere mit seinem Drei-Phasen-Modell zur Korrektur eines technischen zugunsten eines sozialen Verständnisses von Organisationen beigetragen und die Kommunikation wieder in die Organisation eingeführt. Lewin wird aufgrund seines wissenschaftlichen Einflusses als einer der Gründungsväter der Organisationsentwicklung (OE) bezeichnet. Es stellt sich somit die Frage, inwiefern diese Konzepte heute noch immer Relevanz haben und hilfreich bei der Bewältigung der Herausforderung der digitalen Transformation sein können. Im Mittelpunkt dieser Arbeit steht nicht die digitale Transformation mit Blick auf die Fachlichkeit, z.B. im betriebswirtschaftlichen oder technologischen Sinne. Es geht vielmehr um eine ganzheitliche Betrachtung auf allen Handlungsfeldern mit besonderem Fokus auf die Organisationsentwicklung, damit die Mitglieder einer Organisation die Herausforderung der digitalen Transformation bewältigen können. In der Literatur gibt es eine Vielzahl von phasenbasierten Change-Modellen. Dagegen scheint die Auseinandersetzung mit der digitalen Transformation im Sinne eines ganzheitlichen Wandels aus Organisationsentwicklungsperspektive noch am Anfang zu stehen
Auf Basis des beschriebenen Theorie- und Praxisdefizits ist die Kernfrage dieser Arbeit, was Lewins Drei-Phasen-Modell in der digitalen Transformation aus der Perspektive der Organisationsentwicklung leisten kann. Im Zentrum steht die Frage, wie Organisationen das Drei-Phasen-Modell von Kurt Lewin bewusst nutzen können, um den organisatorischen Wandel im Zuge der digitalen Transformation bestmöglich zu bewältigen. Ziel dieser Arbeit ist die Entwicklung eines Praxis-Modells, welches als Modellbaukasten für jegliche Organisationen verstanden werden kann, um einen bewussten Ein- und Umstieg in die jeweilige Phase des Wandels zu gestalten und dafür passende Organisationsentwicklungs-Methoden und Werkzeuge zu identifizieren.
In recent years, business intelligence applications become more real-time and traditional data warehouse tables become fresher as they are continuously refreshed by streaming ETL jobs within seconds. Besides, a new type of federated system emerged that unifies domain-specific computation engines to address a wide range of complex analytical applications, which needs streaming ETL to migrate data across computation systems.
From daily-sales reports to up-to-the-second cross-/up-sell campaign activities, we observed various latency and freshness requirements set in these analytical applications. Hence, streaming ETL jobs with regular batches are not flexible enough to fit in such a mixed workload. Jobs with small batches can cause resource overprovision for queries with low freshness needs while jobs with large batches would starve queries with high freshness needs. Therefore, we argue that ETL jobs should be self-adaptive to varying SLA demands by setting appropriate batches as needed.
The major contributions are summarized as follows.
• We defined a consistency model for “On-Demand ETL” which addresses correct batches for queries to see consistent states. Furthermore, we proposed an “Incremental ETL Pipeline” which reduces the performance impact of on-demand ETL processing.
• A distributed, incremental ETL pipeline (called HBelt) was introduced in distributed warehouse systems. HBelt aims at providing consistent, distributed snapshot maintenance for concurrent table scans across different analytics jobs.
• We addressed the elasticity property for incremental ETL pipeline to guarantee that ETL jobs with batches of varying sizes can be finished within strict deadlines. Hence, we proposed Elastic Queue Middleware and HBaqueue which replace memory-based data exchange queues with a scalable distributed store - HBase.
• We also implemented lazy maintenance logic in the extraction and the loading phases to make these two phases workload-aware. Besides, we discuss how our “On-Demand ETL” thinking can be exploited in analytic flows running on heterogeneous execution engines.
Das neue Berufsbild der Notfallsanitäterin/ des Notfallsanitäters hat die Rettungsdienstschulen vor ganz neue Herausforderungen gestellt. In der vorliegenden Arbeit wird ein Konzept für die curriculare Präzisierung der Notfallsanitäterausbildung vorgestellt. Dabei wird der Fragestellung nachgegangen, in wieweit die im Rahmenlehrplan NRW vorgegebenen Inhalte curricular umgesetzt werden können, damit die gesetzlich geforderte Handlungskompetenz praxisnah und kompetenzorientiert im Sinne eines Spiralcurriculums erreicht werden kann.
Nach einer Erläuterung des Berufsbildes beschäftigt sich die Arbeit mit dem Kompetenzbegriff und den Begriffen der Handlungs- und Lernfeldorientierung sowie der Umsetzung dieser didaktischen Grundsätze in das Curriculum. Am Ende der Arbeit wird auf die Implementation des Curriculums als Maßnahme der Schulentwicklung eingegangen. Dafür werden Aspekte eines Change-Managements in Rettungsdienstschulen von Feuerwehren unter Berücksichtigung der Systemtheorie diskutiert.
Durch die Zielsetzung des Projekts, in einem ganzheitlichen Ansatz Bleibefaktoren für Zuwanderer in ländlichen
Räumen zu untersuchen und geeignete Lösungsansätze für deren Integration zu entwickeln, wird eine bisher in
dieser Form kaum betrachtete Forschungslücke adressiert. Diese Nische zeichnet sich dadurch aus, dass im
Vorhaben miteinander verbundene, jedoch bisher meist disziplinär bearbeitete Fragestellungen der
Integrationsforschung, der Stadtplanung und der zukunftsfähigen Kommunalentwicklung bzw. kommunalen
Nachhaltigkeit unter besonderer Berücksichtigung von demografischen Herausforderungen vereint werden.
Diese inhaltliche Verschränkung spiegelt sich zudem auch in der interdisziplinären Vorgehensweise im Projekt
wider. So werden die Fragestellungen des Vorhabens aus der Perspektive von und mit
methodischen Zugängen aus den Sozial-, Wirtschafts- und Planungswissenschaften bearbeitet.
Der von Beginn an starke und unmittelbare Einbezug der Kommunalpartner und weiterer praxisnaher Akteure
stellt sicher, dass von Anfang an unterschiedliche wissenschaftliche und nicht-wissenschaftliche Perspektiven
sowie Praxiswissen in den Forschungsprozess integriert werden, um ein gemeinsames Problemverständnis und
eine hohe Relevanz der Ergebnisse für die kommunale Praxis sicherzustellen.
Zuwanderung an sich ist kein neues Phänomen in der Geschichte der Bundesrepublik, was sich in einer Vielfalt
von Studien und Publikationen zu den Einflussfaktoren auf die Integration von verschiedenen Migrantengruppen
(z.B. von „Gastarbeitern“ und ihren Familien, Aussiedlern und Spätaussiedlern aus Osteuropa, humanitären
Migranten bzw. Flüchtlingen, Migranten in erster und zweiter Generation) widerspiegelt. Darüber hinaus
existieren Studien zu einzelnen Aspekten der Integration wie der Teilhabe am Arbeitsmarkt, dem Schulsystem,
der Integration in den Wohnungsmarkt oder auch standortbezogene Fallstudien. Diese Untersuchungen
betrachten jedoch die allgemeine Integration von Zuwanderern, ohne auf die Besonderheiten von kleinstädtisch
und ländlich geprägten Kommunen einzugehen. Diese Thematik wird in einer Studie der Schader Stiftung
aufgegriffen, in der neben den Herausforderungen und Rahmenbedingungen in den Kommunen einige Aspekte
bzw. Handlungsoptionen der Integration aufgezeigt werden.
Die besonderen Herausforderungen des demografischen Wandels für Kommunen sind ebenfalls Gegenstand
zahlreicher Publikationen. Kleinstädtische und ländlich geprägte Kommunen sind besonders stark von diesem
Megatrend betroffen, so dass in vielen Fällen auch deren Zukunftsfähigkeit bedroht sein kann. Durch die
Integration von Zuwanderern im ländlichen Raum können sich für die Kommunen Potenziale ergeben, die
negativen Auswirkungen des Trends zum Teil aufzufangen.
Aus einer stadtplanerischen Perspektive sind in Kommunen mit demografischen Herausforderungen im Sinne
einer (stark) schrumpfenden Bevölkerung signifikante Anlässe zur baulichen Wiedernutzung von Brachflächen,
zum Schließen von Baulücken oder zur Nachverdichtung im Bestand gegeben: Potentielle volkswirtschaftlichen
Folgen sind zu erwarten, wenn sozialräumlich homogene Wohnungsbestände durch den Attraktivitäts- und
Imageverlust von benachbarten Teilräumen mit hohen Wohnungsleerständen betroffen sind. Zudem gilt es, den
betriebswirtschaftlichen (Kostenfaktoren) und städtebaulichen Auswirkungen entgegenzusteuern, um den
potentiellen baulichen Verfall sowie stadtstrukturelle, funktionale und soziale Missstände zu verhindern.
Eine effiziente Nutzung innerörtlicher Flächenressourcen, sowohl durch die Wiedernutzung von Brachflächen
als auch durch die Reaktivierung von Wohnungsleerständen, ermöglicht es den Kommunen, die
Neuinanspruchnahme von Siedlungs- und Verkehrsflächen zu reduzieren. Hierdurch kann den im Rahmen der
Nationalen Nachhaltigkeitsstrategie formulierten Zielvorgaben der Reduzierung zusätzlicher
Flächeninanspruchnahme Rechnung getragen werden. Ein sparsamer Umgang mit Grund und Boden und die
Begrenzung der Bodenversiegelung ist als städtebauliche Aufgabe durch die Bodenschutzklausel gemäß §1a
Abs. 2 BauGB bestimmt. In Anpassung an die örtlichen und städtebaulichen Gegebenheiten sind anstelle der
Neuausweisung von Bauflächen Möglichkeiten der innerörtlichen Entwicklung zu nutzen. Bei der
Inanspruchnahme unbebauter Flächen ist darüber hinaus eine flächensparende Bauweise zu bevorzugen. Durch
entsprechende Darstellungen und Festsetzungen in den Bauleitplänen kann dies erreicht werden, indem
beispielsweise auf Darstellungen von (Neu-) Bauflächen in Flächennutzungsplänen verzichtet oder indem
Höchstmaße der baulichen Nutzung für Wohnbaugrundstücke in Bebauungsplänen festgesetzt werden (§ 9
Abs. 1 Nr. 3 BauGB).
Anstelle der Neuausweisung von Wohngebieten in siedlungsstrukturellen Randlagen stellt die Innenentwicklung
für den Erhalt lebendiger Zentren und zur Begrenzung der Flächenneuinanspruchnahme einen wichtigen Beitrag
zur nachhaltigen städtebaulichen Entwicklung im Sinne des §1 Abs. 5 BauGB dar. Als Voraussetzungen für die
erfolgreiche Wiedernutzung innerörtlicher Flächen und baulicher Potentiale sind Kenntnisse der vorhandenen
Innenentwicklungspotenziale und ihre Verfügbarkeit erforderlich.
In einem geografischen Informationssystem (GIS) lassen sich nach dem gegenwärtigen Stand von Wissenschaft
und Technik Brachflächen, Baulücken und Leerstände zentral erfassen. Zur Erhebung und Verwaltung von
Wohnungsleerständen in einem kommunalen Leerstandskataster lassen sich im Wesentlichen folgende
Methoden und Datenquellen nutzen: Die Analyse von Ver- und Entsorgerdaten (Strom/Wasser) stellen neben
der Erhebung durch Ortsbegehungen (Inaugenscheinnahme von außen durch geschultes Personal), den
Befragungen von Eigentümern, den statistischen Schätzverfahren (Wohnungsfortschreibung und Melderegister)
bzw. den Befragungen kommunaler Funktionsträger (Ortsvorsteher, Bürgermeister) methodische Zugänge dar.
Zur Verifizierung der Daten erfolgt eine Kombination der genannten Methoden. Dabei werden die ermittelten
Leerstände mittels der Stromzählermethode durch zusätzliche Befragung von
Wohnungsunternehmen/Eigentümern oder Ortsvorstehern ergänzt und plausibilisiert, quantitative Daten
(zählerbasierte Methoden) werden durch qualitative Erhebungen (Befragungen) ergänzt. Da der Zugang
zu diesen kommunalen Datenbeständen erschwert war, bediente sich die Forschungsgruppe der SeniorForschungsprofessur Stadtplanung an zugänglichen öffentlichen Daten (Zensus-Erhebungen zu den
Wohnungsleerständen aus dem Jahr 2011) sowie kommerziell erwerbbaren Daten aus der Marktforschung
(microm Geo-Milieus®), da diese empirisch abgesichert sind und im Kontext der Kommunalentwicklung vielfältig
eingesetzt werden (z.B. Beteiligungsverfahren, Wohnbaulandentwicklung).
Electret filters are electrostatically charged nonwovens which are commonly used in aerosol filtration to remove fine particles from gases. It is known that the charge and thus also the filtration efficiency can degrade over time. Thus, many testing standards require to remove the charge by treatment with liquid isopropanol (IPA) or IPA-saturated air. However, the parameters influencing this discharge have not been completely clarified yet. The aim of this work was, on the one hand, to experimentally investigate the influence of the IPA treatment on different electret filters and, on the other hand, to show the optimization potential of electret filters with respect to efficiency and long-term stability by numerical simulations. The experiments revealed that the air permeability is a central influencing parameter. Small pores lead to a reduced discharge efficiency using liquid IPA, while both treatment methods are suitable for larger pores. The simulations showed that a homogeneous charge distribution within the filter depth is advantageous for the initial performance. In contrast, charge penetrating deeper in the filter medium delays the charge decay and thus increases the operating time, with the trade-off of a lower initial performance
An Schulen, so ist es uns bekannt, arbeitet jeder Lehrende für sich. Nur ungerne gibt man seine Arbeitsblätter seiner Kollegin oder seinem Kollegen weiter. Am liebsten würde jeder Lehrende seinen Klassenraum abschließen, so dass man keinen Einblick gewähren kann. So sieht die aktuelle Situation in den Schulen aus. Experten und Pädagogen erklären jedoch, dass eine gute und gesunde Schule nur durch eine gute Teamfähigkeit funktionieren kann. Auf einmal stoßen zwei Formen der menschlichen Beziehung aufeinander und der Lehrende soll vom Einzelkämpfer zum Teamplayer werden. Doch damit sich diese Fähigkeit innerhalb der Schulen entwickeln kann, sind viele Aspekte näher zu betrachten, die einen wesentlichen Einfluss auf eine Teamkultur haben. Und wenn man von einer Kultur redet, dann muss man bei der Bestandsaufnahme beginnen, Teams entwickeln und eine Kultur fördern.
Das Problem ist also offensichtlich: Wie kann sich ein Einmannteam zu einem Mehrmannteam entwickeln, welche Wirkung haben Teams auf eine Schule und welche Ursachen bringen sie mit sich.
Scaling up conventional processor architectures cannot translate the ever-increasing number of transistors into comparable application performance. Although the trend is to shift from single-core to multi-core architectures, utilizing these multiple cores is not a trivial task for many applications due to thread synchronization and weak memory consistency issues. This is especially true for applications in real-time embedded systems since timing analysis becomes more complicated due to contention on shared resources. One inherent reason for the limited use of instruction-level parallelism (ILP) by conventional processors is the use of registers. Therefore, some recent processors bypass register usage by directly communicating values from producer processing units to consumer processing units. In widely used superscalar processors, this direct instruction communication is organized by hardware at runtime, adversely affecting its scalability. The exposed datapath architectures provide a scalable alternative by allowing compilers to move values directly from output ports to the input ports of processing units. Though exposed datapath architectures have already been studied in great detail, they still use registers for executing programs, thus limiting the amount of ILP they can exploit. This limitation stems from a drawback in their execution paradigm, code generator, or both.
This thesis considers a novel exposed datapath architecture named Synchronous Control Asynchronous Dataflow (SCAD) that follows a hybrid control-flow dataflow execution paradigm. The SCAD architecture employs first-in-first-out (FIFO) buffers at the output and input ports of processing units. It is programmed by move instructions that transport values from the head of output buffers to the tail of input buffers. Thus, direct instruction communication is facilitated by the architecture. The processing unit triggers the execution of an operation when operand values are available at the heads of its input buffers. We propose a code generation technique for SCAD processors inspired by classical queue machines that completely eliminates the use of registers. On this basis, we first generate optimal code by using satisfiability (SAT) solvers after establishing that optimal code generation is hard. Heuristics based on a novel buffer interference analysis are then developed to compile larger programs. The experimental results demonstrate the efficacy of the execution paradigm of SCAD using our queue-oriented code generation technique.
Mixed-mode chromatography (MMC), which combines features of ion exchange chromatography (IEC) and hydrophobic interaction chromatography (HIC), is an interesting method for protein separation and purification. The design of MMC processes is challenging as adsorption equilibria are influenced by many parameters, including ionic strength and the presence of different salts in solution. Systematic studies on the influence of those parameters in MMC are rare. Therefore, in the present work, the influence of four salts, namely, sodium chloride, sodium sulfate, ammonium chloride, and ammonium sulfate, on the adsorption of lysozyme on the mixed-mode resin Toyopearl MX-Trp-650M at pH 7.0 and 25°C was studied systematically in equilibrium adsorption experiments for ionic strengths between 0 mM and 3000 mM. For all salts, a noticeable adsorption strength was observed over the entire range of studied ionic strengths. An exponential decay of the loading of the resin with increasing ionic strength was found until approx. 1000 mM. For higher ionic strengths, the loading was found to be practically independent of the ionic strength. At constant ionic strength, the highest lysozyme loadings were observed for ammonium sulfate, the lowest for sodium chloride. A mathematical model was developed that correctly describes the influence of the ionic strength as well as the influence of the studied salts. The model is the first that enables the prediction of adsorption isotherms of proteins on mixed-mode resins in a wide range of technically interesting conditions, accounting for the influence of the ionic strength and four salts of practical relevance.
Diversität und die Entwicklung einer Kompetenz mit deren Umgang bilden ein wichtiges Fundament eines respektvollen Zusammenlebens in der heutigen multikulturellen Gesellschaft. Die vorliegende Arbeit soll aufzeigen, warum beides in der Erwachsenenpädagogik eine hohe Relevanz gewinnt und welchen Einfluss Diversitätskompetenz auf den Lehr-Lern-Prozess und damit auf die Erfolgschancen von Aus- und Weiterbildungsteilnehmenden in der betrieblichen Bildung ausüben kann.
Es wird dargestellt, warum eine Erwachsenenpädagogik der Anerkennung als Brücke sowohl zwischen Theorie und Praxis als auch zwischen Lehrenden und Lernenden dient und in welcher Weise eine anerkennende Interaktion in vielerlei Hinsicht das Grundgerüst für einen diversitätskompetenten Umgang konstituiert.
Diversity and the development of its competence are forming an important foundation of a respectful coexistence in a multicultural society. The present thesis shall show why both are important in a pedagogical context and in which way the outcome of participants in apprenticeship or further education can increase.
It shows why an adult education of recognition can build a bridge between theory and practice or teachers and learners. It is also demonstrated how recognition constitutes a basic structure for living together with competence of diversity.
Das Instandsetzungsprinzip W-Cl bzw. die Instandsetzungsverfahren 7.7 und 8.3 stellen im Vergleich zu konventionellen Instandsetzungsprinzipien technisch und wirtschaftlich interessante Verfahren zur Instandsetzung von chloridbelasteten Betonbauteilen dar. Die Verfahren beruhen auf der Absenkung des Wassergehaltes (W) im Bereich des chloridkontaminierten Betons (Cl), welche durch die Applikation einer Oberflächenschutzbeschichtung erreicht wird. Durch die Beschichtung soll ein intermittierendes Eindringen von Chloriden unterbunden und die Initiierung von Bewehrungskorrosion verhindert werden. Ungeklärte Fragen hinsichtlich der Wirksamkeit der Verfahren und daraus resultierende Anwendungsbeschränkungen in den maßgebenden Regelwerken haben eine praxisgerechte Anwendung der Verfahren bis dato kaum möglich gemacht.
Ziel dieser Arbeit war es im Rahmen von grundlegenden Untersuchungen die Mechanismen des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 besser zu verstehen, um damit einen Beitrag zur Schaffung der erforderlichen Grundlagen für eine breitere Anwendung der Verfahren in der Praxis zu leisten. Im Fokus stand dabei die Entwicklung eines Modells zur Beschreibung der Chloridumverteilung nach Applikation einer Oberflächenschutzbeschichtung.
Hierzu wurde zunächst ein mathematisches Modell mit einer in sich geschlossenen analytischen Lösung entwickelt, mit dessen Hilfe die Chloridumverteilung unter Annahme einer vollständigen Wassersättigung des Betons nach Applikation einer systemabdichtenden Oberflächenschutz-beschichtung berechnet werden kann.
Daran anknüpfend wurde der Einfluss der infolge der Anwendung des Instandsetzungsprinzips W-Cl bzw. der Instandsetzungsverfahren 7.7 und 8.3 zu erwartenden Austrocknung des Betons auf die Chloridumverteilung im abgedichteten System untersucht. Auf Basis von eigenen Untersuchungen und darauf aufbauenden numerischen Berechnungen wurden materialspezifische Abminderungsfunktionen entwickelt, die die Abhängigkeit des Chloriddiffusionskoeffizienten von der Umgebungsfeuchte beschreiben.
Abschließend wurden auf Grundlage einer Parameterstudie allgemeingültige Grenzwerte für Randbedingungen hergeleitet, bis zu denen eine Instandsetzung nach dem Verfahren 7.7 angewendet werden kann, ohne dass im Zuge der Chloridumverteilung der kritische korrosionsauslösende Chloridgehalt auf Höhe der Bewehrung im geplanten Restnutzungszeitraum überschritten wird.
Ein Großteil der dieser Arbeit zu Grunde liegenden Untersuchungen erfolgte im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projektes „Anwendungsgrenzen des Instandsetzungsprinzip W-Cl“.
Die Monomere Ethen und Propen gehören zu den wichtigsten Grundbausteinen der chemischen Industrie. Die zahlreichen Einsatzmöglichkeiten dieser kurzkettigen Alkene sorgen dafür, dass der Bedarf stetig steigt. Um diesen decken zu können, werden Olefine durch diverse Syntheserouten großtechnisch hergestellt. Das Steamcracken und katalytische Cracken (FCC) von Naphtha oder Ethan gehören zu den am meisten verbreiteten Verfahren, um leichte Olefine zu synthetisieren. Diese Technologien sind allerdings mit einigen Nachteilen, wie zum Beispiel einem relativ hohen Energieverbrauch und einer geringen Selektivität für bestimmte Olefine verbunden. Endliche Erdölreserven und steigende Erdölpreise führen schlussendlich zur Entwicklung neuartiger Synthesemethoden für leichte Olefine über nachhaltige Rohstoffe speziell für Produktionsanlagen, die nicht völlig rückintegriert zu Raffinerien oder Steamcracker sind.
Ethen, Propen und Butene können auch selektiv aus den korrespondierenden Alkanen durch Dehydrierung erhalten werden. Der Vorteil der selektiven Dehydrierung besteht darin, dass kein kompliziertes Produktgemisch vorliegt und die Reaktion somit nicht mit einer aufwendigen Produkttrennung verbunden ist. Die Dehydrierung von Propan zu Propen ist mit einer erheblichen Wertsteigerung am Markt verbunden und wird bereits vielfältig eingesetzt. Ethan kommt als große Nebenkomponente im preiswerten Erdgas vor. Es ist daher interessant, Ethan zu dehydrieren und anschließend in situ zu Propen und Butenen zu dimerisieren. Neben der Dehydrierung von Ethan kann Ethen aber auch aus Ethanol hergestellt werden.
Durch die Dehydratisierung von Ethanol kann Ethen aus nachwachsenden Rohstoffen, wie zum Beispiel aus zucker- oder stärkehaltigen Materialien oder auch aus Lignocellulose hergestellt werden. Über Fermentation und anschließende Aufreinigung ist Bioethanol leicht aus Korn, Zuckerrohr und Cellulose zugänglich.
Zeolithe werden als azide, feste Katalysatoren in der chemischen Industrie eingesetzt. Diverse Porenarchitekturen und unterschiedliche Dimensionalitäten ermöglichen eine sehr gute Steuerung der Selektivität in Bezug auf ein erwünschtes Produkt. Über das Silizium zu Aluminium-Verhältnis kann die Anzahl der sauren Zentren angepasst und können säurekatalysierte Reaktionen beeinflusst werden. Die einfache Herstellung sowie Abtrennung des Katalysators aus dem Produktgemisch sorgen dafür, dass feste Katalysatoren, insbesondere Zeolithe, einen hohen Stellenwert in der Industrie haben. Deshalb werden sie in dieser Arbeit als Katalysatoren verwendet.
Der Schwerpunkt dieser Arbeit liegt in der Untersuchung von Verfahren zur Produktion leichter Olefine aus Ethan und Ethanol. Je nachdem welche Reaktionsbedingungen bei der oder bei der Dehydrierung gewählt werden, ist Ethen das Hauptprodukt. Die anschließende Oligomerisierung von Ethen zu Propen, Butenen oder sogar zu BTX-Aromaten ist hingegen eine Herausforderung. Im ersten Teil dieser Arbeit wird Dehydratisierung die Dehydratisierung von Ethanol zu leichten Olefinen untersucht. Hierbei wird die Abhängigkeit des Produktspektrums von Zeolithen mit unterschiedlicher Dimensionalität und Porengröße ermittelt. Anschließend wird die Abhängigkeit der Olefinausbeute von der Partikelgröße untersucht und das Produktspektrum der Dehydrierung von Ethan über den Einsatz ausgewählter Metalle optimiert.
Die eingesetzten Zeolithe werden je nach gewünschter Porenarchitektur und Dimensionalität synthetisiert und entsprechend physikochemisch charakterisiert.
Skript zur Vorlesung "Character Theory of finite groups".
This thesis is concerned with the modeling of the solid-solid phase transformation, such as the martensitic transformation. The allotropes austenite and martensite are important for industry applications. As a result of its ductility, austenite is desired in the bulk, as opposed to martensite, which desired in the near surface region. The phase field method is used to model the phase transformation by minimizing the free energy. It consists of a mechanical part, due to elastic strain and a chemical part, due to the martensitic transformation. The latter is temperature dependent. Therefore, a temperature dependent separation potential is presented here. To accommodate multiple orientation variants, a multivariant phase field model is employed. Using the Khachaturyan approach, the effective material parameters can be used to describe a constitutive model. This however, renders the nodal residual vector and elemental tangent matrix directly dependent on the phase, making a generalization complicated. An easier approach is the use of the Voigt/Taylor homogenization, in which the energy and their derivatives are interpolated creating an interface for material law of the individual phases.
Die Verwendung von Sheet-Molding-Compounds (SMCs) unter dauerhaft wirkenden
statischen Lasten und erhöhten Temperaturen lässt die Frage nach der Materialkriechneigung
aufkommen. Während der Kriecheffekt bisher viel Aufmerksamkeit im thermoplastischen
Polymerbereich erhielt, zeigt diese Arbeit auf, dass auch duroplastische,
wirrfaserverstärkte Matrixsysteme von dem Phänomen in kritischen Größenordnungen
betroffen sein können. Es wurden Kriechuntersuchungen an einem glas- und einem
carbonfaserverstärkten SMC durchgeführt. Die Untersuchungen wurden bei einer
Temperatur von 120 °C durchgeführt, welche von einer möglichen Anwendung in einem
E-Motor herrührt. Die Charakterisierung des Kriechens in der Faserebene zeigte
die Schwierigkeit einer zuverlässigen Kriechversagensvorhersage bei der Beanspruchung
in der Faserebene auf. Kriechdehnungsverläufe zeigen deutliche Unterschiede
bei Beanspruchung auf Zug und Druck bei den vorgestellten Wirrfasermaterialien.
Gängige FE- (Finite Elemente) Anwendungen sind, wie Untersuchungen in dieser Arbeit
feststellen, über Standardverfahren nicht in der Lage, zuverlässige Kriechvorhersagen
von Faserkunststoffverbundbauteilen bei einer Mischbeanspruchung vorherzusagen.
Es wurden mögliche Implementierungsansätze für FE-Programme vorgeschlagen,
um eine beschriebene Kriechvorhersage zu bewerkstelligen.
Es wurde jedoch herausgefunden, dass die isotrope Kriechmodellierung, welche in
gängigen FE-Programmen bereits implementiert ist, bei uniaxialem Spannungszustand
im eigentlich anisotropen SMC-Material verwendbar ist. Ein solcher uniaxialer
Spannungszustand mit relevantem Anwendungsszenario ist beispielsweise bei Verschraubungen
vorhanden. Die Druckbeanspruchung im Faserkunststoffverbundmaterial
durch die Schraubenvorspannkraft führt zu einem Kriechen in Dickenrichtung. Die
Charakterisierung des Kriechens in Dickenrichtung ermöglichte die zuverlässige Vorhersage,
der über die Zeit schwindenden Vorspannkraft von verschraubten SMC-Testplatten.
Vorteilhaft ist hier, für die künftige Auslegung von verschraubten SMC-Verbindungselementen,
dass die Kriechuntersuchungen für die verwendete Materialkarte in
der Simulation vergleichbar geringen Versuchsaufwand benötigen. Die Messung kann
in einer Universalprüfmaschine durchgeführt werden. Die Basis für die Kriechmessdaten
bildeten zwei Druckversuche an gestackten Coupons über einen Zeitraum von je
84 h.Die Extrapolation dieser Messdaten ermöglicht eine zuverlässige Schraubenkraftvorhersage für Zeiten von (mindestens) 1000 h. Die Kriechmessdaten
wurden mit dem Norton-Bailey-Kriechgesetz approximiert. Das Norton-Bailey-Kriechgesetz
ist standardmäßig in allen gängigen FE-Programmen verwendbar, was dem
Anwender eine einfache Berechnung ermöglicht.
The 22 wt.% Cr, fully ferritic stainless steel Crofer®22 H has higher thermomechanical
fatigue (TMF)- lifetime compared to advanced ferritic-martensitic P91, which is assumed to be caused
by different damage tolerance, leading to differences in crack propagation and failure mechanisms.
To analyze this, instrumented cyclic indentation tests (CITs) were used because the material’s
cyclic hardening potential—which strongly correlates with damage tolerance, can be determined
by analyzing the deformation behavior in CITs. In the presented work, CITs were performed for
both materials at specimens loaded for different numbers of TMF-cycles. These investigations show
higher damage tolerance for Crofer®22 H and demonstrate changes in damage tolerance during
TMF-loading for both materials, which correlates with the cyclic deformation behavior observed in
TMF-tests. Furthermore, the results obtained at Crofer®22 H indicate an increase of damage tolerance
in the second half of TMF-lifetime, which cannot be observed for P91. Moreover, CITs were performed
at Crofer®22 H in the vicinity of a fatigue crack, enabling to locally analyze the damage tolerance.
These CITs show differences between crack edges and the crack tip. Conclusively, the presented
results demonstrate that CITs can be utilized to analyze TMF-induced changes in damage tolerance.
A novel shadowgraphic inline probe to measure crystal size distributions (CSD),
based on acquired greyscale images, is evaluated in terms of elevated temperatures and fragile
crystals, and compared to well-established, alternative online and offline measurement techniques,
i.e., sieving analysis and online microscopy. Additionally, the operation limits, with respect to
temperature, supersaturation, suspension, and optical density, are investigated. Two different
substance systems, potassium dihydrogen phosphate (prisms) and thiamine hydrochloride (needles),
are crystallized for this purpose at 25 L scale. Crystal phases of the well-known KH2PO4/H2O system
are measured continuously by the inline probe and in a bypass by the online microscope during
cooling crystallizations. Both measurement techniques show similar results with respect to the crystal
size distribution, except for higher temperatures, where the bypass variant tends to fail due to
blockage. Thiamine hydrochloride, a substance forming long and fragile needles in aqueous solutions,
is solidified with an anti-solvent crystallization with ethanol. The novel inline probe could identify
a new field of application for image-based crystal size distribution measurements, with respect
to difficult particle shapes (needles) and elevated temperatures, which cannot be evaluated with
common techniques.
One of the ongoing tasks in space structure testing is the vibration test, in which a given structure is mounted onto a shaker and excited by a certain input load on a given frequency range, in order to reproduce the rigor of launch. These vibration tests need to be conducted in order to ensure that the devised structure meets the expected loads of its future application. However, the structure must not be overtested to avoid any risk of damage. For this, the system’s response to the testing loads, i.e., stresses and forces in the structure, must be monitored and predicted live during the test. In order to solve the issues associated with existing methods of live monitoring of the structure’s response, this paper investigated the use of artificial neural networks (ANNs) to predict the system’s responses during the test. Hence, a framework was developed with different use cases to compare various kinds of artificial neural networks and eventually identify the most promising one. Thus, the conducted research accounts for a novel method for live prediction of stresses, allowing failure to be evaluated for different types of material via yield criteria
In this paper, the effect of shot peening and cryogenic turning on the surface morphologyof the metastable austenitic stainless steel AISI 347 was investigated. In the shot peeningprocess, the coverage and the Almen intensity, which is related to the kinetic energy of thebeads, were varied. During cryogenic turning, the feed rate and the cutting edge radiuswere varied. The manufactured workpieces were characterized by X-ray diffractionregarding the phase fractions, the residual stresses and the full width at half maximum.The microhardness in the hardened surface layer was measured to compare the hardeningeffect of the processes. Furthermore, the surface topography was also characterized. Thenovelty of the research is the direct comparison of the two methods with identical work-pieces (same batch) and identical analytics. It was found that shot peening generally leadsto a more pronounced surface layer hardening, while cryogenic turning allows the hard-ening to be realized in a shorter process chain and also leads to a better surface topog-raphy. For both hardening processes it was demonstrated how the surface morphology canbe modified by adjusting the process parameter.