00-XX GENERAL
Refine
Year of publication
Document Type
- Article (12)
- Doctoral Thesis (5)
- Part of a Book (4)
- Report (3)
- Conference Proceeding (2)
- Master's Thesis (2)
- Preprint (1)
- Working Paper (1)
Has Fulltext
- yes (30)
Keywords
- MINT (12)
- Mathematische Modellierung (12)
- Schule (12)
- Evakuierung (2)
- Modellierungswoche (2)
- Simulation (2)
- A/D conversion (1)
- Arduino (1)
- Beratungskompetenz (1)
- Binary (1)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (16)
- Fraunhofer (ITWM) (3)
- Kaiserslautern - Fachbereich Informatik (3)
- Distance and Independent Studies Center (DISC) (1)
- Kaiserslautern - Fachbereich ARUBI (1)
- Kaiserslautern - Fachbereich Bauingenieurwesen (1)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (1)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (1)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (1)
- Kaiserslautern - Fachbereich Sozialwissenschaften (1)
Die Akustik liefert einen interessanten Hintergrund, interdisziplinären und fächerverbindenen Unterricht zwischen Mathematik, Physik und Musik durchzuführen. SchülerInnen können hierbei beispielsweise experimentell tätig sein, indem sie Audioaufnahmen selbst erzeugen und sich mit Computersoftware Frequenzspektren erzeugen lassen. Genauso können die Schüler auch Frequenzspektren vorgeben und daraus Klänge erzeugen. Dies kann beispielsweise dazu dienen, den Begriff der Obertöne im Musikunterricht physikalisch oder mathematisch greifbar zu machen oder in der Harmonielehre Frequenzverhältnisse von Intervallen und Dreiklängen näher zu untersuchen.
Der Computer ist hier ein sehr nützliches Hilfsmittel, da der mathematische Hintergrund dieser Aufgabe -- das Wechseln zwischen Audioaufnahme und ihrem Frequenzbild -- sich in der Fourier-Analysis findet, die für SchülerInnen äußerst anspruchsvoll ist. Indem man jedoch die Fouriertransformation als numerisches Hilfsmittel einführt, das nicht im Detail verstanden werden muss, lässt sich an anderer Stelle interessante Mathematik betreiben und die Zusammenhänge zwischen Akustik und Musik können spielerisch erfahren werden.
Im folgenden Beitrag wird eine Herangehensweise geschildert, wie wir sie bereits bei der Felix-Klein-Modellierungswoche umgesetzt haben: Die SchülerInnen haben den Auftrag erhalten, einen Synthesizer zu entwickeln, mit dem verschiedene Musikinstrumente nachgeahmt werden können. Als Hilfsmittel haben sie eine kurze Einführung in die Eigenschaften der Fouriertransformation erhalten, sowie Audioaufnahmen verschiedener Instrumente.
The Influence of Case and Word Order in Child and Adult
Processing of Relative Clauses in Greek
(2022)
Previous cross-linguistic studies have shown that object relative clauses (ORCs) are typically harder to parse than subject relative clauses (SRCs). The cause of difficulty, however, is still under debate, both in the adult and in the developmental literature. The present study investigates the on-line processing of SRCs and ORCs in Greek-speaking 11- to 12-year-old children and adults, and provides evidence on relative clause processing in Greek—a free word order language. We conducted a self-paced listening task in which we manipulated the type of relative clause (SRC vs. ORC), the RC internal word order (canonical vs. scrambled), and the type of relativizer (relative pronoun vs. complementizer). The results showed that SRCs were overall processed faster than ORCs, providing evidence that children follow similar processing strategies to adults. In addition, accusative case marking facilitated the processing of non-canonical structures in adults but less so in children. Children showed heavy reliance on word order, as they processed nominative and accusative pre-verbal NPs in exactly the same way, while they were strongly garden-pathed in ORCs with post-verbal nominative NPs. We argue that these results are compatible with the Competition Model.
An efficient mathematical model to virtually generate woven metal wire meshes is
presented. The accuracy of this model is verified by the comparison of virtual structures with three-dimensional
images of real meshes, which are produced via computer tomography. Virtual structures
are generated for three types of metal wire meshes using only easy to measure parameters. For these
geometries the velocity-dependent pressure drop is simulated and compared with measurements
performed by the GKD - Gebr. Kufferath AG. The simulation results lie within the tolerances of
the measurements. The generation of the structures and the numerical simulations were done at
GKD using the Fraunhofer GeoDict software.
The goal of this work is to develop statistical natural language models and processing techniques
based on Recurrent Neural Networks (RNN), especially the recently introduced Long Short-
Term Memory (LSTM). Due to their adapting and predicting abilities, these methods are more
robust, and easier to train than traditional methods, i.e., words list and rule-based models. They
improve the output of recognition systems and make them more accessible to users for browsing
and reading. These techniques are required, especially for historical books which might take
years of effort and huge costs to manually transcribe them.
The contributions of this thesis are several new methods which have high-performance computing and accuracy. First, an error model for improving recognition results is designed. As
a second contribution, a hyphenation model for difficult transcription for alignment purposes
is suggested. Third, a dehyphenation model is used to classify the hyphens in noisy transcription. The fourth contribution is using LSTM networks for normalizing historical orthography.
A size normalization alignment is implemented to equal the size of strings, before the training
phase. Using the LSTM networks as a language model to improve the recognition results is
the fifth contribution. Finally, the sixth contribution is a combination of Weighted Finite-State
Transducers (WFSTs), and LSTM applied on multiple recognition systems. These contributions
will be elaborated in more detail.
Context-dependent confusion rules is a new technique to build an error model for Optical
Character Recognition (OCR) corrections. The rules are extracted from the OCR confusions
which appear in the recognition outputs and are translated into edit operations, e.g., insertions,
deletions, and substitutions using the Levenshtein edit distance algorithm. The edit operations
are extracted in a form of rules with respect to the context of the incorrect string to build an
error model using WFSTs. The context-dependent rules assist the language model to find the
best candidate corrections. They avoid the calculations that occur in searching the language
model and they also make the language model able to correct incorrect words by using context-
dependent confusion rules. The context-dependent error model is applied on the university of
Washington (UWIII) dataset and the Nastaleeq script in Urdu dataset. It improves the OCR
results from an error rate of 1.14% to an error rate of 0.68%. It performs better than the
state-of-the-art single rule-based which returns an error rate of 1.0%.
This thesis describes a new, simple, fast, and accurate system for generating correspondences
between real scanned historical books and their transcriptions. The alignment has many challenges, first, the transcriptions might have different modifications, and layout variations than the
original book. Second, the recognition of the historical books have misrecognition, and segmentation errors, which make the alignment more difficult especially the line breaks, and pages will
not have the same correspondences. Adapted WFSTs are designed to represent the transcription. The WFSTs process Fraktur ligatures and adapt the transcription with a hyphenations
model that allows the alignment with respect to the varieties of the hyphenated words in the line
breaks of the OCR documents. In this work, several approaches are implemented to be used for
the alignment such as: text-segments, page-wise, and book-wise approaches. The approaches
are evaluated on German calligraphic (Fraktur) script historical documents dataset from “Wan-
derungen durch die Mark Brandenburg” volumes (1862-1889). The text-segmentation approach
returns an error rate of 2.33% without using a hyphenation model and an error rate of 2.0%
using a hyphenation model. Dehyphenation methods are presented to remove the hyphen from
the transcription. They provide the transcription in a readable and reflowable format to be used
for alignment purposes. We consider the task as classification problem and classify the hyphens
from the given patterns as hyphens for line breaks, combined words, or noise. The methods are
applied on clean and noisy transcription for different languages. The Decision Trees classifier
returns better performance on UWIII dataset and returns an accuracy of 98%. It returns 97%
on Fraktur script.
A new method for normalizing historical OCRed text using LSTM is implemented for different texts, ranging from Early New High German 14th - 16th centuries to modern forms in New
High German applied on the Luther bible. It performed better than the rule-based word-list
approaches. It provides a transcription for various purposes such as part-of-speech tagging and
n-grams. Also two new techniques are presented for aligning the OCR results and normalize the
size by using adding Character-Epsilons or Appending-Epsilons. They allow deletion and insertion in the appropriate position in the string. In normalizing historical wordforms to modern
wordforms, the accuracy of LSTM on seen data is around 94%, while the state-of-the-art combined rule-based method returns 93%. On unseen data, LSTM returns 88% and the combined
rule-based method returns 76%. In normalizing modern wordforms to historical wordforms, the
LSTM delivers the best performance and returns 93.4% on seen data and 89.17% on unknown
data.
In this thesis, a deep investigation has been done on constructing high-performance language
modeling for improving the recognition systems. A new method to construct a language model
using LSTM is designed to correct OCR results. The method is applied on UWIII and Urdu
script. The LSTM approach outperforms the state-of-the-art, especially for unseen tokens
during training. On the UWIII dataset, the LSTM returns reduction in OCR error rates from
1.14% to 0.48%. On the Nastaleeq script in Urdu dataset, the LSTM reduces the error rate
from 6.9% to 1.58%.
Finally, the integration of multiple recognition outputs can give higher performance than a
single recognition system. Therefore, a new method for combining the results of OCR systems is
explored using WFSTs and LSTM. It uses multiple OCR outputs and votes for the best output
to improve the OCR results. It performs better than the ISRI tool, Pairwise of Multiple Sequence and it helps to improve the OCR results. The purpose is to provide correct transcription
so that it can be used for digitizing books, linguistics purposes, N-grams, and part-of-speech
tagging. The method consists of two alignment steps. First, two recognition systems are aligned
using WFSTs. The transducers are designed to be more flexible and compatible with the different symbols in line and page breaks to avoid the segmentation and misrecognition errors.
The LSTM model then is used to vote the best candidate correction of the two systems and
improve the incorrect tokens which are produced during the first alignment. The approaches
are evaluated on OCRs output from the English UWIII and historical German Fraktur dataset
which are obtained from state-of-the-art OCR systems. The Experiments show that the error
rate of ISRI-Voting is 1.45%, the error rate of the Pairwise of Multiple Sequence is 1.32%, the
error rate of the Line-to-Page alignment is 1.26% and the error rate of the LSTM approach has
the best performance with 0.40%.
The purpose of this thesis is to contribute methods providing correct transcriptions corresponding to the original book. This is considered to be the first step towards an accurate and
more effective use of the documents in digital libraries.
Dieser Beitrag beschreibt eine Lernumgebung für Schülerinnen und Schüler der Unter- und Mittelstufe mit einem Schwerpunkt im Fach Mathematik. Das Thema dieser Lernumgebung ist die Simulation von Entfluchtungsprozessen im Rahmen von Gebäudeevakuierungen. Dabei wird das Konzept eines zellulären Automaten vermittelt, ohne dabei Programmierkenntnisse vorauszusetzen oder anzuwenden. Anhand dieses speziellen Simulationswerkzeugs des zellulären Automaten werden Eigenschaften, Kenngrößen sowie Vor- und Nachteile von Simulationen im Allgemeinen thematisiert. Dazu gehören unter anderem die experimentelle Datengewinnung, die Festlegung von Modellparametern, die Diskretisierung des zeitlichen und räumlichen Betrachtungshorizonts sowie die zwangsläufig auftretenden (Diskretisierungs-)Fehler, die algorithmischen Abläufe einer Simulation in Form elementarer Handlungsanweisungen, die Speicherung und Visualisierung von Daten aus einer Simulation sowie die Interpretation und kritische Diskussion von Simulationsergebnissen. Die vorgestellte Lernumgebung ermöglicht etliche Variationen zu weiteren Aspekten des Themas „Evakuierungssimulation“ und bietet dadurch auch vielfältige Differenzierungsmöglichkeiten.
Industry 4.0 defines the organization of production and manufacturing processes based on technological advanced solutions and devices autonomously communicating with each other.
Within the context of this industrial revolution, the smart reconfigurable manufacturing systems are introduced. These systems shall be able to provide a dynamic level of reconfigurability based on the production demand and system availability. The introduction of the manufacturing reconfigurability constitutes a particularly important and expensive decision for the organizations and therefore scoping methods are becoming constantly essential.
The present work covers a first approach to defining reconfigurability methods and drivers for the manufacturing systems within the context of Industry 4.0. The thesis introduces five main reconfigurability use case scenarios for manufacturing systems and the description of a two – dimensional model of scoping parameters.
The first dimension is based on the potential business targets and reconfigurability drivers, while the second dimension focuses on the system functions and technologies, which are
required for the successful realization of the reconfigurability use case scenarios. Finally, the thesis concludes with a brief comparison between the traditional software product line scoping approach and purposed scoping method for the reconfigurability of manufacturing systems.
Die Konstruktion eines Schrittzählers mit einem Arduino-Mikrocontroller und einem Bewegungssensor ist ein spannendes Technikprojekt. Wir erläutern den Grundgedanken hinter der produktorientierten Modellierung und die vielfältigen Möglichkeiten, die Fragestellung zu bearbeiten. Darüberhinaus werden die technischen Details der verwendeten Hardware diskutiert, um einen schnellen Einstieg ins Thema zu ermöglichen.
Wir zeigen an einigen Beispielen, wie man numerische Simulationen in Tabellenkalkulationsprogrammen (hier speziell in Excel) erzeugen kann. Diese können beispielsweise im Kontext von mathematischer Modellierung verwendet werden.
Die Beispiele umfassen ein Modell zur Ausbreitung von Krankheiten, die Flugkurve eines Fußballs unter Berücksichtigung von Luftreibung, eine Monte-Carlo-Simulation zur experimentellen Bestimmung von pi, eine Monte-Carlo-Simulation eines gemischten Kartenstapels und die Modellierung von Benzinpreisen mit einem Preistrend und Rauschen
Der moderne Schulbau verlangt nach neuen Wegen, um veränderte pädagogische und architektonische Anfor-derungen mit den präskriptiven Vorgaben bisheriger Bauweisen in Einklang zu bringen. Im Zyklus der ständigen Anpassung geltender Bauvorschriften an die Veränderungen der Gesellschaft und den Stand der Technik, gilt es, den Wunsch nach neuen Schulbauformen aufzugreifen und ingenieurmäßig und baurechtlich fortzuentwickeln. Basierend auf den Leitlinien neuer Schulbauformen und den darauf aufbauenden, mit ingenieurmäßiger Argumentation entwickelten Geometrien, werden diese, mittels rechnerischer Verfahren des Brandschutzingenieurwesens, konkretisiert. Um die These der Gleichwertigkeit des Sicherheitsniveaus von konventionellen und neuen pädagogischen Schulbauformen zu verifizieren, werden konventionelle Schulen als Grenzwertmodelle nach Maßgabe präskriptiver Vorgaben entwickelt und mithilfe eines Handrechenverfahrens werden die Grund-lagen von Personenströmen in Gebäuden ermittelt. Die Anwendung des Handrechenverfahrens auf konventionelle Schulmodelle liefert Erkenntnisse über die Leistungsfähigkeit der einzelnen Rettungswegelemente. Zusätzlich wird deutlich, dass das Verfahren sehr aufwändig ist und insbesondere bei paralleler graphischer Er-mittlung, es einer intensiven Auseinandersetzung mit dem Rechenverfahren bedarf. Für das Verständnis inge-nieurmäßiger Räumungsnachweise, stellt das Handrechenverfahren eine wichtige und notwendige Voraussetzung dar, um Computer unterstützte Individualmodelle korrekt anzuwenden und deren Ergebnisse sinnvoll interpretieren zu können. Es wird auch deutlich, dass das Handrechenverfahren aufgrund des hohen Aufwandes nicht dazu geeignet ist, um umfangreiche Parameterstudien durchzuführen.
Auf der Grundlage pädagogischer und architektonischer Leitlinien erfolgen Modellentwicklungen unterschiedlicher Raumformen. Das hierfür entwickelte Rettungswegsystem wird, unter Zuhilfenahme eines Computer unterstützen Individualmodells, mittels Parameterstudien zur Verifizierung ungünstigster Randbedingungen untersucht. Die ungünstigste Raumgeometrie bildet die Grundlage zur Fortentwicklung ganzer Gebäudegrundrisse und die Entwicklung unterschiedlich großer Schulgebäudekörper. Die Ergebnisse der Parameterstudien alter und neuer Schulbauformen, aus mehr als 8000 Simulationsdurchläufen, werden als bewertender Vergleich der Risikosituation, zu unterschiedlichen Schulmodellen herangezogen. Als wesentliche Vergleichsgröße dient die Anzahl der Agenten (Personen), welche bei der Gegenüberstellung konventioneller und neuer Schulbauformen, jeweils gleich ist.
Aus den Ergebnissen der Untersuchungen werden die Kapazitätsgrenzen konventioneller Schulbauformen nach Maßgabe präskriptiver Vorgaben verdeutlicht. Insbesondere die Bestimmung des ungünstigsten Szenarios unter Beachtung temporärer Zustände und die Berücksichtigung von Ausfallszenarien baulicher Rettungswege, verdeutlichen die Relevanz einer ingenieurmäßigen Betrachtung des Themas.
Zusätzlich zu den Vergleichsbetrachtungen zwischen konventionellen und neuen Schulbauformen wird ein Instrument entwickelt, welches die Qualität der Rettungswege hinsichtlich gegenläufiger Ströme berücksichtigt. Es erfolgt eine Betrachtung, die unter Berücksichtigung des zeitlichen Verlaufs die gegenläufige Bewegung von Flüchtenden Personen und den Kräften des abwehrenden Brandschutzes betrachtet. Die Instrumente zur Bestimmung der Qualität der Rettungswege sind dazu geeignet, allgemeingültig auf Gebäude besonderer Art und Nutzung zu übertragen.
Typically software engineers implement their software according to the design of the software
structure. Relations between classes and interfaces such as method-call relations and inheritance
relations are essential parts of a software structure. Accordingly, analyzing several types of
relations will benefit the static analysis process of the software structure. The tasks of this
analysis include but not limited to: understanding of (legacy) software, checking guidelines,
improving product lines, finding structure, or re-engineering of existing software. Graphs with
multi-type edges are possible representation for these relations considering them as edges, while
nodes represent classes and interfaces of software. Then, this multiple type edges graph can
be mapped to visualizations. However, the visualizations should deal with the multiplicity of
relations types and scalability, and they should enable the software engineers to recognize visual
patterns at the same time.
To advance the usage of visualizations for analyzing the static structure of software systems,
I tracked difierent development phases of the interactive multi-matrix visualization (IMMV)
showing an extended user study at the end. Visual structures were determined and classified
systematically using IMMV compared to PNLV in the extended user study as four categories:
High degree, Within-package edges, Cross-package edges, No edges. In addition to these structures
that were found in these handy tools, other structures that look interesting for software
engineers such as cycles and hierarchical structures need additional visualizations to display
them and to investigate them. Therefore, an extended approach for graph layout was presented
that improves the quality of the decomposition and the drawing of directed graphs
according to their topology based on rigorous definitions. The extension involves describing
and analyzing the algorithms for decomposition and drawing in detail giving polynomial time
complexity and space complexity. Finally, I handled visualizing graphs with multi-type edges
using small-multiples, where each tile is dedicated to one edge-type utilizing the topological
graph layout to highlight non-trivial cycles, trees, and DAGs for showing and analyzing the
static structure of software. Finally, I applied this approach to four software systems to show
its usefulness.