Refine
Year of publication
- 2018 (173) (remove)
Document Type
- Doctoral Thesis (78)
- Article (30)
- Master's Thesis (20)
- Working Paper (19)
- Periodical Part (14)
- Conference Proceeding (6)
- Preprint (3)
- Report (2)
- Study Thesis (1)
Has Fulltext
- yes (173) (remove)
Keywords
- Angebotsentwicklung (8)
- Hochschulforschung (8)
- wissenschaftliche Weiterbildung (8)
- Wissenschaftliche Weiterbildung (7)
- Bedarfserschließung (5)
- Bedarfserhebung (4)
- Erwachsenenbildung (4)
- Digitalisierung (3)
- Visualization (3)
- Carbonsäuren (2)
Faculty / Organisational entity
- Fachbereich Sozialwissenschaften (31)
- Fachbereich Maschinenbau und Verfahrenstechnik (19)
- Fachbereich Informatik (18)
- Fachbereich Mathematik (18)
- Distance and Independent Studies Center (DISC) (17)
- Fachbereich Chemie (15)
- Fachbereich Biologie (12)
- Fachbereich Elektrotechnik und Informationstechnik (10)
- Universität (9)
- Fachbereich Bauingenieurwesen (7)
Durch New Public Management (NPM) und Governance Elemente sind eine Vielzahl von Veränderungsprozessen im Hochschulbereich angestoßen worden. Der Forschungs- und Bildungssektor wird mehr denn je auf Effektivität und Effizienz hin betrachtet. Hochschulleitungen stellen sich dem steigenden Wettbewerb, um die besten Studierenden und um die Zuteilung von Fördermitteln. Durch die Aufstellung von Leitbildern werden hochschuleigene Werte sichtbar und strategische Zielrichtungen formuliert. Es stellt sich die Frage, wie die formulierten Visionen und Missionen in den abgeleiteten Soll-Bildern auch in den Alltagsroutinen realisiert werden können. Dabei werden zunehmend auch veränderte Erwartungen an Führungskräfte und Organisationskultur formuliert. Ausgehend von der Forschungshypothese: Beratung, Coaching und Mentoring sind geeignete Kommunikationsinstrumente für Führungskräfte und Mitarbeitende, wenn Veränderungsprozesse im Hochschulbereich zu gestalten sind, werden Möglichkeiten und Grenzen dieser Instrumente aufgezeigt und ein Projektkonzept entwickelt, wie Leitbildthemen in den Hochschulalltag integriert werden können.
Wird Rotwein im Holzfass gelagert, kommt es meist zu einer Intensivierung und Stabilisierung der Weinfarbe. Ursache ist der durch die Fassdauben diffundierende Sauerstoff, der Ethanol zu Acetaldehyd oxidiert. Dieses bildet Ethylidenbrücken zwischen Anthocyanen und Flavanolen, wodurch intensiv violett gefärbte Pigmente entstehen. Bisher wurden nur die dimeren ethyliden-verbrückten Anthocyan-Flavanol Addukte umfassend erforscht, die jedoch im Wein nicht stabil sind und zu Folgeprodukten reagieren. Deren Struktur ist bisher wenig erforscht. Ein Ziel dieser Arbeit bestand daher darin, die Reaktionsprodukte der ethyliden-verbrückten Anthocyan-Flavanol Dimere im Rotwein zu untersuchen. Dabei wurden erstmals Polyphenoladdukte mit bis zu drei Ethylidenbrücken massenspektrometrisch nachgewiesen. Dies zeigt, dass Weinpigmente durch die Bildung mehrerer Ethylidenbrücken polymerisieren können. Es wurden außerdem mehrere Pigmente gefunden, bei denen ein Anthocyan über zwei Ethylidenbrücken mit anderen Polyphenolen verbunden war. Dies widerlegt die bisherige Annahme, dass sich Anthocyane nur in terminalen Positionen eines polymeren Pigments befinden können. Durch die Quantifizierung ethyliden-verbrückter Di- und Trimere mittels Massenspektrometer wurde deutlich, dass diese Pigmente in höheren Konzentrationen im Rotwein vorliegen als bisher publiziert. Es zeigte sich außerdem, dass bis zu 50 % der durch den Sauerstoff bewirkten Abnahme von Anthocyanen und Flavanolen auf die Bildung ethyliden-verbrückter Di- und Trimere, sowie Vitisin B zurückführen lassen.
Heute werden in der Weinbereitung häufig Edelstahltanks eingesetzt, bei denen es, anders als in Holzfässern, kaum zu Sauerstoffeinträgen kommt. Eine Farbstabilisierung kann somit nicht stattfinden. Dem Rotwein können stattdessen durch das Verfahren der Mikrooxygenierung geringe Mengen Sauerstoff kontrolliert zugesetzt werden. Bei manchen Weinen führt dies jedoch zu einer verringerten Farbintensität statt zu einer Farbvertiefung. Anhand der insgesamt 21 im Rahmen dieser Arbeit untersuchten Weine zeigte sich, dass Sauerstoff nur dann zu einer intensiveren Weinfarbe führt, wenn das Verhältnis von Tanninen zu Anthocyanen (TAV) unter einem Wert von 3 lag. Die Zunahme der Farbintensität war außerdem negativ mit den spektralphotometrisch zu bestimmenden kleinen (SPP) und großen polymeren Pigmenten (LPP) korreliert, sodass Sauerstoff nur bei geringen Konzentrationen dieser Pigmente zu höheren Farbintensitäten führte. Zudem wurde während der Mikrooxygenierung keine weitere Intensivierung der Weinfarbe erzielt, wenn der Gehalt der LPP den der SPP überstieg. Da LPP aufgrund ihrer Molekülgröße auch eine geringere Löslichkeit aufweisen, sollte ihre übermäßige Bildung vermieden werden. Die Bestimmung von TAV, SPP und LPP erlaubt es somit, die Wirkung von Sauerstoff auf die Weinfarbe vor der Anwendung der Mikrooxygenierung einschätzen und den Sauerstoffzusatz zu beenden, wenn aufgrund der analytischen Daten eine weitere Steigerung der Farbintensität nicht zu erwarten ist.
In einem weiteren Teil der Arbeit wurde untersucht, wie sich die Mikrooxygenierung auf die Lagerfähigkeit der Rotweine auswirkt, da Sauerstoff zu einer beschleunigten Reifung führen kann. Dabei zeigte sich, dass die Farbe des mikrooxygenierten Weines auch nach einer 12-monatigen Flaschenlagerung noch stabiler war als in der entsprechenden Kontrollvariante und der Effekt damit nachhaltig. In Geruch und Geschmack unterschied sich der mikrooxygenierte Wein hingegen nicht von der Kontrolle. Mikrooxygenierte Weine sind damit ebenso lagerfähig, wie ohne Sauerstoffzugabe erzeugte Weine.
Congress Report 2018.1-4
(2018)
In this thesis, we deal with the finite group of Lie type \(F_4(2^n)\). The aim is to find information on the \(l\)-decomposition numbers of \(F_4(2^n)\) on unipotent blocks for \(l\neq2\) and \(n\in \mathbb{N}\) arbitrary and on the irreducible characters of the Sylow \(2\)-subgroup of \(F_4(2^n)\).
S. M. Goodwin, T. Le, K. Magaard and A. Paolini have found a parametrization of the irreducible characters of the unipotent subgroup \(U\) of \(F_4(q)\), a Sylow \(2\)-subgroup of \(F_4(q)\), of \(F_4(p^n)\), \(p\) a prime, for the case \(p\neq2\).
We managed to adapt their methods for the parametrization of the irreducible characters of the Sylow \(2\)-subgroup for the case \(p=2\) for the group \(F_4(q)\), \(q=p^n\). This gives a nearly complete parametrization of the irreducible characters of the unipotent subgroup \(U\) of \(F_4(q)\), namely of all irreducible characters of \(U\) arising from so-called abelian cores.
The general strategy we have applied to obtain information about the \(l\)-decomposition numbers on unipotent blocks is to induce characters of the unipotent subgroup \(U\) of \(F_4(q)\) and Harish-Chandra induce projective characters of proper Levi subgroups of \(F_4(q)\) to obtain projective characters of \(F_4(q)\). Via Brauer reciprocity, the multiplicities of the ordinary irreducible unipotent characters in these projective characters give us information on the \(l\)-decomposition numbers of the unipotent characters of \(F_4(q)\).
Sadly, the projective characters of \(F_4(q)\) we obtained were not sufficient to give the shape of the entire decomposition matrix.
Das virtuelle, optische Messen wird in der industriellen Anwendung häufig vernachlässigt. Um optische Messergebnisse jedoch vorhersehbar und zuverlässig zu machen, ist es erforderlich, Sensoren zu modellieren und die Resultate, sogenannte virtuelle Messergebnisse, zu analysieren. Die zulässigen Modellvereinfachungen sind dabei vom zugrunde liegenden, physikalischen Messprinzip abhängig. In dieser Arbeit werden zwei virtuelle, optische Sensoren mit unterschiedlichen Messprinzipien unter paraxialen Annahmen modelliert. Zudem werden Untersuchungen zum Übertragungsverhalten der Sensoren angestellt. Beim ersten Sensor handelt es sich um einen winkelauflösenden Streulichtsensor zur Messung der statistischen Verteilung von Gradienten geometrischer Oberflächen. Der zweite Sensor ist ein kurzkohärentes Interferometer zur vertikal hochauflösenden Messung von Topographien. Während dem winkelauflösenden Messprinzip ein inkohärenter Modellansatz zugrunde liegt, werden beim Interferometer kohärente Annahmen getroffen. Mithilfe der Sensormodelle ist es möglich, geometrische Oberflächen virtuell anzutasten und, basierend auf generierten oder real gemessenen Topographiedaten, virtuelle Messungen anzustellen. Auf diese Weise werden umfangreiche Untersuchungen zum Übertragungsverhalten der Sensoren ermöglicht. Darüber hinaus wird ein eigens entwickeltes, VTK-basiertes Programm vorgestellt, das die nichtsequentielle Berechnung optischer Sensoren ermöglicht. Dieses Programm nutzt Ray Tracing zur Simulation nichtsequentieller, optischer Systeme. Des Weiteren werden Ansätze für die parallele Datenverarbeitung mit CUDA® vorgestellt. Der paraxial modellierte, winkelauflösende Streulichtsensor wird demnach zusätzlich nichtsequentiell simuliert und die Ergebnisse der paraxialen und der nichtsequentiellen Berechnung werden gegenübergestellt.
The design of the fifth generation (5G) cellular network should take account of the emerging services with divergent quality of service requirements. For instance, a vehicle-to-everything (V2X) communication is required to facilitate the local data exchange and therefore improve the automation level in automated driving applications. In this work, we inspect the performance of two different air interfaces (i.e., LTE-Uu and PC5) which are proposed by the third generation partnership project (3GPP) to enable the V2X communication. With these two air interfaces, the V2X communication can be realized by transmitting data packets either over the network infrastructure or directly among traffic participants. In addition, the ultra-high reliability requirement in some V2X communication scenarios can not be fulfilled with any single transmission technology (i.e., either LTE-Uu or PC5). Therefore, we discuss how to efficiently apply multi-radio access technologies (multi-RAT) to improve the communication reliability. In order to exploit the multi-RAT in an efficient manner, both the independent and the coordinated transmission schemes are designed and inspected. Subsequently, the conventional uplink is also extended to the case where a base station can receive data packets through both the LTE-Uu and PC5 interfaces. Moreover, different multicast-broadcast single-frequency network (MBSFN) area mapping approaches are also proposed to improve the communication reliability in the LTE downlink. Last but not least, a system level simulator is implemented in this work. The simulation results do not only provide us insights on the performances of different technologies but also validate the effectiveness of the proposed multi-RAT scheme.
Asynchronous concurrency is a wide-spread way of writing programs that
deal with many short tasks. It is the programming model behind
event-driven concurrency, as exemplified by GUI applications, where the
tasks correspond to event handlers, web applications based around
JavaScript, the implementation of web browsers, but also of server-side
software or operating systems.
This model is widely used because it provides the performance benefits of
concurrency together with easier programming than multi-threading. While
there is ample work on how to implement asynchronous programs, and
significant work on testing and model checking, little research has been
done on handling asynchronous programs that involve heap manipulation, nor
on how to automatically optimize code for asynchronous concurrency.
This thesis addresses the question of how we can reason about asynchronous
programs while considering the heap, and how to use this this to optimize
programs. The work is organized along the main questions: (i) How can we
reason about asynchronous programs, without ignoring the heap? (ii) How
can we use such reasoning techniques to optimize programs involving
asynchronous behavior? (iii) How can we transfer these reasoning and
optimization techniques to other settings?
The unifying idea behind all the results in the thesis is the use of an
appropriate model encompassing global state and a promise-based model of
asynchronous concurrency. For the first question, We start from refinement
type systems for sequential programs and extend them to perform precise
resource-based reasoning in terms of heap contents, known outstanding
tasks and promises. This extended type system is known as Asynchronous
Liquid Separation Types, or ALST for short. We implement ALST in for OCaml
programs using the Lwt library.
For the second question, we consider a family of possible program
optimizations, described by a set of rewriting rules, the DWFM rules. The
rewriting rules are type-driven: We only guarantee soundness for programs
that are well-typed under ALST. We give a soundness proof based on a
semantic interpretation of ALST that allows us to show behavior inclusion
of pairs of programs.
For the third question, we address an optimization problem from industrial
practice: Normally, JavaScript files that are referenced in an HTML file
are be loaded synchronously, i.e., when a script tag is encountered, the
browser must suspend parsing, then load and execute the script, and only
after will it continue parsing HTML. But in practice, there are numerous
JavaScript files for which asynchronous loading would be perfectly sound.
First, we sketch a hypothetical optimization using the DWFM rules and a
static analysis.
To actually implement the analysis, we modify the approach to use a
dynamic analysis. This analysis, known as JSDefer, enables us to analyze
real-world web pages, and provide experimental evidence for the efficiency
of this transformation.
The complexity of modern real-time systems is increasing day by day. This inevitable rise in complexity predominantly stems from two contradicting requirements, i.e., ever increasing demand for functionality, and required low cost for the final product. The development of modern multi-processors and variety of network protocols and architectures have enabled such a leap in complexity and functionality possible. Albeit, efficient use of these multi-processors and network architectures is still a major problem. Moreover, the software design and its development process needs improvements in order to support rapid-prototyping for ever changing system designs. Therefore, in this dissertation, we provide solutions for different problems faced in the development and deployment process of real-time systems. The contributions presented in this thesis enable efficient utilization of system resources, rapid design & development and component modularity & portability.
In order to ease the certification process, time-triggered computation model is often used in distributed systems. However, time-triggered scheduling is NP-hard, due to which the process of schedule generation for complex large systems becomes convoluted. Large scheduler run-times and low scalability are two major problems with time-triggered scheduling. To solve these problems, we present a modular real-time scheduler based on a novel search-tree pruning technique, which consumes less time (compared to the state-of-the-art) in order to schedule tasks on large distributed time-triggered systems. In order to provide end-to-end guarantees, we also extend our modular scheduler to quickly generate schedules for time-triggered network traffic in large TTEthernet based networks. We evaluate our schedulers on synthetic but practical task-sets and demonstrate that our pruning technique efficiently reduces scheduler run-times and exhibits adequate scalability for future time-triggered distributed systems.
In safety critical systems, the certification process also requires strict isolation between independent components. This isolation is enforced by utilizing resource partitioning approach, where different criticality components execute in different partitions (each temporally and spatially isolated from each other). However, existing partitioning approaches use periodic servers or tasks to service aperiodic activities. This approach leads to utilization loss and potentially leads to large latencies. On the contrary to the periodic approaches, state-of-the-art aperiodic task admission algorithms do not suffer from problems like utilization loss. However, these approaches do not support partitioned scheduling or mixed-criticality execution environment. To solve this problem, we propose an algorithm for online admission of aperiodic tasks which provides job execution flexibility, jitter control and leads to lower latencies of aperiodic tasks.
For safety critical systems, fault-tolerance is one of the most important requirements. In time-triggered systems, modes are often used to ensure survivability against faults, i.e., when a fault is detected, current system configuration (or mode) is changed such that the overall system performance is either unaffected or degrades gracefully. In literature, it has been asserted that a task-set might be schedulable in individual modes but unschedulable during a mode-change. Moreover, conventional mode-change execution strategies might cause significant delays until the next mode is established. In order to address these issues, in this dissertation, we present an approach for schedulability analysis of mode-changes and propose mode-change delay reduction techniques in distributed system architecture defined by the DREAMS project. We evaluate our approach on an avionics use case and demonstrate that our approach can drastically reduce mode-change delays.
In order to manage increasing system complexity, real-time applications also require new design and development technologies. Other than fulfilling the technical requirements, the main features required from such technologies include modularity and re-usability. AUTOSAR is one of these technologies in automotive industry, which defines an open standard for software architecture of a real-time operating system. However, being an industrial standard, the available proprietary tools do not support model extensions and/or new developments by third-parties and, therefore, hinder the software evolution. To solve this problem, we developed an open-source AUTOSAR toolchain which supports application development and code generation for several modules. In order to exhibit the capabilities of our toolchain, we developed two case studies. These case studies demonstrate that our toolchain generates valid artifacts, avoids dirty workarounds and supports application development.
In order to cope with evolving system designs and hardware platforms, rapid-development of scheduling and analysis algorithms is required. In order to ease the process of algorithm development, a number of scheduling and analysis frameworks are proposed in literature. However, these frameworks focus on a specific class of applications and are limited in functionality. In this dissertation, we provide the skeleton of a scheduling and analysis framework for real-time systems. In order to support rapid-development, we also highlight different development components which promote code reuse and component modularity.
Arctic, Antarctic and alpine biological soil crusts (BSCs) are formed by adhesion of soil particles to exopolysaccharides (EPSs) excreted by cyanobacterial and green algal communities, the pioneers and main primary producers in these habitats. These BSCs provide and influence many ecosystem services such as soil erodibility, soil formation and nitrogen (N) and carbon (C) cycles. In cold environments degradation rates are low and BSCs continuously increase soil organic C; therefore, these soils are considered to be CO2 sinks. This work provides a novel, nondestructive and highly comparable method to investigate intact BSCs with a focus on cyanobacteria and green algae and their contribution to soil organic C. A new terminology arose,basedonconfocallaserscanningmicroscopy(CLSM) 2-D biomaps, dividing BSCs into a photosynthetic active layer (PAL) made of active photoautotrophic organisms and a photosynthetic inactive layer (PIL) harbouring remnants of cyanobacteria and green algae glued together by their remaining EPSs. By the application of CLSM image analysis (CLSM–IA) to 3-D biomaps, C coming from photosynthetic activeorganismscouldbevisualizedasdepthprofileswithC peaks at 0.5 to 2mm depth. Additionally, the CO2 sink character of these cold soil habitats dominated by BSCs could be highlighted, demonstrating that the first cubic centimetre of soil consists of between 7 and 17% total organic carbon, identified by loss on ignition.
Sandwichelemente aus Stahlbeton genügen zahlreichen Ansprüchen hinsichtlich
energetischer, wirtschaftlicher, architektonischer und gestalterischer Gesichtspunkte
sowie tragfähiger Konstruktionen. Neben Sandwichwänden können Sandwichelemente auch als biegebeanspruchte Bauteile wie Sandwichdecken oder Sandwichdächer eingesetzt werden. Das große Potential solcher Elemente kann jedoch aufgrund
fehlender Kenntnisse bezüglich des Last-Verformungs-Verhaltens bisher nicht ausgeschöpft werden.
Das Tragverhalten von Stahlbetonsandwichelementen wird maßgeblich durch die
Rissbildung in den Betonschichten beeinflusst. Während die Berücksichtigung der
Rissbildung beispielsweise bei der Verformungsberechnung von biegebeanspruchten
Stahlbetonbauteilen schon intensiv erforscht wurde und realitätsnah beschrieben werden kann, steht die Entwicklung einer abschnittsweisen Berücksichtigung der reduzierten Dehn- und Biegesteifigkeiten infolge der Rissbildung für biegebeanspruchte Sandwichelemente aufgrund der höheren Komplexität noch am Anfang. Bisher existieren
nur Modelle, die die Rissbildung im Beton von Sandwichelementen für die Berechnung
der Teilschnittgrößen und der Verformung näherungsweise berücksichtigen. Die Anwendung dieser Rissmodelle ist aber aufgrund verschiedener Annahmen und Vereinfachungen, die diesen Modellen zugrunde liegen, für die in dieser Arbeit untersuchten
Sandwichelemente mit Stahlbetontragschichten nicht geeignet.
Mithilfe eines realitätsnahen Ansatzes zur Bestimmung des Schubmoduls eines
Dämmstoffes, der Auswahl eines geeigneten Verfahrens zur Berechnung des Last-
Verformungs-Verhaltens eines Stahlbetonbauteils einschließlich der Berücksichtigung
der Rissbildung sowie eines Modellvorschlags zur Nachrechnung der Schubversuche
an Sandwichelementen wird ein eigenes Ingenieurmodell zur Nachrechnung des Last-
Verformungs-Verhaltens von biegebeanspruchten Sandwichelementen entwickelt.
Aufbauend auf diesem Ingenieurmodell erfolgt die Erstellung eines Berechnungswerkzeuges. Anhand der Nachrechnung zahlreicher Versuchsergebnisse kann gezeigt
werden, dass mit diesem Berechnungswerkzeug eine sehr gute Übereinstimmung der
rechnerisch ermittelten mit den im Versuch bestimmten Last-Verformungs-Kurven erzielt werden kann. Das neue Ingenieurmodell berücksichtigt sowohl die reduzierten
Dehn- und Biegesteifigkeiten infolge der Rissbildung als auch abschnittsweise unterschiedlich große Schubsteifigkeiten der Kernschicht, die sich aus der Anordnung von
stiftförmigen Verbundmitteln ergeben.
Basierend auf dem Ingenieurmodell sowie den umfangreichen experimentellen Untersuchungen zum Last-Verformungs-Verhalten von Sandwichelementen wird ein Berechnungswerkzeug sowie ein Bemessungskonzept für Stahlbetonsandwichelemente
mit stiftförmigen Verbundmitteln vorgestellt. Damit konnte ein Fortschritt erzielt und die
Grundlage für den Einsatz von Sandwichelementen mit Stahlbetontragschichten sowie
einer Kernschicht aus Dämmstoffplatten und stiftförmigen Verbundmitteln gelegt werden.