Refine
Year of publication
- 2016 (157) (remove)
Document Type
- Doctoral Thesis (92)
- Periodical Part (15)
- Conference Proceeding (14)
- Article (10)
- Preprint (7)
- Part of a Book (5)
- Working Paper (5)
- Master's Thesis (3)
- Book (2)
- Bachelor Thesis (1)
- Course Material (1)
- Habilitation (1)
- Other (1)
Language
- English (81)
- German (75)
- Multiple languages (1)
Has Fulltext
- yes (157) (remove)
Keywords
- Stadtplanung (8)
- MINT (5)
- Mathematische Modellierung (5)
- Schule (4)
- Cache (3)
- SRAM (3)
- DRAM (2)
- Gentoxizität (2)
- Hochschulforschung (2)
- PIM (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (28)
- Kaiserslautern - Fachbereich Informatik (25)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (17)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (12)
- Universität (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (5)
3D integration of solid-state memories and logic, as demonstrated by the Hybrid Memory Cube (HMC), offers major opportunities for revisiting near-memory computation and gives new hope to mitigate the power and performance losses caused by the “memory wall”. In this paper we present the first exploration steps towards design of the Smart Memory Cube (SMC), a new Processor-in-Memory (PIM) architecture that enhances the capabilities of the logic-base (LoB) in HMC. An accurate simulation environment has been developed, along with a full featured software stack. All offloading and dynamic overheads caused by the operating system, cache coherence, and memory management are considered, as well. Benchmarking results demonstrate up to 2X performance improvement in comparison with the host SoC, and around 1.5X against a similar host-side accelerator. Moreover, by scaling down the voltage and frequency of PIM’s processor it is possible to reduce energy by around 70% and 55% in comparison with the host and the accelerator, respectively.
A counter-based read circuit tolerant to process variation for low-voltage operating STT-MRAM
(2016)
The capacity of embedded memory on LSIs has kept increasing. It is important to reduce the leakage power of embedded memory for low-power LSIs. In fact, the ITRS predicts that the leakage power in embedded memory will account for 40% of all power consumption by 2024 [1]. A spin transfer torque magneto-resistance random access memory (STT-MRAM) is promising for use as non-volatile memory to reduce the leakage power. It is useful because it can function at low voltages and has a lifetime of over 1016 write cycles [2]. In addition, the STT-MRAM technology has a smaller bit cell than an SRAM. Making the STT-MRAM is suitable for use in high-density products [3–7]. The STT-MRAM uses magnetic tunnel junction (MTJ). The MTJ has two states: a parallel state and an anti-parallel state. These states mean that the magnetization direction of the MTJ’s layers are the same or different. The directions pair determines the MTJ’s magneto- resistance value. The states of MTJ can be changed by the current flowing. The MTJ resistance becomes low in the parallel state and high in the anti-parallel state. The MTJ potentially operates at less than 0.4 V [8]. In other hands, it is difficult to design peripheral circuitry for an STT-MRAM array at such a low voltage. In this paper, we propose a counter-based read circuit that functions at 0.4 V, which is tolerant of process variation and temperature fluctuation.
This thesis presents a novel, generic framework for information segmentation in document images.
A document image contains different types of information, for instance, text (machine printed/handwritten), graphics, signatures, and stamps.
It is necessary to segment information in documents so that to process such segmented information only when required in automatic document processing workflows.
The main contribution of this thesis is the conceptualization and implementation of an information segmentation framework that is based on part-based features.
The generic nature of the presented framework makes it applicable to a variety of documents (technical drawings, magazines, administrative, scientific, and academic documents) digitized using different methods (scanners, RGB cameras, and hyper-spectral imaging (HSI) devices).
A highlight of the presented framework is that it does not require large training sets, rather a few training samples (for instance, four pages) lead to high performance, i.e., better than previously existing methods.
In addition, the presented framework is simple and can be adapted quickly to new problem domains.
This thesis is divided into three major parts on the basis of document digitization method (scanned, hyper-spectral imaging, and camera captured) used.
In the area of scanned document images, three specific contributions have been realized.
The first of them is in the domain of signature segmentation in administrative documents.
In some workflows, it is very important to check the document authenticity before processing the actual content.
This can be done based on the available seal of authenticity, e.g., signatures.
However, signature verification systems expect pre-segmented signature image, while signatures are usually a part of document.
To use signature verification systems on document images, it is necessary to first segment signatures in documents.
This thesis shows that the presented framework can be used to segment signatures in administrative documents.
The system based on the presented framework is tested on a publicly available dataset where it outperforms the state-of-the-art methods and successfully segmented all signatures, while less than half of the found signatures are false positives.
This shows that it can be applied for practical use.
The second contribution in the area of scanned document images is segmentation of stamps in administrative documents.
A stamp also serves as a seal for documents authenticity.
However, the location of stamp on the document can be more arbitrary than a signature depending on the person sealing the document.
This thesis shows that a system based on our generic framework is able to extract stamps of any arbitrary shape and color.
The evaluation of the presented system on a publicly available dataset shows that it is also able to segment black stamps (that were not addressed in the past) with a recall and precision of 83% and 73%, respectively.
%Furthermore, to segment colored stamps, this thesis presents a novel feature set which is based on intensity gradient, is able to extract unseen, colored, arbitrary shaped, textual as well as graphical stamps, and outperforms the state-of-the-art methods.
The third contribution in the scanned document images is in the domain of information segmentation in technical drawings (architectural floorplans, maps, circuit diagrams, etc.) containing usually a large amount of graphics and comparatively less textual components. Further, as in technical drawings, text is overlapping with graphics.
Thus, automatic analysis of technical drawings uses text/graphics segmentation as a pre-processing step.
This thesis presents a method based on our generic information segmentation framework that is able to detect the text, which is touching graphical components in architectural floorplans and maps.
Evaluation of the method on a publicly available dataset of architectural floorplans shows that it is able to extract almost all touching text components with precision and recall of 71% and 95%, respectively.
This means that almost all of the touching text components are successfully extracted.
In the area of hyper-spectral document images, two contributions have been realized.
Unlike normal three channels RGB images, hyper-spectral images usually have multiple channels that range from ultraviolet to infrared regions including the visible region.
First, this thesis presents a novel automatic method for signature segmentation from hyper-spectral document images (240 spectral bands between 400 - 900 nm).
The presented method is based on a part-based key point detection technique, which does not use any structural information, but relies only on the spectral response of the document regardless of ink color and intensity.
The presented method is capable of segmenting (overlapping and non-overlapping) signatures from varying backgrounds like, printed text, tables, stamps, logos, etc.
Importantly, the presented method can extract signature pixels and not just the bounding boxes.
This is substantial when signatures are overlapping with text and/or other objects in image. Second, this thesis presents a new dataset comprising of 300 documents scanned using a high-resolution hyper-spectral scanner. Evaluation of the presented signature segmentation method on this hyper-spectral dataset shows that it is able to extract signature pixels with the precision and recall of 100% and 79%, respectively.
Further contributions have been made in the area of camera captured document images. A major problem in the development of Optical Character Recognition (OCR) systems for camera captured document images is the lack of labeled camera captured document images datasets. In the first place, this thesis presents a novel, generic, method for automatic ground truth generation/labeling of document images. The presented method builds large-scale (i.e., millions of images) datasets of labeled camera captured / scanned documents without any human intervention. The method is generic and can be used for automatic ground truth generation of (scanned and/or camera captured) documents in any language, e.g., English, Russian, Arabic, Urdu. The evaluation of the presented method, on two different datasets in English and Russian, shows that 99.98% of the images are correctly labeled in every case.
Another important contribution in the area of camera captured document images is the compilation of a large dataset comprising 1 million word images (10 million character images), captured in a real camera-based acquisition environment, along with the word and character level ground truth. The dataset can be used for training as well as testing of character recognition systems for camera-captured documents. Various benchmark tests are performed to analyze the behavior of different open source OCR systems on camera captured document images. Evaluation results show that the existing OCRs, which already get very high accuracies on scanned documents, fail on camera captured document images.
Using the presented camera-captured dataset, a novel character recognition system is developed which is based on a variant of recurrent neural networks, i.e., Long Short Term Memory (LSTM) that outperforms all of the existing OCR engines on camera captured document images with an accuracy of more than 95%.
Finally, this thesis provides details on various tasks that have been performed in the area closely related to information segmentation. This includes automatic analysis and sketch based retrieval of architectural floor plan images, a novel scheme for online signature verification, and a part-based approach for signature verification. With these contributions, it has been shown that part-based methods can be successfully applied to document image analysis.
Die Forschung zum amerikanischen Exzeptionalismus als Teil der kollektiven
Identität der USA lässt eine systematische Einordnung der
exzeptionellen Selbstzuschreibungen der USA im Kontext militärischer
Interventionspolitik bisher weitgehend vermissen. Basierend auf den beiden
grundlegenden Dimensionen einer exemplarischen und einer missionarischen
Selbstzuschreibung werden in dieser Studie vier Idealtypen
des amerikanischen Exzeptionalismus gebildet, die als ideationales Analyseraster
der amerikanischen Interventionspolitik dienen können. Ausgehend
von der Doppelfunktion des amerikanischen Exzeptionalismus
als Movens außenpolitischer Präferenzen und als strategische Legitimationsgrundlage
wird in einem historisch angeleiteten Vergleich gezeigt,
dass Elemente dieser vier Idealtypen die außenpolitischen Traditionen
der USA maßgeblich (mit)geprägt haben. Zur weiteren Einordnung des
amerikanischen Exzeptionalismus in den außenpolitischen Präferenzbildungsprozess
der USA wird in einem zweiten Schritt die ideationale Variante
der liberalen Außenpolitiktheorie nach Andrew Moravcsik um den
Faktor der politischen Kommunikation ergänzt. Der amerikanische
Exzeptionalismus dient dem Präsidenten dabei als narrativer Diskursrahmen
außenpolitischer Interpretations- und Deutungsangebote, mit denen
er die Öffentlichkeit zu mobilisieren und den Kongress von seinen
außenpolitischen Absichten zu überzeugen versucht. In diesem Zusammenhang
gilt: Je kongruenter die außenpolitischen Deutungsangebote
mit dem Narrativ des amerikanischen Exzeptionalismus, desto wirkmächtiger
ihre Bedeutung für den gesellschaftlichen Diskurs der USA
über Außenpolitik. Entgegen den Annahmen der liberalen Außenpolitiktheorie
zeigt sich, dass der Präsident als Strategic Narrator des amerikanischen
Exzeptionalismus die Öffentlichkeit nicht nur repräsentieren,
sondern auch zu seinen Gunsten mobilisieren kann.
For some optimization problems on a graph \(G=(V,E)\), one can give a general formulation: Let \(c\colon E \to \mathbb{R}_{\geq 0}\) be a cost function on the edges and \(X \subseteq 2^E\) be a set of (so-called feasible) subsets of \(E\), one aims to minimize \(\sum_{e\in S} c(e)\) among all feasible \(S\in X\). This formulation covers, for instance, the shortest path problem by choosing \(X\) as the set of all paths between two vertices, or the minimum spanning tree problem by choosing \(X\) to be the set of all spanning trees. This bachelor thesis deals with a parametric version of this formulation, where the edge costs \(c_\lambda\colon E \to \mathbb{R}_{\geq 0}\) depend on a parameter \(\lambda\in\mathbb{R}_{\geq 0}\) in a concave and piecewise linear manner. The goal is to investigate the worst case minimum size of a so-called representation system \(R\subseteq X\), which contains for each scenario \(\lambda\in\mathbb{R}_{\geq 0}\) an optimal solution \(S(\lambda)\in R\). It turns out that only a pseudo-polynomial size can be ensured in general, but smaller systems have to exist in special cases. Moreover, methods are presented to find such small systems algorithmically. Finally, the notion of a representation system is relaxed in order to get smaller (i.e. polynomial) systems ensuring a certain approximation ratio.
This thesis is concerned with a phase field model for martensitic transformations in metastable austenitic steels. Within the phase field approach an order parameter is introduced to indicate whether the present phase is austenite or martensite. The evolving microstructure is described by the evolution of the order parameter, which is assumed to follow the time-dependent Ginzburg-Landau equation. The elastic phase field model is enhanced in two different ways to take further phenomena into account. First, dislocation movement is considered by a crystal plasticity setting. Second, the elastic model for martensitic transformations is combined with a phase field model for fracture. Finite element simulations are used to study the single effects separately which contribute to the microstructure formation.
Buses not arriving on time and then arriving all at once - this phenomenon is known from
busy bus routes and is called bus bunching.
This thesis combines the well studied but so far separate areas of bus-bunching prediction
and dynamic holding strategies, which allow to modulate buses’ dwell times at stops to
eliminate bus bunching. We look at real data of the Dublin Bus route 46A and present
a headway-based predictive-control framework considering all components like data
acquisition, prediction and control strategies. We formulate time headways as time series
and compare several prediction methods for those. Furthermore we present an analytical
model of an artificial bus route and discuss stability properties and dynamic holding
strategies using both data available at the time and predicted headway data. In a numerical
simulation we illustrate the advantages of the presented predictive-control framework
compared to the classical approaches which only use directly available data.
This study presents an energy-efficient ultra-low voltage standard-cell based memory in 28nm FD-SOI. The storage element (standard-cell latch) is replaced with a full- custom designed latch with 50 % less area. Error-free operation is demonstrated down to 450mV @ 9MHz. By utilizing body bias (BB) @ VDD = 0.5 V performance spans from 20 MHz @ BB=0V to 110MHz @ BB=1V.
Advanced Nursing Practice
(2016)
Der demografische Wandel stellt insbesondere die Gesundheitsversorgung vor große Her-
ausforderungen. Immer mehr ältere, chronisch erkrankte und häufig multimorbide Menschen
stehen immer weniger jüngeren Menschen gegenüber, die sowohl als pflegende Angehörige
als auch als Pflegefachpersonen, Ärzt_innen oder Angehörige anderer Gesundheitsberufe
für die Sicherstellung der pflegerisch-medizinischen Versorgung zur Verfügung stehen. Das an der Hochschule Ludwigshafen am Rhein angesiedelte Teilprojekt „EB – Entwicklung
durch Bildung – Pflege und Gesundheit“ fokussiert sowohl auf die Entwicklung eines hoch-
schulischen Bildungsangebots für Pflegefachpersonen, als auch auf die Konzeption eines
Modells erweiterter gemeindenaher Pflegepraxis für die Region Westpfalz.
Stochastic Network Calculus (SNC) emerged from two branches in the late 90s:
the theory of effective bandwidths and its predecessor the Deterministic Network
Calculus (DNC). As such SNC’s goal is to analyze queueing networks and support
their design and control.
In contrast to queueing theory, which strives for similar goals, SNC uses in-
equalities to circumvent complex situations, such as stochastic dependencies or
non-Poisson arrivals. Leaving the objective to compute exact distributions behind,
SNC derives stochastic performance bounds. Such a bound would, for example,
guarantee a system’s maximal queue length that is violated by a known small prob-
ability only.
This work includes several contributions towards the theory of SNC. They are
sorted into four main contributions:
(1) The first chapters give a self-contained introduction to deterministic net-
work calculus and its two branches of stochastic extensions. The focus lies on the
notion of network operations. They allow to derive the performance bounds and
simplifying complex scenarios.
(2) The author created the first open-source tool to automate the steps of cal-
culating and optimizing MGF-based performance bounds. The tool automatically
calculates end-to-end performance bounds, via a symbolic approach. In a second
step, this solution is numerically optimized. A modular design allows the user to
implement their own functions, like traffic models or analysis methods.
(3) The problem of the initial modeling step is addressed with the development
of a statistical network calculus. In many applications the properties of included
elements are mostly unknown. To that end, assumptions about the underlying
processes are made and backed by measurement-based statistical methods. This
thesis presents a way to integrate possible modeling errors into the bounds of SNC.
As a byproduct a dynamic view on the system is obtained that allows SNC to adapt
to non-stationarities.
(4) Probabilistic bounds are fundamentally different from deterministic bounds:
While deterministic bounds hold for all times of the analyzed system, this is not
true for probabilistic bounds. Stochastic bounds, although still valid for every time
t, only hold for one time instance at once. Sample path bounds are only achieved by
using Boole’s inequality. This thesis presents an alternative method, by adapting
the theory of extreme values.
(5) A long standing problem of SNC is the construction of stochastic bounds
for a window flow controller. The corresponding problem for DNC had been solved
over a decade ago, but remained an open problem for SNC. This thesis presents
two methods for a successful application of SNC to the window flow controller.
The recently established technologies in the areas of distributed measurement and intelligent
information processing systems, e.g., Cyber Physical Systems (CPS), Ambient
Intelligence/Ambient Assisted Living systems (AmI/AAL), the Internet of Things
(IoT), and Industry 4.0 have increased the demand for the development of intelligent
integrated multi-sensory systems as to serve rapid growing markets [1, 2]. These increase
the significance of complex measurement systems, that incorporate numerous advanced
methodological implementations including electronics circuit, signal processing,
and multi-sensory information fusion. In particular, in multi-sensory cognition applications,
to design such systems, the skill-required tasks, e.g., method selection, parameterization,
model analysis, and processing chain construction are elaborated with immense
effort, which conventionally are done manually by the expert designer. Moreover, the
strong technological competition imposes even more complicated design problems with
multiple constraints, e.g., cost, speed, power consumption,
exibility, and reliability.
Thus, the conventional human expert based design approach may not be able to cope
with the increasing demand in numbers, complexity, and diversity. To alleviate the issue,
the design automation approach has been the topic for numerous research works [3-14]
and has been commercialized to several products [15-18]. Additionally, the dynamic
adaptation of intelligent multi-sensor systems is the potential solution for developing
dependable and robust systems. Intrinsic evolution approach and self-x properties [19],
which include self-monitoring, -calibrating/trimming, and -healing/repairing, are among
the best candidates for the issue. Motivated from the ongoing research trends and based
on the background of our research work [12, 13] among the pioneers in this topic, the
research work of the thesis contributes to the design automation of intelligent integrated
multi-sensor systems.
In this research work, the Design Automation for Intelligent COgnitive system with self-
X properties, the DAICOX, architecture is presented with the aim of tackling the design
effort and to providing high quality and robust solutions for multi-sensor intelligent
systems. Therefore, the DAICOX architecture is conceived with the defined goals as
listed below.
Perform front to back complete processing chain design with automated method
selection and parameterization,
Provide a rich choice of pattern recognition methods to the design method pool,
Associate design information via interactive user interface and visualization along
with intuitive visual programming,
Deliver high quality solutions outperforming conventional approaches by using
multi-objective optimization,
Gain the adaptability, reliability and robustness of designed solutions with self-x
properties,
Derived from the goals, several scientific methodological developments and implementations,
particularly in the areas of pattern recognition and computational intelligence,
will be pursued as part of the DAICOX architecture in the research work of this thesis.
The method pool is aimed to contain a rich choice of methods and algorithms covering
data acquisition and sensor configuration, signal processing and feature computation,
dimensionality reduction, and classification. These methods will be selected and parameterized
automatically by the DAICOX design optimization to construct a multi-sensory
cognition processing chain. A collection of non-parametric feature quality assessment
functions for the purpose of Dimensionality Reduction (DR) process will be presented.
In addition, to standard DR methods, the variations of feature selection method, in
particular, feature weighting will be proposed. Three different classification categories
shall be incorporated in the method pool. Hierarchical classification approach will be
proposed and developed to serve as a multi-sensor fusion architecture at the decision
level. Beside multi-class classification, one-class classification methods, e.g., One-Class
SVM and NOVCLASS will be presented to extend functionality of the solutions, in particular,
anomaly and novelty detection. DAICOX is conceived to effectively handle the
problem of method selection and parameter setting for a particular application yielding
high performance solutions. The processing chain construction tasks will be carried
out by meta-heuristic optimization methods, e.g., Genetic Algorithms (GA) and Particle
Swarm Optimization (PSO), with multi-objective optimization approach and model
analysis for robust solutions. In addition, to the automated system design mechanisms,
DAICOX will facilitate the design tasks with intuitive visual programming and various
options of visualization. Design database concept of DAICOX is aimed to allow the
reusability and extensibility of the designed solutions gained from previous knowledge.
Thus, the cooperative design of machine and knowledge from the design expert can also
be utilized for obtaining fully enhanced solutions. In particular, the integration of self-x
properties as well as intrinsic optimization into the system is proposed to gain enduring
reliability and robustness. Hence, DAICOX will allow the inclusion of dynamically
reconfigurable hardware instances to the designed solutions in order to realize intrinsic
optimization and self-x properties.
As a result from the research work in this thesis, a comprehensive intelligent multisensor
system design architecture with automated method selection, parameterization,
and model analysis is developed with compliance to open-source multi-platform software.It is integrated with an intuitive design environment, which includes visual programming
concept and design information visualizations. Thus, the design effort is minimized as
investigated in three case studies of different application background, e.g., food analysis
(LoX), driving assistance (DeCaDrive), and magnetic localization. Moreover, DAICOX
achieved better quality of the solutions compared to the manual approach in all cases,
where the classification rate was increased by 5.4%, 0.06%, and 11.4% in the LoX,
DeCaDrive, and magnetic localization case, respectively. The design time was reduced
by 81.87% compared to the conventional approach by using DAICOX in the LoX case
study. At the current state of development, a number of novel contributions of the thesis
are outlined below.
Automated processing chain construction and parameterization for the design of
signal processing and feature computation.
Novel dimensionality reduction methods, e.g., GA and PSO based feature selection
and feature weighting with multi-objective feature quality assessment.
A modification of non-parametric compactness measure for feature space quality
assessment.
Decision level sensor fusion architecture based on proposed hierarchical classification
approach using, i.e., H-SVM.
A collection of one-class classification methods and a novel variation, i.e.,
NOVCLASS-R.
Automated design toolboxes supporting front to back design with automated
model selection and information visualization.
In this research work, due to the complexity of the task, neither all of the identified goals
have been comprehensively reached yet nor has the complete architecture definition been
fully implemented. Based on the currently implemented tools and frameworks, ongoing
development of DAICOX is pursuing towards the complete architecture. The potential
future improvements are the extension of method pool with a richer choice of methods
and algorithms, processing chain breeding via graph based evolution approach, incorporation
of intrinsic optimization, and the integration of self-x properties. According to
these features, DAICOX will improve its aptness in designing advanced systems to serve
the increasingly growing technologies of distributed intelligent measurement systems, in
particular, CPS and Industrie 4.0.
Advantage of Filtering for Portfolio Optimization in Financial Markets with Partial Information
(2016)
In a financial market we consider three types of investors trading with a finite
time horizon with access to a bank account as well as multliple stocks: the
fully informed investor, the partially informed investor whose only source of
information are the stock prices and an investor who does not use this infor-
mation. The drift is modeled either as following linear Gaussian dynamics
or as being a continuous time Markov chain with finite state space. The
optimization problem is to maximize expected utility of terminal wealth.
The case of partial information is based on the use of filtering techniques.
Conditions to ensure boundedness of the expected value of the filters are
developed, in the Markov case also for positivity. For the Markov modulated
drift, boundedness of the expected value of the filter relates strongly to port-
folio optimization: effects are studied and quantified. The derivation of an
equivalent, less dimensional market is presented next. It is a type of Mutual
Fund Theorem that is shown here.
Gains and losses eminating from the use of filtering are then discussed in
detail for different market parameters: For infrequent trading we find that
both filters need to comply with the boundedness conditions to be an advan-
tage for the investor. Losses are minimal in case the filters are advantageous.
At an increasing number of stocks, again boundedness conditions need to be
met. Losses in this case depend strongly on the added stocks. The relation
of boundedness and portfolio optimization in the Markov model leads here to
increasing losses for the investor if the boundedness condition is to hold for
all numbers of stocks. In the Markov case, the losses for different numbers
of states are negligible in case more states are assumed then were originally
present. Assuming less states leads to high losses. Again for the Markov
model, a simplification of the complex optimal trading strategy for power
utility in the partial information setting is shown to cause only minor losses.
If the market parameters are such that shortselling and borrowing constraints
are in effect, these constraints may lead to big losses depending on how much
effect the constraints have. They can though also be an advantage for the
investor in case the expected value of the filters does not meet the conditions
for boundedness.
All results are implemented and illustrated with the corresponding numerical
findings.
Software is becoming increasingly concurrent: parallelization, decentralization, and reactivity necessitate asynchronous programming in which processes communicate by posting messages/tasks to others’ message/task buffers. Asynchronous programming has been widely used to build fast servers and routers, embedded systems and sensor networks, and is the basis of Web programming using Javascript. Languages such as Erlang and Scala have adopted asynchronous programming as a fundamental concept with which highly scalable and highly reliable distributed systems are built.
Asynchronous programs are challenging to implement correctly: the loose coupling between asynchronously executed tasks makes the control and data dependencies difficult to follow. Even subtle design and programming mistakes on the programs have the capability to introduce erroneous or divergent behaviors. As asynchronous programs are typically written to provide a reliable, high-performance infrastructure, there is a critical need for analysis techniques to guarantee their correctness.
In this dissertation, I provide scalable verification and testing tools to make asyn- chronous programs more reliable. I show that the combination of counter abstraction and partial order reduction is an effective approach for the verification of asynchronous systems by presenting PROVKEEPER and KUAI, two scalable verifiers for two types of asynchronous systems. I also provide a theoretical result that proves a counter-abstraction based algorithm called expand-enlarge-check, is an asymptotically optimal algorithm for the coverability problem of branching vector addition systems as which many asynchronous programs can be modeled. In addition, I present BBS and LLSPLAT, two testing tools for asynchronous programs that efficiently uncover many subtle memory violation bugs.
Alkylcyclopentadienylchrom(II)-Verbindungen und Stickstoffkomplexe des Molybdäns und Wolframs
(2016)
Der Einsatz von Chrom(II)acetat als Ausgangsverbindung führte in einer Reaktion mit Na\( ^4 \)Cp zum dimeren, Acetato-verbrückten Tetraisopropylcyclopentadienylchrom(II)-Halbsandwich-komplex [\( ^4Cp \)Cr(OAc)]\( _2 \) 13.
Die sehr gut zugängliche Verbindung 13 wurde auf ihre Reaktivität untersucht und als Startmaterial für die Herstellung weiterer Chromverbindungen eingesetzt. Der Tetraisopropylcyclopentadienylchrom(II)-Halbsandwichkomplex 13 ergab bei der Reduktion mit Kalium in einer Stickstoffatmosphäre den zweikernigen Nitrido-Komplex [\( ^4Cp \)Cr(N)]\( _2 \) und bei der Substitution mit Cyanid das quadratische Tetramer [\( ^4Cp \)Cr(CN)]\( _4 \).
Mit anderen Reaktionspartnern wie z. B. den Pseudohalogeniden Azid und Cyanid wurden dagegen unvollständige Umsetzungen beobachtet, die den Wunsch nach einer besser geeigneten Ausgangsverbindung weckten. Dies gelang durch den Einsatz von Trimethylhalogensilanen, welche die Acetato-Liganden von 13 gegen Chlorid, Bromid, Iodid und im Falle des Trimethylsilylesters der Trifluormethansulfonsäure auch gegen Trifluormethansulfonat austauschen.
Die Reduktion der Halbsandwichkomplexe des Typs [\( ^RCp \)MoCl\( _4 \)] mit Kalium in Gegenwart ungesättigter Ringsysteme (Toluol, Cycloheptatrien oder Cyclooctatetraen) knüpfte an die noch unveröffentlichten Ergebnisse mit Cyclopentadienylnickel- und eisenverbindungen an und erbrachte folgendes Resultat: Während die Formeln der Reaktionsprodukte [\( ^RCp \)Mo\( _2 \)(Ring)] zur Interpretation als Tripeldecker-Sandwichkomplexe mit einem Ringsystem als Mitteldeck zwischen den beiden Metallatomen einluden, gaben die Massenspektren Hinweise auf eine Reaktivität, die dazu nicht passt.
Die unter Argon hergestellte Verbindung musste am Spektrometer aus messtechnischen Gründen unter Stickstoff gehandhabt werden und die Spektren gaben Hinweise auf den Einbau von Stickstoff.
An Adaptive and Dynamic Simulation Framework for Incremental, Collaborative Classifier Fusion
(2016)
Abstract. To investigate incremental collaborative classifier fusion techniques, we have developed a comprehensive simulation framework. It is highly flexible and customizable, and can be adapted to various settings and scenarios. The toolbox is realized as an extension to the NetLogo multi-agent based simulation environment using its comprehensive Java- API. The toolbox has been integrated in two di↵erent environments, one for demonstration purposes and another, modeled on persons using re- alistic motion data from Zurich, who are communicating in an ad hoc fashion using mobile devices.
The main theme of this thesis is the interplay between algebraic and tropical intersection
theory, especially in the context of enumerative geometry. We begin by exploiting
well-known results about tropicalizations of subvarieties of algebraic tori to give a
simple proof of Nishinou and Siebert’s correspondence theorem for rational curves
through given points in toric varieties. Afterwards, we extend this correspondence
by additionally allowing intersections with psi-classes. We do this by constructing
a tropicalization map for cycle classes on toroidal embeddings. It maps algebraic
cycle classes to elements of the Chow group of the cone complex of the toroidal
embedding, that is to weighted polyhedral complexes, which are balanced with respect
to an appropriate map to a vector space, modulo a naturally defined equivalence relation.
We then show that tropicalization respects basic intersection-theoretic operations like
intersections with boundary divisors and apply this to the appropriate moduli spaces
to obtain our correspondence theorem.
Trying to apply similar methods in higher genera inevitably confronts us with moduli
spaces which are not toroidal. This motivates the last part of this thesis, where we
construct tropicalizations of cycles on fine logarithmic schemes. The logarithmic point of
view also motivates our interpretation of tropical intersection theory as the dualization
of the intersection theory of Kato fans. This duality gives a new perspective on the
tropicalization map; namely, as the dualization of a pull-back via the characteristic
morphism of a logarithmic scheme.
Der vorliegende Arbeits- und Forschungsbericht bietet eine Handreichung für Studiengangsentwickler_innen, um sie bei der Erstellung von Kompetenzprofilen zu unterstützen. Zu diesem Zweck werden drei verschiedene Tools der Kompetenzprofilerstellung vorgestellt. Diese umfassen die Stellenanzeigenanalyse, den Curriculumabgleich und Lehrendeninterviews. Diese Tools haben sich als sehr nützlich für die Entwicklung von kompetenzorientierten Studiengängen erwiesen. Die drei Verfahren werden einander gegenübergestellt und Implikationen für die Praxis abgeleitet. Dieser Bericht soll dazu beitragen, bedarfsorientierte Weiterbildungsangebote für die Region zu gestalten.
Annual Report 2015
(2016)
Annual Report, Jahrbuch AG Magnetismus
The energy efficiency of today’s microcontrollers is supported by the extensive usage of low-power mechanisms. A full power-down requires in many cases a complex, and maybe error prone, administration scheme, because data from the volatile memory have to be stored in a flash based back- up memory. New types of non-volatile memory, e.g. in RRAM technology, are faster and consumes a fraction of the energy compared to flash technology. This paper evaluates power gating for WSN with RRAM as back-up memory.
In this paper, we discuss the problem of approximating ellipsoid uncertainty sets with bounded (gamma) uncertainty sets. Robust linear programs with ellipsoid uncertainty lead to quadratically constrained programs, whereas robust linear programs with bounded uncertainty sets remain linear programs which are generally easier to solve.
We call a bounded uncertainty set an inner approximation of an ellipsoid if it is contained in it. We consider two different inner approximation problems. The first problem is to find a bounded uncertainty set which sticks close to the ellipsoid such that a shrank version of the ellipsoid is contained in it. The approximation is optimal if the required shrinking is minimal. In the second problem, we search for a bounded uncertainty set within the ellipsoid with maximum volume. We present how both problems can be solved analytically by stating explicit formulas for the optimal solutions of these problems.
Further, we present in a computational experiment how the derived approximation techniques can be used to approximate shortest path and network flow problems which are affected by ellipsoidal uncertainty.
Three-dimensional (3D) integration using through- silicon via (TSV) has been used for memory designs. Content addressable memory (CAM) is an important component in digital systems. In this paper, we propose an evaluation tool for 3D CAMs, which can aid the designer to explore the delay and power of various partitioning strategies. Delay, power, and energy models of 3D CAM with respect to different architectures are built as well.
Interconnected, autonomously driving cars shall realize the vision of a zero-accident, low energy mobility in spite of a fast increasing traffic volume. Tightly interconnected medical devices and health care systems shall ensure the health of an aging society. And interconnected virtual power plants based on renewable energy sources shall ensure a clean energy supply in a society that consumes more energy than ever before. Such open systems of systems will play an essential role for economy and society.
Open systems of systems dynamically connect to each other in order to collectively provide a superordinate functionality, which could not be provided by a single system alone. The structure as well as the behavior of an open system of system dynamically emerge at runtime leading to very flexible solutions working under various different environmental conditions. This flexibility and adaptivity of systems of systems are a key for realizing the above mentioned scenarios.
On the other hand, however, this leads to uncertainties since the emerging structure and behavior of a system of system can hardly be anticipated at design time. This impedes the indispensable safety assessment of such systems in safety-critical application domains. Existing safety assurance approaches presume that a system is completely specified and configured prior to a safety assessment. Therefore, they cannot be applied to open systems of systems. In consequence, safety assurance of open systems of systems could easily become a bottleneck impeding or even preventing the success of this promising new generation of embedded systems.
For this reason, this thesis introduces an approach for the safety assurance of open systems of systems. To this end, we shift parts of the safety assurance lifecycle into runtime in order to dynamically assess the safety of the emerging system of system. We use so-called safety models at runtime for enabling systems to assess the safety of an emerging system of system themselves. This leads to a very flexible runtime safety assurance framework.
To this end, this thesis describes the fundamental knowledge on safety assurance and model-driven development, which are the indispensable prerequisites for defining safety models at runtime. Based on these fundamentals, we illustrate how we modularized and formalized conventional safety assurance techniques using model-based representations and analyses. Finally, we explain how we advanced these design time safety models to safety models that can be used by the systems themselves at runtime and how we use these safety models at runtime to create an efficient and flexible runtime safety assurance framework for open systems of systems.
Der Beitrag beschäftigt sich mit der Frage, ob Schildkröten alleine anhand der Musterung bzw. Struktur ihres Bauch- Rückenpanzers eindeutig identifiziert werden können. Dabei sollen sinnvolle Identifizierungsmerkmale entwickelt werden, die auf der Basis von Fotos ausgewertet werden. Das Besondere an diesem Problem ist, dass es mit Lernenden ganz unterschiedlicher Altersstufen bearbeitet werden kann und dass es eine unheimliche Vielfalt an mathematischen Methoden gibt, die auf dem Weg zu einer Lösung hilfreich sind: Dies reicht von einfachen geometrischen Überlegungen über Analysis (Integration, Kurvendiskussion) bis hin zu mathematischer Bildverarbeitung und Fragen der Robustheit. Genauso breit wie das Spektrum der einsetzbaren mathematischen Werkzeuge ist die Altergruppe, mit der ein derartiges Projekt durchführbar ist: Vom Grundschulalter bis hin zur Masterarbeit ist eine Bearbeitung möglich, und die benötigte Zeitspanne reicht von wenigen Stunden bis hin zu mehreren Monaten. Im Beitrag wird die angesprochene Vielfalt exemplarisch gezeigt, so dass die Leser im Idealfall das Projekt genau an die Bedürfnisse ihrer Lerngruppe anpassen können.
Bedingt durch den Zusammenstoß zweier Objekte im Crashlastfall existieren im Bereich
des Güter- und Personentransports eine Vielzahl an Konzepten und Mechanismen
für einen kontrollierten Abbau der kinetischen Impactenergie unter äußerer
Druckbelastung. Im Gegensatz dazu ist der Wissensstand für eine Energieabsorption
unter äußerer Zugbelastung vergleichsweise gering. Für den Anwendungsfall in einer
modernen Flugzeugrumpfstruktur aus kohlenstofffaserverstärktem Kunststoff (CFK),
deren Crashkinematik eine Integration von zugbelasteten Energieabsorberelementen
ermöglicht, liefert diese Arbeit sowohl eine Entscheidungsgrundlage für eine Vorauswahl
durch einen methodischen Vergleich zugbelasteter Absorberkonzepte als
auch Methoden für eine Vorauslegung entsprechender Absorberelemente.
Im Rahmen dieser Arbeit wird eine Vielzahl möglicher, zugbelasteter Energieabsorberkonzepte
erarbeitet und detailliert untersucht. Die Bewertung der Absorberkonzepte
unter den Gesichtspunkten Leichtbaupotenzial (Gewicht, Integrationsmöglichkeiten),
Robustheit und Funktionsweise erfolgt anhand charakteristischer Absorberkennwerte,
wie gewichtsspezifische Energieabsorption, effektive Geometrie- und
Lastausnutzung, Lastschwankung sowie Einfluss von Temperatur und Lastrate auf das Energieabsorptionsvermögen. Dabei lassen sich die Absorberkonzepte in die
Kategorien Materialien und Strukturen unter globaler Zugbelastung unterteilen.
Auf Materialebene, welche die unterste Betrachtungsebene für eine Energieabsorption
unter Zugbelastung darstellt, wird das Energieabsorptionsvermögen typischer
Leichtbauwerkstoffe unter Zugbelastung bestimmt. Der zugrunde liegende Energieabsorptionsmechanismus
der plastischen Deformation von Materialien bietet aufgrund
der vergleichsweise einfachen konstruktiven Lösung ein hohes Leichtbaupotenzial.
Hauptnachteil ist jedoch die fehlende Einstellbarkeit sowie die direkte Abhängigkeit
der Absorbercharakteristik vom mechanischen Verhalten der betrachteten
Werkstoffklasse, was sich, bedingt durch die Bruchdehnung, bei gegebenem Bauraum
in der Beschränkung der maximalen Absorptionslänge widerspiegelt.
Die Strukturebene bildet eine weitere Betrachtungsebene für eine Energieabsorption
unter Zugbelastung. Hier werden Absorberelemente unter globaler Zugbelastung
sowie unter lokaler Druckbelastung, die über eine entsprechende Lastumleitung in
eine globale Zugbelastung überführt werden kann, untersucht. Letztere bieten jedoch
nur für den Fall einer Integration in vorhandene Strukturen ein ausreichend hohes Leichtbaupotenzial, um mit Materialien oder rein zugbelasteten Absorberelementen
zu konkurrieren. Im Vergleich zu einfachen Materialien unter Zugbelastung zeichnen
sich Absorberelemente auf Strukturebene durch eine generelle Einstellbarkeit der
Absorbercharakteristik sowie eine höhere Flexibilität in der Auslegung aus.
Den Schwerpunkt dieser Arbeit bildet die Untersuchung eines Energieabsorberkonzepts
basierend auf dem progressiven Lochleibungsversagen von Faser-Kunststoff-
Verbunden (FKV), das sich nicht nur durch eine hohe gewichtsspezifische Energieabsorption,
sondern auch durch eine annähernd ideale Absorbercharakteristik sowie
eine potenzielle Integration in eine Nietverbindung der betrachteten Flugzeugrumpfstruktur
aus CFK auszeichnet. Vor dem Hintergrund der Vorauslegung dieses Absorberelements
werden der Einfluss des Faser- und Matrixmaterials, der Faserorientierung
und -architektur, der Lastrate (200 mm/min bis 3 m/s) und Temperatur
(-20 °C bis 60 °C) sowie geometrischer Parameter wi e Plattendicke und Bolzendurchmesser
in einer experimentellen Studie analysiert. Für spröde FKV stellt sich
ein kontrolliert ablaufendes progressives Versagen als Kombination aus Transversalschub
und Laminatbiegung ein. Die Bildung eines Fragmentkeils vor dem Bolzen begünstigt
zudem den Anteil der Reibung an der Gesamtenergieabsorption.
Auf Basis der experimentellen Daten wird ein analytischer Ansatz zur Vorhersage der
sich einstellenden mittleren Deformationskraft entwickelt. Dieser vereinfachte, energetische
Ansatz ermöglicht unter Verwendung materieller (Biegefestigkeit, Reibungseigenschaften,
intra- und interlaminare Bruchenergie) sowie geometrischer
(Fragmentkeil) Parameter den linearen Zusammenhang zwischen mittlerer Deformationskraft
und Bolzendurchmesser bzw. den nichtlinearen Zusammenhang zwischen
mittlerer Deformationskraft und Plattendicke abzubilden.
Die generelle Eignung numerischer Berechnungsmethoden für eine Vorhersage des
progressiven Lochleibungsversagens wird für eine industrielle Anwendung mittels
geeigneter Modellierungsansätze in der kommerziellen, expliziten Berechnungssoftware
Abaqus/Explicit untersucht. Dies geschieht auf Basis von konventionellen intraund
interlaminaren Materialmodellen für gewebeverstärkte FKV. Mit den gezeigten
Modellansätzen lässt sich das generelle Deformationsverhalten des FKV abbilden.
Aufgrund der starken Vereinfachung der in der Schädigungszone vor dem Bolzen
ablaufenden Mechanismen sowie der unrealistisch frühen interlaminaren Schädigung
lassen sich die nichtlinearen Zusammenhänge zwischen mittlerer Deformationskraft
und Plattendicke jedoch nur bedingt abbilden.
Beim Bauen im Bestand werden häufig neue Stahlbetonbauteile kraftschlüssig an bestehende Tragstrukturen angeschlossen. Dies wird bei Ortbetonbauteilen günstig mit dem Übergreifungsstoß realisiert.
Bis Ende der 1950-er Jahre wurden im Stahlbetonbau überwiegend glatte Betonstähle verwendet, bevor sie mit einer Übergangszeit bis Ende der 1970-er Jahre von den heute eingesetzten gerippten Betonstählen abgelöst wurden. Im Gegensatz zu den seit 1925 genormten Übergreifungsstößen mit Betonstählen gleicher Art und Güte sind kombinierte Übergreifungsstöße von Glatt- und Rippenstählen jedoch bis heute nicht geregelt.
Zur Beseitigung dieses Defizits wurden im Rahmen dieser Arbeit differenzierte Bewehrungsregeln hergeleitet, die wissenschaftlich abgesicherte und gleichzeitig wirtschaftliche Lösungen für kombinierte Übergreifungsstöße ermöglichen, denn unter Einbeziehung des Rückbaus bestehender Altbetonsubstanz verlangt eine ökonomische Bauweise für Übergreifungsstöße von freigelegten historischen Glattstählen mit aktuell verwendeten Rippenstählen nach Vollstößen mit kleinstmöglichen Übergreifungslängen. Dabei sind die Anforderungen nach heute gültigem Regelwerk an die Zuverlässigkeit gegen Versagen im Grenzzustand der Tragfähigkeit (GZT) und die Sicherstellung der vorgegebenen Nutzung durch Begrenzung der Rissbreiten im Grenzzustand der Gebrauchstauglichkeit (GZG) zu beachten.
Für verschiedene kombinierte Übergreifungsstöße von mit Endhaken versehenen glatten Betonstählen BStI und gerippten Betonstählen B500 mit geraden Stabenden oder Endhaken wurden die erforderlichen Übergreifungslängen anhand systematisch aufgebauter Versuchsreihen empirisch ermittelt. Dabei wurde ein grundlegendes Verständnis für die Tragwirkung kombinierter Übergreifungsstöße gewonnen und ein allgemeingültiges Lastübertragungsmodell erarbeitet.
Zur Bemessung kombinierter Übergreifungsstöße wurde weiter ein Ingenieurmodell abgeleitet, welches die Tragwirkung derartiger Stöße zuverlässig beschreibt und die experimentell ermittelten Übergreifungslängen bestätigt. Dabei wurde unter Berücksichtigung der für den Verbund maßgebenden Betonzugfestigkeit, der Stahlspannungen und den Stabdurchmessern auf Basis statistischer Methoden ein Bemessungsdiagramm für die erforderliche Übergreifungslänge bestimmter Stoßkombinationen erarbeitet und eine ergänzende FE-Modellierung durchgeführt.
Darauf aufbauend werden allgemeingültige Gleichungen zur Ermittlung der Bemessungswerte der Übergreifungslängen kombinierter Übergreifungsstöße mit Glattstahl BStI und Rippenstahl B500 angegeben und Konstruktionsregeln für in der Praxis regelmäßig vorkommende Kombinationen von Stabdurchmessern, Betongüten und Verbundbedingungen erarbeitet, die für Kombi-Stöße gleichwertig zu den Regeln des EC2 für den Neubaufall angewendet werden können.
To continue reducing voltage in scaled technologies, both circuit and architecture-level resiliency techniques are needed to tolerate process-induced defects, variation, and aging in SRAM cells. Many different resiliency schemes have been proposed and evaluated, but most prior results focus on voltage reduction instead of energy reduction. At the circuit level, device cell architectures and assist techniques have been shown to lower Vmin for SRAM, while at the architecture level, redundancy and cache disable techniques have been used to improve resiliency at low voltages. This paper presents a unified study of error tolerance for both circuit and architecture techniques and estimates their area and energy overheads. Optimal techniques are selected by evaluating both the error-correcting abilities at low supplies and the overheads of each technique in a 28nm. The results can be applied to many of the emerging memory technologies.
Congress Report 2015.11-12
(2016)
Congress Report 2016.01-04
(2016)
Congress Report 2016.05-08
(2016)
Congress Report 2016.09-10
(2016)
Congress Report 2016.11-12
(2016)
The biodiversity of the cyanobacterial lichen flora of Vietnam is chronically understudied. Previous studies often neglected the lichens that inhabit lowlands especially outcrops and sand dunes that are common habitats in Vietnam.
A cyanolichen collection was gathered from lowlands of central and southern Vietnam to study their diversity and distribution. At the same time, cultured photobionts from those lichens were used for olyphasic taxonomic approach.
A total of 66 cyanolichens were recorded from lowland regions in central and southern of Vietnam, doubles the number of cyanolichens for Vietnam. 80% of them are new records for Vietnam in which a new species Pyrenopsis melanophthalma and two new unidentified lichinacean taxa were described.
A notably floristic segregation by habitats was indicated in the communities. Saxicolous Lichinales dominated in coastal outcrops that corresponded to 56% of lichen species richness. Lecanoralean cyanolichens and basidiolichens were found in the lowland forests. Precipitation correlated negatively to species richness in this study, indicating a competitive relationship.
Eleven cyanobacterial strains including 8 baeocyte-forming members of the genus Chroococcidiopsis and 3 heterocyte-forming species of the genera Nostoc and Scytonema were successfully isolated from lichens.
Phylogenetic and morphological analyses indicated that Chroococcidiopsis was the unique photobiont in Peltula. New mophological characters were found in two Chroococcidiopsis strains: (1) the purple content of cells in one photobiont strain that was isolated from a new lichinacean taxon, and (2) the pseudofilamentous feature by binary division from a strain that was isolated from Porocyphus dimorphus.
With respect to heterocyte-forming cyanobiont, Scytonema was confirmed as the photobiont in the ascolichen Heppia lutosa applying the polyphasic method. The genus Scytonema in the basidiolichens Cyphellostereum was morphologically examinated in lichen thalli. For the first time the intracellular haustorial system of basidiolichen genus Cyphellostereum was noted and investigated.
Phylogenetic analysis of photobiont strains Nostoc from Pannaria tavaresii and Parmeliella brisbanensis indicated that a high selectivity occurred in Parmeliella brisbanensis that were from different regions of the world, while low photobiont selectivity occurred among Pannaria tavaresii samples from different geographical regions.
The herewith presented dissertation is therefore an important contribution to the lichen flora of Vietnam and a significant improvement of the actual knowledge about cyanolichens in this country.
Wie entwickelte sich der europäische Stadtblock von der Antike bis in die Gegenwart und was bedeutet er heute für den urbanen Raum? Dies sind die zentralen Fragestellungen dieser Arbeit. Aufbauend auf den methodischen Werkzeugen der diachronischen und synchronischen Linien nach Carl E. Schorske, mit deren Hilfe parallele Entwicklungsströme zwischen Architektur und Gesellschaft aufgezeigt werden können, sowie dem Prinzip der Paradigmenwechsel nach Thomas S. Kuhn, welches den Übergang eines Gedankenmodells zum nächsten mittels revolutionären Vorgängen beschreibt, wird die Chronik des europäischen Stadtblocks auf die Korrelation zwischen Gebautem und Gedachtem analysiert. Der Fokus liegt hierbei auf der Entwicklung und den Eigenschaften des urbanen Stadtblocks innerhalb der europäischen Stadt. Dieser definiert sich über das Dreigespann »Straße – Haus – Hof« als zusammenhängendes, städtebauliches Konstrukt, welches von öffentlichem Raum umgeben ist und einen gemeinschaftlichen Raum einschließt.
Die Evolution des Stadtblocks entlang der gesellschaftlichen Entwicklungen führt unweigerlich in die Gegenwart. Auf diesem Weg lädt sich der Block mit epochenspezifischen Inhalten auf, welche er kontinuierlich weiterführt. So erfährt er aus der Antike den sozialen Grundgedanken der Gemeinschaft. Mit dem gesellschaftlichen Paradigmenwechsel der aufkommenden Bürgerlichkeit erhält der Stadtblock im Mittelalter eine wirtschaftliche Komponente auf Grundlage der Multifunktionalität. Aufklärung und Absolutismus überführen die Typologie schließlich in die Renaissance und den Barock, aus denen wiederum ein repräsentativer Charakter sowie ein grundlegendes städtebauliches Prinzip resultiert. Die politischen, sozialen wie technischen Revolutionen der Neuzeit geben dem Stadtblock einen programmatischen Charakter, da er nicht nur zum Programm erhoben, sondern gleichzeitig auch Grundtyp der gegenwärtigen Blockbebauungen wird. Die Weltkriege sowie die Abkehr vom traditionellen Stadtbild lassen die Planer von der Blocktypologie abkommen hin zu einem vom Kontext gelösten, aufgelockerten Städtebau der Moderne. Hieraus entsteht weniger ein städtebaulicher Mehrwert für den Block, durchaus aber ein funktionaler im Hinblick auf Bautechnik und Organisation. Die Auswirkungen der autogerechten und funktionalen Stadt bewirken den Paradigmenwechsel zur Nachmoderne, in welcher Multifunktionalität und Dichte erneut zum Leitbild des Baugeschehens erhoben werden.
Am Ende der Untersuchung erweist sich die These der Korrelation zwischen Gebautem und Gedachtem als belegt. Wenn sich Gesellschaft und Architektur nun von der Antike an parallel entwickelten, so ist es nur folgerichtig anzunehmen, dass der Stadtblock als kontinuierlich gewachsenes Konstrukt auch eine Analogie zur Gesellschaft der Gegenwart darstellen kann. Als regressiver Stadtbaustein, also als Typologie, die dank ihrer fortdauernden Weiterentwicklung die Bedingung vom Bedingten abzuleiten vermag, ist es dem Stadtblock möglich auf die immanenten Inhalte seines Werdeganges zurückzugreifen und diese gleich der Gesellschaft für die Gegenwart und Zukunft zu nutzen.
Der unmögliche Freistoß
(2016)
Die Autoren befassen sich mit der Ableitung und Bearbeitung eines Modellierungsprojektes aus der populären Sportart Fußball: Ein Freistoß wird unter Beachtung der gegebenen physikalischen Effekte mathematisch modelliert und simuliert. Der Fokus liegt auf der möglichen Durchführung dieses Modellierungsprojekts mit Schülerinnen und Schülern der Sekundarstufe II.
Multiple-channel die-stacked DRAMs have been used for maximizing the performance and minimizing the power of memory access in 2.5D/3D system chips. Stacked DRAM dies can be used as a cache for the processor die in 2.5D/3D system chips. Typically, modern processor system-on-chips (SOCs) have three-level caches, L1, L2, and L3. Could the DRAM cache be used to replace which level of caches? In this paper, we derive an inequality which can aid the designer to check if the designed DRAM cache can provide better performance than the L3 cache. Also, design considerations of DRAM caches for meet the inequality are discussed. We find that a dilemma of the DRAM cache access time and associativity exists for providing better performance than the L3 cache. Organizing multiple channels into a DRAM cache is proposed to cope with the dilemma.
Thermoplastic composite materials are being widely used in the automotive and aerospace industries. Due to the limitations of shape complexity, different components
need to be joined. They can be joined by mechanical fasteners, adhesive bonding or
both. However, these methods have several limitations. Components can be joined
by fusion bonding due to the property of thermoplastics. Thermoplastics can be melted on heating and regain their shape on cooling. This property makes them ideal for
joining through fusion bonding by induction heating. Joining of non-conducting or
non-magnetic thermoplastic composites needs an additional material that can generate heat by induction heating.
Polymers are neither conductive nor electromagnetic so they don’t have inherent potential for inductive heating. A susceptor sheet having conductive materials (e.g. carbon fiber) or magnetic materials (e.g. nickel) can generate heat during induction. The
main issues related with induction heating are non-homogeneous and uncontrolled
heating.
In this work, it was observed that to generate heat with a susceptor sheet depends
on its filler, its concentration, and its dispersion. It also depends on the coil, magnetic
field strength and coupling distance. The combination of different fillers not only increased the heating rate but also changed the heating mechanism. Heating of 40ºC/
sec was achieved with 15wt.-% nickel coated short carbon fibers and 3wt.-% multiwalled carbon nanotubes. However, only nickel coated short carbon fibers (15wt-.%)
attained the heating rate of 24ºC/ sec. In this study, electrical conductivity, thermal
conductivity and magnetic properties testing were also performed. The results also
showed that electrical percolation was achieved around 15wt.-% in fibers and (13-
6)wt.-% with hybrid fillers. Induction heating tests were also performed by making
parallel and perpendicular susceptor sheet as fibers were uni-directionally aligned.
The susceptor sheet was also tested by making perforations.
The susceptor sheet showed homogeneous and fast heating, and can be used for
joining of non-conductive or non-magnetic thermoplastic composites.
Dual-Pivot Quicksort and Beyond: Analysis of Multiway Partitioning and Its Practical Potential
(2016)
Multiway Quicksort, i.e., partitioning the input in one step around several pivots, has received much attention since Java 7’s runtime library uses a new dual-pivot method that outperforms by far the old Quicksort implementation. The success of dual-pivot Quicksort is most likely due to more efficient usage of the memory hierarchy, which gives reason to believe that further improvements are possible with multiway Quicksort.
In this dissertation, I conduct a mathematical average-case analysis of multiway Quicksort including the important optimization to choose pivots from a sample of the input. I propose a parametric template algorithm that covers all practically relevant partitioning methods as special cases, and analyze this method in full generality. This allows me to analytically investigate in depth what effect the parameters of the generic Quicksort have on its performance. To model the memory-hierarchy costs, I also analyze the expected number of scanned elements, a measure for the amount of data transferred from memory that is known to also approximate the number of cache misses very well. The analysis unifies previous analyses of particular Quicksort variants under particular cost measures in one generic framework.
A main result is that multiway partitioning can reduce the number of scanned elements significantly, while it does not save many key comparisons; this explains why the earlier studies of multiway Quicksort did not find it promising. A highlight of this dissertation is the extension of the analysis to inputs with equal keys. I give the first analysis of Quicksort with pivot sampling and multiway partitioning on an input model with equal keys.
Der gewerkschaftliche Bildungsträger ver.di Bildung + Beratung (im Folgenden: ver.di b+b) ist auf die Qualifizierung von gesetzlichen Interessenvertretungen spezialisiert und eng mit der Gewerkschaft ver.di verbunden. Die größte Zielgruppe sind Mitglieder von Betriebsratsgremien. Die Bildungsarbeit von ver.di b+b wird durch die rechtlichen Rahmenbedingungen, einen gewerkschaftspolitischen Anspruch und einen pädagogischen Auftrag beeinflusst: Betriebsratsmitglieder haben nach dem Betriebsverfassungsgesetz (BetrVG) einen Freistellungsanspruch für den Besuch von Schulungen. Damit sie teilnehmen können, müssen die Schulungen verschiedene rechtliche Vorgaben erfüllen. Gewerkschaftliche Bildung versteht sich als politische Bildung, was ebenfalls Einfluss auf die inhaltliche, pädagogische und organisatorische Gestaltung hat. Im Leitbild von ver.di b+b wird der pädagogische Anspruch des Bildungsträgers deutlich: Die Schulungen sollen handlungs- und teilnehmerorientiert sein und die Teilnehmenden persönlich, fachlich, sozial und politisch stärken. Diese drei Aspekte sind zu berücksichtigen, wenn es um die Frage nach den geeigneten Lernformen für Betriebsratsschulungen geht. Bis jetzt bietet ver.di b+b seine Seminare ausschließlich in Form von Präsenzveranstaltungen an. E-Learning-Angebote gibt es nicht. Das steht im Widerspruch zu der allgemeinen gesellschaftlichen Bedeutung des Internets.
Anhand einer empirischen Untersuchung gibt die Arbeit eine Einschätzung zu dem Bedarf von E-Learning-Angeboten im Bereich der gewerkschaftlichen Bildungsarbeit mit Betriebsräten aus Sicht der Teilnehmenden von ver.di b+b.
Während der Maillard-Reaktion entsteht eine Vielzahl an Verbindungen, die neben
antioxidativen oder antikanzerogenen Effekten auch adverse Eigenschaften aufweisen
können. Das Ziel dieser Arbeit war daher zum einen die Charakterisierung der zellulären
Effekte von Lebensmittelextrakten aus den traditionellen chinesischen Lebensmitteln
Peking Ente (PE) und Jinhua Schinken (JS). In den Extrakten JS und PE konnten u. a. die
Lebensmittelkontaminante Acrylamid (AA) identifiziert werden. Das B-Vitamin Niacin führte
in Lebensmittelsystemen bereits zu einer Reduktion des AA-Gehalts unter Entstehung eines
Acrylamid-Niacin-Addukts (ANA). Da die Reaktionspartner AA und Niacin natürlicherweise
während der Kaffeeröstung entstehen, wurde die Hypothese formuliert, dass auch ANA
während der Kaffeeröstung gebildet werden könnte. Dies konnte mittels LC/MS-Analyse
bestätigt werden. Somit liegt eine Aufnahme von ANA über Kaffee im Rahmen des
Möglichen und eine Niacin-Supplementierung könnte sich als effektive Möglichkeit
erweisen, um den AA-Gehalt bei der Zubereitung von Lebensmitteln zu senken. Bevor
jedoch diese Methode in Betracht gezogen werden kann, ist ein Nachweis der
gesundheitlichen Unbedenklichkeit von ANA insbesondere im Vergleich zu AA notwendig.
Aufgrund der strukturellen Ähnlichkeit zu N-Methylpyridinium (NMP), einem möglichen
Nrf2-Aktivator, wurde angenommen, dass ANA ebenfalls den Nrf2/ARE-Signalweg
aktivieren könnte. Der Schwerpunkt der Untersuchungen in HT29 Zellen wurde dabei auf
Zytotoxizität, pro- und antioxidative Eigenschaften, Gentoxizität und Beeinflussung des
Nrf2-Signalwegs gelegt. JS zeigte in den verwendeten Testsystemen kaum zelluläre
Wirkungen, mit Ausnahme der schwachen DNA-schädigenden Wirkung und des stärkeren
Effekts auf die UGT1A1-Transkription, die jedoch keine Schutzwirkung gegenüber eines
Menadion-induzierten oxidativen Stresses gezeigt hatte. PE induzierte (oxidative) DNASchäden
und ROS, in dessen Folge vermutlich die Erhöhung des redoxsensitiven Gens
UGT1A1 sowie die Hemmung der Zellproliferation zu erklären ist. Eine Beeinflussung des
Nrf2-Signalwegs sowie eine antioxidative Wirkung konnte nach Inkubation mit ANA nicht
beobachtet werden. Jedoch führte die Bindung von AA an das B-Vitamin Niacin zu einem
Addukt mit verminderten DNA-schädigenden und zytotoxischen Eigenschaften im Vergleich
zu AA.
Emerging Memories (EMs) could benefit from Error Correcting Codes (ECCs) able to correct few errors in a few nanoseconds. The low latency is necessary to meet the DRAM- like and/or eXecuted-in-Place requirements of Storage Class Memory devices. The error correction capability would help manufacturers to cope with unknown failure mechanisms and to fulfill the market demand for a rapid increase in density. This paper shows the design of an ECC decoder for a shortened BCH code with 256-data-bit page able to correct three errors in less than 3 ns. The tight latency constraint is met by pre-computing the coefficients of carefully chosen Error Locator Polynomials, by optimizing the operations in the Galois Fields and by resorting to a fully parallel combinatorial implementation of the decoder. The latency and the area occupancy are first estimated by the number of elementary gates to traverse, and by the total number of elementary gates of the decoder. Eventually, the implementation of the solution by Synopsys topographical synthesis methodology in 54nm logic gate length CMOS technology gives a latency lower than 3 ns and a total area less than \(250 \cdot 10^3 \mu m^2\).
In this paper, we show the feasibility of low supply voltage for SRAM (Static Random Access Memory) by adding error correction coding (ECC). In SRAM, the memory matrix needs to be powered for data retentive standby operation, resulting in standby leakage current. Particularly for low duty- cycle systems, the energy consumed due to standby leakage current can become significant. Lowering the supply voltage (VDD) during standby mode to below the specified data retention voltage (DRV) helps decrease the leakage current. At these VDD levels errors start to appear, which we can remedy by adding ECC. We show in this paper that addition of a simple single error correcting (SEC) ECC enables us to decrease the leakage current by 45% and leakage power by 72%. We verify this on a large set of commercially available standard 40nm SRAMs.
Die Möller-Plesset Störungstheorie ist die einfachste ab-initio Methode zur Berechnung der Korrelationsenergie. Durch die Verwendung von zweikomponentigen Spinoren wird sichergestellt, dass relativistische Effekte wie z.B. die Spin-Bahn-Wechselwirkung berücksichtigt werden, die besonders auf die Eigenschaften schwerer Elemente einen großen Einfluss besitzen. Die bisher vorhandenen MP2-Programme berücksichtigten entweder keine relativistischen Effekte oder bauten auf weiteren Näherungsmethoden auf. Ziel der Doktorarbeit war, dass in meiner Diplomarbeit entworfene tcmp2-Programm durch die Entwicklung einer geeigneten Parallelisierung so weiterzuentwickeln, dass auch größere Übergangsmetallkomplexe damit berechnet werden können.
Das fertige Programm wurde anschließend zur Untersuchung der Elektronenaffinität ausgewählter Superhalogeniden sowie der Nullfeldaufspaltung spezieller Rheniumkomplexe verwendet.
In der vorliegenden Arbeit wurde ein glasfaserverstärkter Rotor für einen Elektromotor
entwickelt, welcher bei elektrisch angetriebenen Fahrzeugen verwendet werden
soll. Ziel ist eine kostengünstige Serienversion des Motors auf Basis eines bereits
bestehenden Baumusters. Im Wesentlichen waren dabei zwei Anforderungsfelder zu
erfüllen.
Als erstes mussten Verformungsrestriktionen unter Betriebslast eingehalten werden.
Es wurde ein Finite-Elemente-(FE-) Modell erstellt, wobei eine Schnittstelle zwischen
der Prozesssimulation der Fertigung und dem FE-Modell geschrieben wurde, um die
Informationen zum Lagenaufbau zu transferieren. Sowohl in der Analytik als auch in
der numerischen Simulation hat sich gezeigt, dass bei der im Betrieb auftretenden
Fliehkraft die gewünschte Verformung nur mit Hilfe der zu verwendenden Glasfaser
nicht eingehalten werden kann. Daraufhin wurde ein Konzept entwickelt, um die
Verformung mittels einer adaptiven Steuerung mit Formgedächtnislegierungen zu
begrenzen. Zunächst wurden Konzepte entwickelt, wie die Formgedächtnislegierung
in Drahtform an den Rotor angebunden werden kann. Die Konzepte wurden experimentell
überprüft, wobei gleichzeitig das Verhalten der Formgedächtnislegierung
ermittelt wurde, um daraus ein numerisches Simulationsmodell zu entwickeln,
welches mit dem Modell des Rotors verknüpft wurde. Dabei zeigte sich, dass dieses
Konzept das Verformungsverhalten positiv beeinflusst und in Abhängigkeit von der
verwendeten Menge die Verformungsrestriktion eingehalten werden kann.
Als zweites Anforderungsfeld wurde die Lasteinleitung zwischen dem Rotor und der
Abtriebswelle ausgelegt. Dafür wurde ein Konzept für eine Verschraubung als
Sonderform einer Bolzenverbindung erarbeitet, bei denen ein Gewinde in der
dickwandigen glasfaserverstärkten Kunststoff (GFK-) Struktur des Rotors mittels insitu-
Herstellung eingebracht wird. Um die Vor- und Nachteile eines solchen geformten
Gewindes gegenüber einer geschnittenen Variante zu ermitteln, wurden umfangreiche
quasistatische Versuche und zyklische Lebensdauerversuche an zwei verschiedenen
Laminaten und zwei verschiedenen Gewindetypen durchgeführt. Gemessen
wurde jeweils die (Ermüdungs-) Festigkeit bei axialer Kraft und bei Scherkraft.
Dabei zeigte sich, dass bei quasistatischer axialer Belastung die geformten
Gewinde im Mittel eine geringere Festigkeit aufweisen als die geschnittene Variante.Bei der für den Anwendungsfall relevanteren Scherbelastung konnten im Mittel
jedoch Festigkeitssteigerungen gemessen werden. Bei der Ermüdungsfestigkeit
waren die Vorteile abhängig von dem geprüften Lastniveau. Die Wöhlerlinien bei den
geformten Gewinden haben im Mittel einen deutlich flacheren Verlauf. Für die
meisten Vergleichspaare bedeutet dies, dass die geschnittene Variante bei sehr
hohen Lastniveaus beim Einstufenversuch eine größere Versagensschwingspielzahl
erreicht als die geformte Variante. Bei Verringerung der Last haben ab einem
individuellen Kreuzungspunkt jedoch die geformten Gewinde eine größere Schwingspielzahl
erreicht.
Abschließend wurde ein voll parametrisches numerisches Einheitszellen-Modell
erstellt, welches sowohl die geformten als auch die geschnittenen Gewinde abbilden
kann. Hierbei wurden auch Degradationsmodelle integriert, die ein verändertes
Werkstoffverhalten nach dem Auftreten insbesondere von Zwischenfaserbrüchen
und Delaminationen abbilden sollen. Validiert wurden die Modelle, indem die quasistatischen
Versuche nachgebildet wurden und die globale Verformung mit den
optischen Messungen aus den Versuchsreihen verglichen wurden. Dabei zeigte sich
eine gute Übereinstimmung bis relativ nah an die Schraube heran. In diesem Bereich
war die Simulation minimal zu steif, was auf eine noch nicht ausreichende Degradation
in der Simulation hindeutet.
In this study a GFRP rotor of an electric engine is developed. The engine shall be
used in electric drive trains in cars. Major aim of the study is to develop a low-cost
version of an existing prototype for serial production with a relatively high output of at
least 50.000 units per annum. Two main aims must be achieved.
First of all, the structural deformation must be limited under operating load. To predict
the deformation, a finite element model was set up. To import the lay-up information
from a filament winding process simulation software into the FE-model, a compilertool
was written. The numerical simulation and an analytical calculation have shown
that the GFRP-laminate alone is not able to limit the radial deformation caused by
centrifugal force under rotation. So a different approach was developed, using an
adaptive control with shape memory alloys. For this, a concept was investigated, how
the shape memory alloy wires can be attached on the GFRP structure. The strengths
of the different concepts were measured experimentally and simultaneously the
force-temperature behavior of the wire was investigated. Out of these empirical
studies, a material model of the shape memory alloys for the numerical simulation
was developed and combined with the existing simulation model of the rotor. The
simulation showed that the shape memory alloys can be used to decrease the radial
deformation below the given limits.
The second main requirement was to develop a proper load transfer from the metallic
output shaft into the GFRP rotor. For serial rotor production with a high output, the
direct forming of threads in the thick-walled GFRP was investigated. The direct
forming of threads reduces the manufacturing costs by avoiding wear of drilling and
cutting tools, although with a slight increase of tooling costs which are less relevant
due to the economies of scale of high output manufacturing processes as the
filament winding process. In this study the mechanical behavior of directly formed
threads was compared to conventionally tapped threads. Two different GFRP
laminate layups were investigated, a cross-ply-laminate and a quasi-isotropic
laminate, both with a thickness of approximately 12 mm, impregnated with epoxy
resin. A standard metrical thread and a more coarse thread were also compared,
both with an outer diameter of 8 mm. Two different tests were investigated: a pullout
test of the screw perpendicular to the laminate and a bearing-pull-through-test in the
laminate plane.
The quasi static test results show differences in fracture behavior, but in general very
good strength and stiffness behavior compared to conventionally cut threads in thickwalled
GFRP. The deformations of the surface of the GFRP laminates during the
tests were measured with a three dimensional digital image correlation system. The
measured deformations were used to validate the numerical simulations of the tests.
These simulations were parametrical built up in order to adapt them easily to other
application cases. They use a degradation mechanism to simulate the connection
behavior very close to the total fraction and show a very good correlation to the
experimental results.
As a second step, the fatigue behavior of the connection was also investigated. To
compare the cyclic performance of the formed and cut threads for both kinds of tests,
for both laminates and both threads - the metric and the coarse ones -, Woehler
diagrams with a load aspect ratio of R=0.1 were measured. Especially the high cycle
fatigue behavior with a relatively low maximum load, as commonly used in a real
structure, improves a lot when forming the threads.
At last a full parametrical numerical model of the laminate with both the formed and the cut thread was generated. Also algorithms for material degradation were integrated.
They can represent the behavior of the material after the appearance of inter
fiber failures or delamination. The validation of the numerical model was achieved by
remodeling the experimental tests and comparing the global deformation of the
model with the optical measurement of the quasi static tests. The deformation of the
simulation was very congruent to the tests, only very close to the screw the simulation
shows a slightly more stiff behavior. This indicates a not sufficient degradation of
the simulation due to damage effects in the material.
Nachhaltige Chemie beinhaltet die Nutzung stofflicher Ressourcen und deren Umwandlung ohne Schaden für zukünftige Generationen. Dabei hat sich insbesondere die Katalyse als nützliche Technologie etabliert, durch die Syntheserouten zu hochwertigen Produkten abgekürzt und dabei die CO2-Bilanz des Gesamtprozesses verbessert wird. Im Rahmen dieser Dissertation wurden nachhaltige, homogen-katalytische Prozesse zur Einbindung nachwachsender Rohstoffe in die chemische Wertschöpfungskette und zur abfallminimierten Synthese von Amiden und Peptiden entwickelt.
Im ersten Teil dieser Arbeit wurde die isomerisierende Metathese als Methode zur Valorisierung nachwachsender Rohstoffe etabliert. Mit einem bimetallischen Katalysatorsystem, bestehend aus dem Isomerisierungskatalysator [Pd(µ-Br)(tBu3P)]2 und NHC-basierten Ruthenium-Metathesekatalysatoren, werden Doppelbindungen ungesättigter Verbindungen kontinuierlich entlang der Kohlenwasserstoffkette verschoben und können gleichzeitig, ungeachtet ihrer Position, eine Metathese durchlaufen. Dies erlaubt die Umwandlung von zwei unterschiedlichen Olefinen in ein Gemisch mit homogener Produktverteilung und einstellbarer mittlerer Kettenlänge. Das synthetische Potential dieser Transformation wurde anhand der Darstellung von Dieselersatzkraftstoffen demonstriert, die vollständig auf erneuerbaren Ressourcen basieren und aufgrund ihres Siedeverhaltens in modernen Motoren in unverdünnter Form eingesetzt werden können. Der neu entwickelte Tandemprozess ermöglicht weiterhin die gezielte Kürzung olefinischer Seitenketten in Gegenwart von Ethen. Die isomerisierende Ethenolyse der natürlich vorkommenden Allylbenzole Eugenol, Allylanisol, Safrol und Methyleugenol wurde zur Synthese wertvoller Styrole mit komplexen Substitutionsmustern eingesetzt. Die isomerisierende Ethenolyse stellt außerdem die Schlüsseltechnologie zur Valorisierung von Cashew-Nussschalenöl dar. Ausgehend von dem bisher ungenutzten Abfallstoff wurde die Synthese der Tsetsefliegen-Lockstoffe 3-Ethyl- und 3-Propylphenol sowie des Polymervorläufers 3,3’-Hydroxystilben demonstriert.
Der zweite Teil dieser Doktorarbeit umfasste die rationale Entwicklung einer abfallminimierten und umweltfreundlichen Methode zur Synthese von Amiden aus Carbonsäuren und Aminen. Dazu wurde ein hocheffektives, luft- und wasserstabiles Ru(IV)-Katalysatorsystem identifiziert, das die Addition von Carbonsäuren an Alkine unter Bildung von Enolestern sowie die weitere Umsetzung dieser Aktivester mit Aminen zu Amiden vermittelt. Ein einstufiges Eintopf-Verfahren zur Synthese von Amiden, bei dem alle Reagenzien zu Beginn der Reaktion zugegeben werden, wurde unter Verwendung von Ethoxyacetylen als Aktivierungsreagenz entwickelt. Hierbei werden die Carbonsäuren in Gegenwart eines Amins intermediär in hochreaktive Ketenacetale überführt, die nach Aminolyse die entsprechenden Amide in sehr guten Ausbeuten liefern. Die Anwendungsbreite dieses milden Reaktionsprotokolls umfasst aliphatische und aromatische Carbonsäuren sowie N- und C terminal geschützten Aminosäuren.
Entwicklung von TDMA-basierten QoS-Routing-Protokollen und Simulationskomponenten für Ad-Hoc-Netze
(2016)
Ad-Hoc-Netze sind selbstorganisierende Netze ohne zentrale Infrastruktur, die heutzutage in vielen Bereichen Verwendung finden. Sie bestehen aus drahtlosen Knoten, die zur Erfüllung ihrer Aufgaben miteinander kommunizieren. Jedoch befinden sich nicht notwendigerweise alle Knoten in Reichweite zueinander. Damit entfernte Knoten einander erreichen können, werden Routingverfahren benötigt. Die Etablierung einer beliebigen Route ist jedoch oft nicht ausreichend, denn viele Anwendungen stellen spezielle Dienstgüteanforderungen (QoS-Anforderungen) an die Verbindung, beispielsweise die Gewährleistung einer Mindestbandbreite. Um diese QoS-Anforderungen erfüllen zu können, werden sie bereits bei der Ermittlung einer Route berücksichtigt, und die benötigten Ressourcen werden entlang der Route reserviert. Dazu dienen QoS-Routing- und Reservierungsprotokolle.
In dieser Arbeit wird zunächst der Aspekt der deterministischen Reservierung von Bandbreite in Form von konkreten Zeitslots einer TDMA-basierten MAC-Schicht betrachtet. Da sich die Übertragungen verschiedener Knoten in drahtlosen Netzen gegenseitig stören können, wurde ein Interferenzmodell entwickelt. Dieses identifiziert Bedingungen, unter denen Zeitslots innerhalb eines Netzes für mehr als eine Übertragung verwendet werden können. Zudem definiert es durch Aggregation der Informationen anderer Knoten Möglichkeiten zur Ermittlung der benötigten Informationen, um zu entscheiden, welche Zeitslots für eine störungsfreie Übertragung verwendet werden können.
Weiterhin werden existierende QoS-Routing- und Reservierungsprotokolle auf inhärente Probleme untersucht, wobei der Schwerpunkt auf Protokollen liegt, die deterministische Reservierungen von Zeitslots vornehmen. In diese Kategorie fällt auch das im Rahmen der Arbeit entwickelte Protokoll RBBQR, dessen Hauptziel darin besteht, die identifizierten Probleme zu eliminieren. Ferner wird das ebenfalls zu dieser Kategorie gehörende Protokoll QMRP beschrieben, welches zentralisiert Multicast-Routen inklusive der zugehörigen Reservierungen in teilstationären Netzen ermittelt.
Ein weiterer Bestandteil der Arbeit behandelt die Entwicklung von Simulationskomponenten, welche beispielsweise zur Evaluation von QoS-Routing- und Reservierungsprotokollen genutzt werden können. Das existierende Simulationsframework FERAL wurde um eine Komponente erweitert, die die Verwendung von Kommunikationstechnologien des Netzwerksimulators ns-3 ermöglicht. Weiterhin wurde ein Modul zur Simulation eines CC2420-Transceivers entwickelt, welches in eigenständigen ns-3-Simulationen und in Simulationen mit FERAL verwendet werden kann.
Im Rahmen dieser Arbeit wurden verschiedene Ansätze zur Bilanzierung von Badgiren
und Luftkollektorkonstruktionen studiert und ein Beitrag zur Bilanzierung, harmonisiert
mit der DIN V 18599, neu entwickelt. Die rechnerische Bilanzierung der
Einzelelemente wurde mit dem Werkzeug der thermisch dynamischen Simulation
entwickelt und überprüft.
Lautarium ist ein computergestütztes phonologisches Trainingsprogramm zur alltagsintegrierten Schulung der Phonemwahrnehmung, der Phonologischen Bewusstheit im engeren Sinn, der Graphem-Phonem-Korrespondenz und zum alphabetischen Lesen und Schreiben. Während die Wirksamkeit des Programms in einer klinischen Studie mit legasthenen Drittklässlern bereits nachgewiesen wurde (Klatte et al., 2014), steht die Beurteilung des potentiellen Beitrags, den Lautarium im Rahmen des Schriftspracherwerbs in der Schuleingangsphase leisten kann, noch aus. Die vorliegende Arbeit prüft daher, inwieweit Erstklässler die inhaltlichen und formalen Anforderungen des Programms bewältigen und bis zu welchem Grad schriftsprachliche Fertigkeiten gefördert werden können. Die Studie ist im Prätest-Posttest-Follow-up-Design mit einer Experimental- und einer den konventionellen Grundunterricht absolvierenden Kontrollgruppe konzipiert.
Die Ergebnisse zeigen signifikante Verbesserungen in beiden Untertests zur Phonemwahrnehmung, in 2 von 4 Untertests zur phonologischen Bewusstheit in allen Untertests zu Lesegeschwindigkeit und Leseverständnis sowie im lautgetreuen Schreiben. In allen Bereichen, mit Ausnahme der Lesegeschwindigkeit, hielten Trainingseffekte bis 3 Monate nach Trainingsende an. In der Nachbefragung beurteilten 37 von 41 Kinder Lautarium mit der bestmöglichen Bewertung. Die technischen Herausforderungen des Programms wurden nach Aussagen der Lehrer von den Kindern gut bewältigt. Somit kann geschlussfolgert werden, dass Lautarium für den Einsatz in der Schuleingangsphase im Zuge des Förderunterrichts oder zur Binnendifferenzierung uneingeschränkt empfohlen werden kann.
Whole-body vibrations (WBV) have adverse effects on ride comfort and human health. Suspension seats have an important influence on the WBV severity. In this study, WBV were measured on a medium-sized compact wheel loader (CWL) in its typical operations. The effect of short-term exposure to the WBV on the ride comfort was evaluated according to ISO 2631-1:1985 and ISO 2631-1:1997. ISO 2631-1:1997 and ISO 2631-5:2004 were adopted to evaluate the effect of long-term exposure to the WBV on the human health. Reasons for the different evaluation results obtained according to ISO 2631-1:1997 and ISO 2631-5:2004 were explained in this study. The WBV measurements were carried out in cases where the driver wore a lap belt or a four-point seat harness and in the case where the driver did not wear any safety belt. The seat effective amplitude transmissibility (SEAT) and the seat transmissibility in the frequency domain in these three cases were analyzed to investigate the effect of a safety belt on the seat transmissibility. Seat tests were performed on a multi-axis shaking table in laboratory to study the dynamic behavior of a suspension seat under the vibration excitations measured on the CWL. The WBV intensity was reduced by optimizing the vertical and the longitudinal seat suspension systems with the help of computational simulations. For the optimization multi-body models of the seat-dummy system in the laboratory seat tests and the seat-driver system in the field vibration measurements were built and validated.
Mit der Entwicklung und Umsetzung des Kaiserslauterer Open Online Course (KLOOC) „Nachhaltige Entwicklung“ hat sich die TU Kaiserslautern in verschiedener Hinsicht aktuellen Herausforderungen der Hochschulentwicklung gestellt. Im Ergebnis ist es gelungen, ein erstes offenes, online- basiertes Lernangebot zu schaffen und zu erproben, welches für eine breite Öffentlichkeit zugänglich war und auf vielfältige Weise Formen des digitalen Lehrens und Lernens nutzte. Thematisch leistete der KLOOC zudem einen wichtigen Beitrag zur Engagement der TU Kaiserslautern, sich im Rahmen ihrer Strategie „Nachhaltige TU“ für eine nachhaltige Entwicklung einzusetzen.
Der vorliegende Bericht ist das Ergebnis der internen Evaluation des Projektes, in dessen Rahmen die Wirksamkeit des KLOOC systematisch erfasst wurde. Ziel war es, einerseits Potentiale für dessen organisatorische, inhaltliche und didaktische Weiterentwicklung aufzudecken, andererseits die anvisierten Projektziele kritisch zu reflektieren.
Mit Blick auf die Evaluationsdaten ergibt sich auf einen Blick folgendes Bild:
50% der Teilnehmenden kamen aus der Region Westpfalz1.
50% der Teilnehmenden waren berufstätig.
57% der Teilnehmenden waren zwischen 18 und 34 Jahren alt.
75% der Teilnehmenden haben in den letzten 12 Monaten an Wei- terbildungen teilgenommen.
68% der Teilnehmenden schätzten ihre Medienkompetenz als hoch ein.
57% der Teilnehmenden verfügten über einen Hochschulabschluss. Dementsprechend lässt sich vorab zusammenfassend konstatieren, dass
der KLOOC vor dem Hintergrund der Projektziele ein akademisches Bildungsangebot darstellt, dass sowohl neue Zielgruppen (z.B. Berufstätige) erreicht, als auch den Wissenstransfer in die Region fördert. Gleichzeitig ist erkennbar, dass insbesondere jüngere, tendenziell gut gebildete sowie medien- und weiterbildungsaffine Personen am Kurs teilgenommen haben.
Most of today’s wireless communication devices operate on unlicensed bands with uncoordinated spectrum access, with the consequence that RF interference and collisions are impairing the overall performance of wireless networks. In the classical design of network protocols, both packets in a collision are considered lost, such that channel access mechanisms attempt to avoid collisions proactively. However, with the current proliferation of wireless applications, e.g., WLANs, car-to-car networks, or the Internet of Things, this conservative approach is increasingly limiting the achievable network performance in practice. Instead of shunning interference, this thesis questions the notion of „harmful“ interference and argues that interference can, when generated in a controlled manner, be used to increase the performance and security of wireless systems. Using results from information theory and communications engineering, we identify the causes for reception or loss of packets and apply these insights to design system architectures that benefit from interference. Because the effect of signal propagation and channel fading, receiver design and implementation, and higher layer interactions on reception performance is complex and hard to reproduce by simulations, we design and implement an experimental platform for controlled interference generation to strengthen our theoretical findings with experimental results. Following this philosophy, we introduce and evaluate a system architecture that leverage interference.
First, we identify the conditions for successful reception of concurrent transmissions in wireless networks. We focus on the inherent ability of angular modulation receivers to reject interference when the power difference of the colliding signals is sufficiently large, the so-called capture effect. Because signal power fades over distance, the capture effect enables two or more sender–receiver pairs to transmit concurrently if they are positioned appropriately, in turn boosting network performance. Second, we show how to increase the security of wireless networks with a centralized network access control system (called WiFire) that selectively interferes with packets that violate a local security policy, thus effectively protecting legitimate devices from receiving such packets. WiFire’s working principle is as follows: a small number of specialized infrastructure devices, the guardians, are distributed alongside a network and continuously monitor all packet transmissions in the proximity, demodulating them iteratively. This enables the guardians to access the packet’s content before the packet fully arrives at the receiver. Using this knowledge the guardians classify the packet according to a programmable security policy. If a packet is deemed malicious, e.g., because its header fields indicate an unknown client, one or more guardians emit a limited burst of interference targeting the end of the packet, with the objective to introduce bit errors into it. Established communication standards use frame check sequences to ensure that packets are received correctly; WiFire leverages this built-in behavior to prevent a receiver from processing a harmful packet at all. This paradigm of „over-the-air“ protection without requiring any prior modification of client devices enables novel security services such as the protection of devices that cannot defend themselves because their performance limitations prohibit the use of complex cryptographic protocols, or of devices that cannot be altered after deployment.
This thesis makes several contributions. We introduce the first software-defined radio based experimental platform that is able to generate selective interference with the timing precision needed to evaluate the novel architectures developed in this thesis. It implements a real-time receiver for IEEE 802.15.4, giving it the ability to react to packets in a channel-aware way. Extending this system design and implementation, we introduce a security architecture that enables a remote protection of wireless clients, the wireless firewall. We augment our system with a rule checker (similar in design to Netfilter) to enable rule-based selective interference. We analyze the security properties of this architecture using physical layer modeling and validate our analysis with experiments in diverse environmental settings. Finally, we perform an analysis of concurrent transmissions. We introduce a new model that captures the physical properties correctly and show its validity with experiments, improving the state of the art in the design and analysis of cross-layer protocols for wireless networks.
Die heutige Epigenetik erfordert eine evolutionstheoretische Neubewertung zum Verhältnis von Entwicklung, Vererbung und Anpassungsfähigkeit der Lebewesen. Heutige Fragen zur Entstehung und Weitergabe epigenetischer Veränderungen reichen zurück bis in die Anfänge mytho-, theo- und kosmologischer Betrachtungen. Platon, Augustinus und Cusanus lösen metaphysische Probleme des Anfangs durch einen Übergang vom Sein zum Werden. Eine Übertragung kosmologischer Konzepte in die Embryologie findet sowohl bei Aristoteles als auch in der Renaissance statt. Harvey und Wolff beschreiben die Epigenese in Anlehnung an die kosmologische Revolution von Planeten und Gestirnen als epigenetische Revolution von Henne und Ei. Die Transformation von der zeitlosen, natürlichen Ordnung zu einer Genealogie der Natur und der Triumph der Epigenesis-Theorie über die Präformationslehre ermöglichen zu Beginn des 19. Jahrhundert eine Biologie, die in ihren epigenetischen Grundannahmen unterschiedliche Autoren wie Goethe, Schelling, Lamarck, Mendel und Darwin verbindet. Mit der Umdeutung der revolutionären Epigenese bei Lamarck werden onto- und phylogenetische Prozesse unterscheidbar, deren Verhältnis bei Darwin und in den postdarwinschen Debatten durch verschiedene Theorien der Entwicklung, Vererbung und Anpassung bestimmt wird. Schon bei Darwin kommt es zu einer pangenetischen Synthese von neolamarckistischen, selektions- und organisationstheoretischen Mechanismen der Anpassung. In der ersten Hälfte des 20. Jahrhunderts entsteht die heute noch prägende genetische Evolutionstheorie, bei der Entwicklung und Anpassung vererbungs- und selektionstheoretisch verengt werden. Mit Waddingtons Epigenetik wird das Verhältnis von Onto- und Phylogenese durch die epigenetische Landschaft verräumlicht und das Konzept der Anpassungsfähigkeit konkretisiert. Die Molekularisierung von genetischer und epigenetischer Evolution lässt epigenetische Fragen der Biologie des 19. Jahrhunderts und das protobiologische Erbe wieder aktuell werden. Epigenetische Evolution beruht auf einer Synergie von natürlicher Selektion und epigenetischer Systemdynamik. Diese Synergie erzeugt anpassungs- und lernfähige Organismen, die auf ihre eigene Entwicklung, Vererbung und Anpassungsfähigkeit Einfluss nehmen können. Mit den jüngsten theoretischen Entwicklungen der Epigenetik hat eine Temporalisierung des biologischen Informationsverständnisses begonnen. Aufgabe der genealogischen Annäherung ist die Erhellung dieser historischen Entwicklung und ihrer Relevanz für die heutige Theoriebildung.
The task of printed Optical Character Recognition (OCR), though considered ``solved'' by many, still poses several challenges. The complex grapheme structure of many scripts, such as Devanagari and Urdu Nastaleeq, greatly lowers the performance of state-of-the-art OCR systems.
Moreover, the digitization of historical and multilingual documents still require much probing. Lack of benchmark datasets further complicates the development of reliable OCR systems. This thesis aims to find the answers to some of these challenges using contemporary machine learning technologies. Specifically, the Long Short-Term Memory (LSTM) networks, have been employed to OCR modern as well historical monolingual documents. The excellent OCR results obtained on these have led us to extend their application for multilingual documents.
The first major contribution of this thesis is to demonstrate the usability of LSTM networks for monolingual documents. The LSTM networks yield very good OCR results on various modern and historical scripts, without using sophisticated features and post-processing techniques. The set of modern scripts include modern English, Urdu Nastaleeq and Devanagari. To address the challenge of OCR of historical documents, this thesis focuses on Old German Fraktur script, medieval Latin script of the 15th century, and Polytonic Greek script. LSTM-based systems outperform the contemporary OCR systems on all of these scripts. To cater for the lack of ground-truth data, this thesis proposes a new methodology, combining segmentation-based and segmentation-free OCR approaches, to OCR scripts for which no transcribed training data is available.
Another major contribution of this thesis is the development of a novel multilingual OCR system. A unified framework for dealing with different types of multilingual documents has been proposed. The core motivation behind this generalized framework is the human reading ability to process multilingual documents, where no script identification takes place.
In this design, the LSTM networks recognize multiple scripts simultaneously without the need to identify different scripts. The first step in building this framework is the realization of a language-independent OCR system which recognizes multilingual text in a single step. This language-independent approach is then extended to script-independent OCR that can recognize multiscript documents using a single OCR model. The proposed generalized approach yields low error rate (1.2%) on a test corpus of English-Greek bilingual documents.
In summary, this thesis aims to extend the research in document recognition, from modern Latin scripts to Old Latin, to Greek and to other ``under-privilaged'' scripts such as Devanagari and Urdu Nastaleeq.
It also attempts to add a different perspective in dealing with multilingual documents.
Es ist eine Alltagsbeobachtung für welche sich zahlreiche empirische Belege finden, dass ge-sundheitsbewusste Verhaltensweisen wie etwa das regelmäßige Betreiben von Sport oder der Konsum von als gesund geltenden Lebensmitteln in bestimmten Kreisen der Bevölkerung zu-nehmen. Parallel ist ein weiterer Trend zu beobachten: die Zunahme umweltbewusster Verhal-tensweisen. Gerade im Bereich des Konsums gehen solche gesundheits- und umweltbewusste Verhaltensweisen häufig miteinander einher. Wer sich gesundheitsbewusst ernähren möchte, greift in aller Regel auf umweltbewusste Produkte zurück. Die Vermutung liegt nahe, dass ge-sundheits- und umweltbewussten Verhaltensweisen bestimmten gemeinsamen Einstellungen, Überzeugungen und Werten zugrunde liegen. Als ein solches Wertecluster kann auf theoreti-scher Ebene eine postmaterialistische Werteorientierung identifiziert werden. Gesundheits- und Umweltbewusstsein würden demnach in wechselseitiger Beziehung zueinander stehen und durch eine postmaterialistische Werteorientierung determiniert werden. Ziel der vorliegenden Arbeit ist es, eben diesen Zusammenhang mittels Strukturgleichungsmodellierung empirisch zu überprüfen. Dies geschieht anhand von Daten des Sozio-Ökonomischen Panels aus dem Jahr 2006 (n=661). Während sich ein positiver und durchaus starker Zusammenhang zwischen Ge-sundheits- und Umweltbewusstsein findet und auch das Umweltbewusstsein positiv von einer postmaterialistischen Werteorientierung abhängig ist, zeigt sich für das Gesundheitsbewusst-sein kein signifikanter, bzw. in verschiedenen Modellvariationen sogar eine negative Abhän-gigkeit von einer postmaterialistischen Werteorientierung. Aufgrund dieser Ergebnisse wird vorgeschlagen, das Gesundheitsbewusstsein als mehrdimensionales Konstrukt zu betrachten. Differenziert wird in ein lebensstilbedingtes Gesundheitsbewusstsein, über welches z.B. Hobby- und Leistungssportler verfügen, und ein defensives Gesundheitsbewusstsein, wie es z.B. bei chronisch Kranken Personen wie Diabetikern zu finden ist. Jedoch sind weitere Ana-lysen nötig, um diese Theorie zu testen.
The present study investigated the effects of two methods of shared book reading on children´s emergent literacy skills, such as language skills (expressive vocabulary and semantic skills) and grapheme awareness, i.e. before the alphabetic phase of reading acquisition (Lachmann & van Leeuwen, 2014) in home and in kindergarten contexts. The two following shared book reading methods were investigated: Method I - literacy enrichment: 200 extra children's books were distributed in kindergartens and children were encouraged every week to borrow a book to take home and read with their parents. Further, a written letter was sent to the parents encouraging them to frequently read the books with their children at home. Method II - teacher training: kindergarten teachers participated in structured training which included formal instruction on how to promote child language development through shared book reading. The training was an adaptation of the Heidelberger Interaktionstraining für pädagogisches Fachpersonal zur Förderung ein- und mehrsprachiger Kinder - HIT (Buschmann & Jooss, 2011). In addition, the effects of the two methods in combination were investigated. Three questions were addressed in the present study: (1) What effect does method I (literacy enrichment), method II (teacher training) and the combination of both methods have on children's expressive vocabulary? (2) What effect does method I (literacy enrichment), method II (teacher training) and the combination of both methods have on children's semantic skills? (3) What effect does method I (literacy enrichment), method II (teacher training) and the combination of both methods have on children's grapheme awareness? Accordingly, 69 children, ranged in age from 3;0 to 4;8 years, were recruited from four kindergartens in the city of Kaiserslautern, Germany. The kindergartens were divided into: kindergarten 1 – Method I (N = 13); kindergarten 2 - Method II (N = 18); kindergarten 3 - Combination of both methods (N = 17); kindergarten 4 - Control group (N = 21). Half of the participants (N = 35) reported having a migration background. All groups were similar in regards to socioeconomic status and literacy activities at home. In a pre- posttest design, children performed three tests: expressive vocabulary (AWSTR, 3-5; Kiese-Himmel, 2005), semantic skills (SETK, 3-5 subtests ESR; Grimm, 2001), and grapheme awareness which is a task developed with the purpose of testing children’s familiarity with grapheme forms. The intervention period had duration of six months. The data analysis was performed using the software IBM SPSS Statistics version 22. Regarding language skills, Method I showed no significant effects on children expressive vocabulary and semantic skills. Method II showed significant effects for children expressive vocabulary. In addition, the children with migration background took more advantage of the method. Regarding semantic skills, no significant effects were found. No significant effects of the combination of both methods in children's language skills were found. For grapheme awareness, however, results showed positive effects for Method I, and Method II, as well as for the combination of both methods. The combination group, as reported by a large effect size, showed to be more effective than Method I and Method II alone. Moreover, the results indicated that in grapheme awareness, all children (in regards to age, gender, with and without migration background) took equal advantage in all three intervention groups. Overall, it can be concluded with the results of the present study, that by providing access to good books, Method I may help parents involve themselves in the active process of their child's literacy skills development. However, in order to improve language skills, access to books alone showed to be not enough. Therefore, it is suggested that access combined with additional support to parents in how to improve their language interactions with their children is highly recommended. In respect to Method II, the present study suggests that shared book reading through professional training is an important tool that supports children´s language development. For grapheme awareness it is concluded that with the combination of the two performed methods, high exposure to shared book reading helps children to informally learn about the surface characteristics of print, acquire some familiarity with the visual characteristics of the letters and learn to differentiate them from other visual patterns. Finally, it is suggested to organizations and institutions as well as to future research, the importance of having more programs that offer different possibilities to children to have more contact with adequate language interaction as well as more experiences with print through shared book reading as showed in the present study.
We propose and study a strongly coupled PDE-ODE-ODE system modeling cancer cell invasion through a tissue network
under the go-or-grow hypothesis asserting that cancer cells can either move or proliferate. Hence our setting features
two interacting cell populations with their mutual transitions and involves tissue-dependent degenerate diffusion and
haptotaxis for the moving subpopulation. The proliferating cells and the tissue evolution are characterized by way of ODEs
for the respective densities. We prove the global existence of weak solutions and illustrate the model behaviour by
numerical simulations in a two-dimensional setting.
We investigate a PDE-ODE system describing cancer cell invasion in a tissue network. The model is an extension of the multiscale setting in [28,40], by considering two subpopulations of tumor cells interacting mutually and with the surrounding tissue. According to the go-or-grow hypothesis, these subpopulations consist of moving and proliferating cells, respectively. The mathematical setting also accommodates the effects of some therapy approaches. We prove the global existence of weak solutions to this model and perform numerical simulations to illustrate its behavior for different therapy strategies.
Gröbner bases are one of the most powerful tools in computer algebra and commutative algebra, with applications in algebraic geometry and singularity theory. From the theoretical point of view, these bases can be computed over any field using Buchberger's algorithm. In practice, however, the computational efficiency depends on the arithmetic of the coefficient field.
In this thesis, we consider Gröbner bases computations over two types of coefficient fields. First, consider a simple extension \(K=\mathbb{Q}(\alpha)\) of \(\mathbb{Q}\), where \(\alpha\) is an algebraic number, and let \(f\in \mathbb{Q}[t]\) be the minimal polynomial of \(\alpha\). Second, let \(K'\) be the algebraic function field over \(\mathbb{Q}\) with transcendental parameters \(t_1,\ldots,t_m\), that is, \(K' = \mathbb{Q}(t_1,\ldots,t_m)\). In particular, we present efficient algorithms for computing Gröbner bases over \(K\) and \(K'\). Moreover, we present an efficient method for computing syzygy modules over \(K\).
To compute Gröbner bases over \(K\), starting from the ideas of Noro [35], we proceed by joining \(f\) to the ideal to be considered, adding \(t\) as an extra variable. But instead of avoiding superfluous S-pair reductions by inverting algebraic numbers, we achieve the same goal by applying modular methods as in [2,4,27], that is, by inferring information in characteristic zero from information in characteristic \(p > 0\). For suitable primes \(p\), the minimal polynomial \(f\) is reducible over \(\mathbb{F}_p\). This allows us to apply modular methods once again, on a second level, with respect to the
modular factors of \(f\). The algorithm thus resembles a divide and conquer strategy and
is in particular easily parallelizable. Moreover, using a similar approach, we present an algorithm for computing syzygy modules over \(K\).
On the other hand, to compute Gröbner bases over \(K'\), our new algorithm first specializes the parameters \(t_1,\ldots,t_m\) to reduce the problem from \(K'[x_1,\ldots,x_n]\) to \(\mathbb{Q}[x_1,\ldots,x_n]\). The algorithm then computes a set of Gröbner bases of specialized ideals. From this set of Gröbner bases with coefficients in \(\mathbb{Q}\), it obtains a Gröbner basis of the input ideal using sparse multivariate rational interpolation.
At current state, these algorithms are probabilistic in the sense that, as for other modular Gröbner basis computations, an effective final verification test is only known for homogeneous ideals or for local monomial orderings. The presented timings show that for most examples, our algorithms, which have been implemented in SINGULAR [17], are considerably faster than other known methods.
Die Planung von Bushaltestellen in Innenstädten ist ein authentisches Thema, welches sich für den Einsatz in einem realitätsbezogenen Unterricht in unterschiedlichen Klassenstufen eignet. Verschiedene Interessen und Gegebenheiten müssen in einem Modell und in einer Lösungsstrategie vereint werden. Durch eine sehr offen gewählte Fragestellung sind verschiedene Ansätze und Modelle möglich. Somit wird mathematisches Modellieren trainiert und das Durchlaufen eines Modellierungsprozesses in einem interessanten Projekt ermöglicht. Die mathematischen Hintergründe sowie das vielseitige Lösungsspektrum von Schülerinnen und Schülern unterschiedlicher Jahrgangsstufen zu derselben Fragestellung werden im Folgenden vorgestellt.
Die Entwicklung von Revitalisierungskonzepten für Wohnimmobilien ist ein komplexer und zeitintensiver Prozess, bei dem umfassendes Fachwissen und weitreichende Erfahrungen notwendig sind. Heterogene Gebäudetypen mit unterschiedlichen Eigenschaften und Handlungsbedarfen machen den Konzeptentwicklungsprozess noch komplizierter. Diese Arbeit bietet einen Katalog mit priorisierten Handlungsempfehlungen zur Entwicklung von Revitalisierungsvarianten für Mehrfamilienhäuser aus den 1970er Jahren in den alten Bundesländern. Die Immobilien tragen mit ca. 2,4 Mio. Wohnung wesentlich zur Wohnraumversorgung in den alten Bundesländern bei und wurden bisher unzureichend erforscht. Darüber hinaus stehen durch das Alter, den häufig geringen Modernisierungszustand und vorhandene Potenziale der Mehrfamilienhäuser meist kurz- bis mittelfristig grundlegende Revitalisierungen an.
Die erarbeiteten Handlungsempfehlungen basieren auf Auswertungen von Daten professionell-gewerblicher Wohnungsanbieter, über 13.700 Energieverbrauchsausweisen, Mieterbefragungen und der Datenbasis Gebäudebestand des IWU. Außerdem stützen sich die Empfehlungen auf eine Sekundäranalyse einer repräsentativen Wohnnachfrageuntersuchung für Deutschland sowie auf zwanzig Expertenbefragungen und umfangreiche Literaturanalysen. Durch eine Immobilienanalyse werden verallgemeinerungsfähige Aussagen über bauliche und technische Eigenschaften und Handlungsbedarfe für die Mehrfamilienhäuser gewonnen. Daneben erfolgt anhand einer Nachfrageanalyse die Bestimmung potenzieller Nachfragegruppen und deren Wohnanforderungen sowie daraus abgeleitet nachfrageseitige Handlungsbedarfe für die Mehrfamilienhäuser. Für die ermittelten baulichen und technischen sowie nachfrageseitigen Handlungsbedarfe werden durch eine Maßnahmenanalyse geeignete Revitalisierungsmaßnahmen gefunden. Diese Maßnahmen werden im Katalog der Handlungsempfehlungen angelehnt an ein Kundenanforderungsmodell nach technischen Gesichtspunkten und Nachfrageaspekten priorisiert. Anwender des Empfehlungskatalogs können ihre individuelle kaufmännische Perspektive einbringen, um ganzheitliche Revitalisierungskonzepte zu entwickeln. Durch eine entwickelte Berechnungshilfe können Kosten und Wirtschaftlichkeit der Konzepte bewertet werden.
Die Handlungsempfehlungen zielen auf technische, funktionale, energetische, wirtschaftliche, soziale und architektonische Verbesserungen bei den Mehrfamilienhäusern. In zwei Fallstudien werden der Katalog der Handlungsempfehlungen und die Berechnungshilfe angewendet. Die Fallstudien deuten darauf hin, dass mit Hilfe des Katalogs der Handlungsempfehlungen und der Berechnungshilfe Revitalisierungsvarianten für Mehrfamilienhäuser aus den 1970er Jahren effizient entwickelt und deren Kosten und Wirtschaftlichkeit effizient eingeschätzt werden können. Die Forschungsergebnisse der Arbeit sind insbesondere für Wohnungseigentümer, Projektentwickler, Ingenieure, Berater und Investoren nützlich.
The thesis consists of two parts. In the first part we consider the stable Auslander--Reiten quiver of a block \(B\) of a Hecke algebra of the symmetric group at a root of unity in characteristic zero. The main theorem states that if the ground field is algebraically closed and \(B\) is of wild representation type, then the tree class of every connected component of the stable Auslander--Reiten quiver \(\Gamma_{s}(B)\) of \(B\) is \(A_{\infty}\). The main ingredient of the proof is a skew group algebra construction over a quantum complete intersection. Also, for these algebras the stable Auslander--Reiten quiver is computed in the case where the defining parameters are roots of unity. As a result, the tree class of every connected component of the stable Auslander--Reiten quiver is \(A_{\infty}\).\[\]
In the second part of the thesis we are concerned with branching rules for Hecke algebras of the symmetric group at a root of unity. We give a detailed survey of the theory initiated by I. Grojnowski and A. Kleshchev, describing the Lie-theoretic structure that the Grothendieck group of finite-dimensional modules over a cyclotomic Hecke algebra carries. A decisive role in this approach is played by various functors that give branching rules for cyclotomic Hecke algebras that are independent of the underlying field. We give a thorough definition of divided power functors that will enable us to reformulate the Scopes equivalence of a Scopes pair of blocks of Hecke algebras of the symmetric group. As a consequence we prove that two indecomposable modules that correspond under this equivalence have a common vertex. In particular, we verify the Dipper--Du Conjecture in the case where the blocks under consideration have finite representation type.
Synthetisch hergestelltes Siliziumdioxid (SiO2) im Submikro- und Nanopartikelmaßstab findet bereits in Farben und Lacken, sowie in Kunst- und Klebstoffen Einsatz, um deren Brillanz, Kratz- und Kohäsionsfestigkeit zu verbessern. Die gute Verfügbarkeit und der geringe Preis des SiO2 machen es für viele Anwendungen zu einem interessanten Füllstoff.
Ziel dieser Arbeit war es, durch werkstoffwissenschaftliche, grundlagenorientierte Betrachtungen ein tieferes Verständnis für die Funktionsmechanismen von modifizierten SiO2-Partikeln in einer EP-Matrix zu erlangen und eine Verbesserung der tribologischen Eigenschaften (Reibungskoeffizient und Verschleißrate) der Komposite zu erreichen. Der erste Teil dieser Arbeit befasst sich mit der Herstellung und Charakterisierung von modifizierten Siliziumdioxid-Partikeln mittels eines modifizierten Stöberprozess. Es wurden die Katalysatoren Ammoniak, Tetramethylammoniumhydroxid (TMAH) und Tetramethylethylendiamin (TMED) getestet. Als Referenz wurden kommerziell erhältliche SiO2-Nanopartikel (Aerosil 200) sowie ein ebenfalls kommerziell erhältliches Partikelgemisch (NanoVit) als Füllstoffe getestet. Zur Ermittlung der tribologischen Eigenschaften wurde an den Kompositen eine Gleitverschleißuntersuchung (Stift-auf-Scheibe (PoD)) mit unterschiedlichen Parametervarianten (Geschwindigkeit-/Druckvariationen) durchgeführt. Es konnte gezeigt werden, dass die modifizierten SiO2-Partikel einen positiven Einfluss auf die tribologischen Eigenschaften der EP-Komposite haben. Weiter konnte bewiesen werden, dass durch die Zugabe der neu synthetisierten SiO2-Partikel auf eine Zugabe von Graphit als Schmiermittel verzichtet werden kann. Auch wurde festgestellt, dass durch das Eleminieren des Graphites sich ein sehr dünner Gleitfilm auf dem Gegenkörper ausbildete, der als ein Indiz für die Ursache der Verbesserung des Reibwertes gelten kann. Ein Prozess für dieses Kompositverhalten wurde in dieser Arbeit postuliert.
This paper presents a method for classifying traffic participants based on high-resolution automotive radar sensors for autonomous driving applications. The major classes of traffic participants addressed in this work are pedestrians, bicyclists and passenger cars. The preprocessed radar detections are first segmented into distinct clusters using density-based spatial clustering of applications with noise (DBSCAN) algorithm. Each cluster of detections would typically have different properties based on the respective characteristics of the object that they originated from. Therefore, sixteen distinct features based on radar detections, that are suitable for separating pedestrians, bicyclists and passenger car categories are selected and extracted for each of the cluster. A support vector machine (SVM) classifier is constructed, trained and parametrised for distinguishing the road users based on the extracted features. Experiments are conducted to analyse the classification performance of the proposed method on real data.
Computer Vision (CV) problems, such as image classification and segmentation, have traditionally been solved by manual construction of feature hierarchies or incorporation of other prior knowledge. However, noisy images, varying viewpoints and lighting conditions of images, and clutters in real-world images make the problem challenging. Such tasks cannot be efficiently solved without learning from data. Therefore, many Deep Learning (DL) approaches have recently been successful for various CV tasks, for instance, image classification, object recognition and detection, action recognition, video classification, and scene labeling. The main focus of this thesis is to investigate a purely learning-based approach, particularly, Multi-Dimensional LSTM (MD-LSTM) recurrent neural networks to tackle the challenging CV tasks, classification and segmentation on 2D and 3D image data. Due to the structural nature of MD-LSTM, the network learns directly from raw pixel values and takes the complex spatial dependencies of each pixel into account. This thesis provides several key contributions in the field of CV and DL.
Several MD-LSTM network architectural options are suggested based on the type of input and output, as well as the requiring tasks. Including the main layers, which are an input layer, a hidden layer, and an output layer, several additional layers can be added such as a collapse layer and a fully connected layer. First, a single Two Dimensional LSTM (2D-LSTM) is directly applied on texture images for segmentation and show improvement over other texture segmentation methods. Besides, a 2D-LSTM layer with a collapse layer is applied for image classification on texture and scene images and have provided an accurate classification results. In addition, a deeper model with a fully connected layer is introduced to deal with more complex images for scene labeling and outperforms the other state-of-the-art methods including the deep Convolutional Neural Networks (CNN). Here, several input and output representation techniques are introduced to achieve the robust classification. Randomly sampled windows as input are transformed in scaling and rotation, which are integrated to get the final classification. To achieve multi-class image classification on scene images, several pruning techniques are introduced. This framework provides a good results in automatic web-image tagging. The next contribution is an investigation of 3D data with MD-LSTM. The traditional cuboid order of computations in Multi-Dimensional LSTM (MD-LSTM) is re-arranged in pyramidal fashion. The resulting Pyramidal Multi-Dimensional LSTM (PyraMiD-LSTM) is easy to parallelize, especially for 3D data such as stacks of brain slice images. PyraMiD-LSTM was tested on 3D biomedical volumetric images and achieved best known pixel-wise brain image segmentation results and competitive results on Electron Microscopy (EM) data for membrane segmentation.
To validate the framework, several challenging databases for classification and segmentation are proposed to overcome the limitations of current databases. First, scene images are randomly collected from the web and used for scene understanding, i.e., the web-scene image dataset for multi-class image classification. To achieve multi-class image classification, the training and testing images are generated in a different setting. For training, images belong to a single pre-defined category which are trained as a regular single-class image classification. However, for testing, images containing multi-classes are randomly collected by web-image search engine by querying the categories. All scene images include noise, background clutter, unrelated contents, and also diverse in quality and resolution. This setting can make the database possible to evaluate for real-world applications. Secondly, an automated blob-mosaics texture dataset generator is introduced for segmentation. Random 2D Gaussian blobs are generated and filled with random material textures. These textures contain diverse changes in illumination, scale, rotation, and viewpoint. The generated images are very challenging since they are even visually hard to separate the related regions.
Overall, the contributions in this thesis are major advancements in the direction of solving image analysis problems with Long Short-Term Memory (LSTM) without the need of any extra processing or manually designed steps. We aim at improving the presented framework to achieve the ultimate goal of accurate fine-grained image analysis and human-like understanding of images by machines.
Ausgangspunkt und Vorgehen:
Smartphones bieten zahlreiche interessante Experimentiermöglichkeiten und weisen dabei Vorteile gegenüber herkömmlichen Experimenten auf: Die Geräte besitzen verschie- dene interne Sensoren, so dass mit nur einem Medium viele verschiedene physikalische Phänomene untersucht werden können. Smartphones eignen sich zur Behandlung der Mechanik, der Akustik, des Elektromagnetismus, der Optik und der Radioaktivität, wobei Experimente sowohl innerhalb, als auch außerhalb der Schule möglich sind. Hinzu kommt, dass heute nahezu alle Jugendlichen ein eigenes Smartphone besitzen, so dass auch die Möglichkeit besteht, Versuche als Hausaufgabe einzusetzen. Diese Vorteile sind in der fachdidaktischen Forschung bekannt, weswegen bereits zahlreiche experimentelle Konzep- te in der Literatur vorhanden sind.
Im Gegensatz zur Erstellung experimenteller Konzepte wurde die empirische Untersu- chung der Lerneffekte von Smartphones allerdings von der Forschung bisher kaum in den Blick genommen, obwohl Auswirkungen auf Motivation, Neugier und Leistung auf der Grundlage verschiedener theoretischer Rahmenwerke (kontextorientiertes Lernen, Neu- gier, Cognitive Load Theory und Cognitive-Affective Theory of Learning with Media) ange- nommen werden können. Eine schrittweise Erkundung der Auswirkungen des Einsatzes der Geräte auf affektive und kognitive Variablen des Lernens ist daher notwendig. In die- sem Sinne wird als ein erster Schritt hin zu einem umfänglichen Verständnis der Möglich- keiten der Förderung des Lernens in Physik durch das Experimentieren mit Smartphones und den darin verbauten Beschleunigungssensoren eine Untersuchung in einer traditionel- len Unterrichtssituation mit bewährten Experimenten im Themenbereich Mechanik durch- geführt. Auch wenn so das Potenzial der Geräte nicht vollständig ausgenutzt wird, wurde diese Vorgehensweise aus zwei Gründen beschritten: Zum einen muss das Lernen außer- halb des Unterrichts im Unterricht vorbereitet werden; zum anderen lässt sich so eine gute Kontrollierbarkeit und geringe Konfundierung der untersuchten Variablen bei gleichzeitig hoher ökologischer Validität realisieren.
Zur Untersuchung der Lerneffekte durch den Einsatz der Beschleunigungssensoren von Smartphones wurde zunächst eine Pilotstudie mit 122 Schülerinnen und Schülern durch- geführt. An der anschließenden Hauptstudie nahmen 245 Schülerinnen und Schüler aus 15 Klassen und Kursen von sechs Gymnasien aus Rheinland-Pfalz teil. Für beide Studien wurden experimentelle Aufbauten und zugehörige Instruktionsmaterialien für inhaltsgleiche Experimente mit dem Beschleunigungssensor von Smartphones einerseits und mit traditio- nellem Equipment andererseits entwickelt. Außerdem wurden verschiedene Testinstrumen- te konstruiert oder adaptiert.
Ausgewählte Ergebnisse:
Außer den bereits bekannten praktischen und experimentellen Vorteilen von Smartphones kann der Einsatz des Beschleunigungssensors der Geräte förderlich für das Lernen sein. Zunächst wurde festgestellt, dass keine der häufig befürchteten Nachteile der Nutzung moderner Kommunikationsmedien im Unterricht auftraten. Die Schülerinnen und Schüler waren durch den zielgerichteten Medieneinsatz nicht überfordert: Der von den Schülerin- nen und Schülern wahrgenommene allgemeine Cognitive Load war in der Smartphone- Gruppe nicht größer als in der Kontrollgruppe, der speziell auf die Nutzung der Geräte be- zogene Cognitive Load wurde als eher klein empfunden. Die Lernleistung der Schülerinnen und Schüler war außerdem unabhängig von ihrer Vorerfahrung mit Experimenten oder mit Technik, eine befürchtete Limitierung der positiven Effekte von Smartphones auf bestimmte Schülergruppen war also nicht festzustellen. Häufig wird als Argument gegen Smartphones in der Schule ins Feld geführt, dass diese zu stark vom Unterricht ablenkten. Eine beson- ders große Ablenkung konnte jedoch in der Intervention nicht beobachtet werden: Die Schülerinnen und Schüler der Smartphone-Gruppe arbeiteten ebenso konzentriert wie die der Kontrollgruppe (die bisweilen ebenfalls durch Gespräche oder Ähnliches abgelenkt waren). Dementsprechend war auch keine Minderung des Lernerfolgs in der Smartphone- Gruppe festzustellen.
Neben dem Ausbleiben befürchteter Nachteile traten außerdem explizite Vorteile durch das Lernen mit Beschleunigungssensoren von Smartphones auf: Das Interesse und Engage- ment der Schülerinnen und Schüler in der Smartphone-Gruppe war signifikant größer als das in der Kontrollgruppe (d = 0,4). Dabei ist der gefundene Gruppenunterschied so groß, dass davon ausgegangen werden kann, dass hier mehr als ein bloßer Neuigkeitseffekt vorliegt. Hinzu kommt, dass durch das Lernen mit Smartphones vor allem das Interesse bezüglich des Physikunterrichts bei den Schülerinnen und Schülern geweckt wurde, die vor der Intervention eher wenig interessiert waren.
Ein weiterer Effekt durch das Lernen mit den Beschleunigungssensoren von Smartphones betrifft die Neugier bezüglich der Inhalte der Experimente: Diese Neugier war in der Smartphone-Gruppe signifikant stärker ausgeprägt als in der Kontrollgruppe (d = 0,25). Dabei konnte kein Einfluss der experimentellen Vorerfahrung oder der fachlichen Vor- kenntnisse auf die Neugier festgestellt werden, es liegt also eine weitgehend vorausset- zungsfreie Förderung vor. Die Einstellung gegenüber Smartphones war bei den meisten Schülerinnen und Schülern eher positiv, unabhängig von ihrem Interesse am Physikunter- richt oder ihrem Selbstkonzept. Bei leistungsschwächeren Schülerinnen und Schülern war die positive Haltung gegenüber dem Einsatz von Smartphones im Unterricht sogar stärker ausgeprägt als bei leistungsstarken.
Kognitive Vorteile durch das Lernen mit dem Beschleunigungssensor von Smartphones konnten nicht festgestellt werden. Es traten allerdings auch keine Nachteile auf: In beiden Gruppen gab es mittlere gewichtete Lernzuwächse (gSG = 0,38, gKG = 0,33) mit großen Effektstärken (dSG = 0,95, dKG = 1,09), wobei die Smartphone-Gruppe genau so gut ab- schnitt wie die Kontrollgruppe.
Abgesehen von den Erkenntnissen bezüglich der Lerneffekte von Smartphones konnten die beiden neu erstellten Testinstrumente der primären Fragestellung übergeordnete Er- kenntnisse liefern: Der für die Hauptstudie entwickelte Konzepttest zur Periodizität mecha- nischer harmonischer Schwingungen liefert Hinweise auf bisher unbekannte Präkonzepte. So glaubten einige Schülerinnen und Schüler, dass ein kleiner Ortsfaktor die Bewegung eines Federpendels verlangsamen würde, was zu einer größeren Schwingungsdauer führ- te. Zum anderen bestand die intuitive Vorstellung, dass die Dämpfung eines Fadenpendels durch die Gravitationskraft verursacht würde, da diese das Pendel an den tiefsten Punkt seiner Bahn ziehe.
Außerdem wurden in der vorliegenden Arbeit erste Schritte hin zu einem Testinstrument für das episodische Gedächtnis in instruktionalen Kontexten unternommen. Drei Itemformate stellten sich als geeignet für die Untersuchung heraus, unter anderem die Wiedererken- nung von Bildern beim Experimentieren verwendeter Gegenstände. Zum Zusammenhang zwischen dem episodischen Gedächtnis und dem Lernen ergaben sich erste Hinweise, die vielversprechende Ansätze für weitere Forschungen bieten.
Immobilisierung von Glycosidasen an magnetische Partikel mit dem Ziel einer Weinaromaverbesserung
(2016)
In der Winzertechnik werden Enzympräparate für diverse Anwendungen eingesetzt. Dabei gibt es zahlreiche kommerzielle Enzyme zur Verbesserung bzw. Freisetzung von Aromen. Solche Enzympräparate werden nach einiger Zeit durch eine Bentonitschönung inaktiviert bzw. ausgefällt und gehen damit verloren. Der Einsatz von neuem Enzympräparat bei jedem weiteren Gärungsansatz stellt dabei einen Kostenfaktor für den Winzer dar und es bleibt eine gewisse Rest-Enzymaktivität im Wein erhalten. Letzteres führt dazu, dass solche Weine sensorisch nach einem halben bis einem Jahr abbauen. Um sensorische Beeinträchtigungen und Qualitätsminderungen vorzubeugen ist eine vollständige Entfernung der Enzyme wichtig. Eine Immobilisierung dieser Enzyme an Magnetit-Partikel stellt eine Möglichkeit dar, dieses Problem zu lösen. Besonders die vollständige Entfernung durch eine Magnet-Separation und die anschließende Wiederverwendbarkeit der Enzyme sind dabei wichtige Vorteile für den Winzer.
Bei Enzympräparaten zur Weinaromaverbesserung handelt es sich um pektolytische Enzymmischungen mit einer β-Glucosidase-Nebenaktivität. Gerade in Weißwein kommen viele Aromen glykosidisch gebunden vor und sind dadurch sensorisch nicht wirksam. Diese glykosidischen Verbindungen können durch eine β Glucosidase-Aktivität gespalten und das entsprechende Aroma-Aglykon freigesetzt werden. Allerdings liegt bei der Freisetzung der Aromastoffe ein sequentieller Mechanismus vor, d.h. es werden ebenfalls andere Glycosidasen, wie Arabinosidase, Rhamnosidase oder Xylosidase, benötigt, um Aroma freizusetzen. Daher muss es sich bei den für die Aromafreisetzung eingesetzten Enzymen immer um eine Mischung aus Glycosidasen handeln. Die Immobilisierung verschiedener Enzyme auf einen Träger ist dahingehend eine Herausforderung, indem jedes Enzym andere Voraussetzungen hat, um erfolgreich an einen Träger zu koppeln. Aus diesem Grund ist die simultane Immobilisierung mehrere Enzyme immer nur ein Kompromiss.
Ziel dieser Arbeit war es, die Enzyme erfolgreich an Magnetit-Partikel zu koppeln und mittels analytischer und sensorischer Untersuchungen die Wirksamkeit und die Eigenschaften der Enzyme hinsichtlich eines Einsatzes in der Winzertechnik zu bewerten. Zur Immobilisierung wurden superparamagnetische Magnetit-Partikel, die in einer Matrix aus Polyvinylalkohol eingeschlossen waren, verwendet und die Konjugation der Enzyme wurde mit Carbodiimid durchgeführt.
Die Ergebnisse zeigen, dass es möglich ist mehrere Glycosidasen verschiedener Spezifität aus einem kommerziellen, önologischen Enzympräparat erfolgreich an Magnetit-Partikel zu koppeln und dadurch die Aroma-Ausprägung von Wein positiv zu beeinflussen. Bei den untersuchten Bedingungen stellten sich pH 3,8 bis 4,0 als beste Voraussetzung heraus, um möglichst viele Glycosidasen aktiv an den Träger zu konjugieren. Generell hatte die β-Glucosidase eine relativ hohe Kopplungsaffinität zum Träger, sodass im immobilisierten Enzymgemisch andere Mengenverhältnisse der einzelnen Glycosidasen vorlagen als im Ausgangsprodukt. Untersuchungen hinsichtlich einer möglichen Änderung im Aktivitätsprofil zeigten keine signifikanten Unterschiede. Durch die Kopplungsreaktion kam es zu keiner negativen Beeinträchtigung. Für alle Enzympräparate wurde allerdings eine deutliche Inhibition der β-Glucosidase-Aktivität durch Glucose festgestellt. Die Enzyme sollten daher erst am Ende bzw. nach der Gärung eingesetzt werden, da dort die Glucose-Konzentration am niedrigsten ist. Stabilitätsuntersuchungen der gekoppelten Glycosidasen im Wein zeigten lediglich leichte Aktivitätsverluste. Somit war die Kopplung stabil und stellte kein Hindernis für einen Einsatz im Wein dar. Die Rückgewinnung der Magnetit-Partikel aus Wein wurde mit Hilfe eines Hochgradient-Magnet-Separators durchgeführt. Die Separation hatte ebenfalls keinen negativen Einfluss auf die Enzymaktivität der gekoppelten Enzyme.
Da die Enzyme an Magnetit-Partikel gekoppelt wurden, ist eine mögliche Eisenmigration aus den Partikeln in den Wein ebenfalls ein wichtiges Kriterium und wurde entsprechend untersucht. Dabei konnten durch den Einsatz der Magnetit-Partikel im Wein teilweise ein stark erhöhter Eisengehalt festgestellt werden. Eine erhöhte Eisen-Konzentration im Wein kann zu drastischen Qualitätseinbußen und zu vermehrter Oxidation führen. In Folge dessen stellt die Eisenmigration aus den Partikeln noch ein erhebliches Problem bei einem späteren Einsatz in der Winzertechnik dar. Untersuchungen zum Phenolgehalt der mit Magnetit-Partikel behandelten Weinproben ließen auf einen solchen oxidativen Abbau durch die erhöhten Eisen-Konzentrationen schließen. Weitere Untersuchungen einiger Einzelphenole bestätigten diese Annahme. Neben verminderten Phenolgehalten konnten dagegen einige Phenole, wie Kaffeesäure, p Coumarsäure und Resveratrol, durch den Enzymeinsatz signifikant gesteigert werden.
Weitere Untersuchungen zeigten, dass die gekoppelten Enzyme fähig waren, Aromastoffe im Wein freizusetzen. Der Terpengehalt konnte signifikant durch Enzymeinsatz, sowohl frei als auch immobilisiert, gesteigert werden. Dies betraf besonders die Monoterpene Nerol und Geraniol. Ein Vergleich zwischen gekoppelten und freien Glycosidasen zeigte, dass durch das nicht-immobilisierte Enzymgemisch etwas mehr der untersuchten Verbindungen freigesetzt wurde. Dieser Effekt kann mit der durch die Kopplung veränderten Enzym-Zusammensetzung erklärt werden, da ein größerer Anteil an β-Glucosidase an die Magnetit-Partikel koppelte, aufgrund des sequentiellen Mechanismus, aber auch andere Glycosidasen von Bedeutung sind, um das entsprechende Aglykon freizusetzen.
An Magnetit-Partikel gekoppelte Glycosidasen können gut in bestehende Batch-Prozesse der Weinherstellung integriert werden. Außerdem sind, abgesehen vom Magnet-Separator, nur geringe Investitionen in neue Anlagen nötig. Weitere Vorteile sind eine gute Abtrennung und Wiederverwendbarkeit der gekoppelten Enzyme, enzymfreies Produkt, nahezu identische Anwendung im Vergleich zu bestehenden Enzympräparaten und es ist kaum neue Prozess-Expertise für die Winzer notwendig. Die Prozessbetrachtung zeigte allerdings auch die Komplexität der Hydrolyse glykosidisch gebundener Stoffe im Wein, da eine Vielzahl von Faktoren die Hydrolyse der Glykoside im Wein beeinflusst. Somit ist eine Vorhersage bzw. Abschätzung der Freisetzung an Aromastoffen im Wein durch einen Enzymeinsatz äußerst kompliziert und es ist zurzeit noch nicht möglich die erworbenen Kenntnisse zur Hydrolyse der Glykoside den Weingütern effizient zur Verfügung zu stellen.
Die Glycosidasen β-Glucosidase, Arabinosidase, Rhamnosidase und Xylosidase konnten erfolgreich auf die verwendeten Magnetit-Partikel immobilisiert, deren mögliche Wiederverwendbarkeit gezeigt und durch den Einsatz dieser Enzyme der Gehalt an Terpenen und einiger Phenole signifikant gesteigert werden. Diese Erkenntnisse zeigen, dass ein Einsatz der an Magnetit-Partikel gekoppelten Glycosidasen in der Winzertechnik möglich ist. Allerdings können die erhöhten Eisengehalte durch die Verwendung der Magnetit-Partikel zu Qualitätseinbußen führen. Daher sind die verwendeten Partikeln noch nicht für einen Einsatz in der Winzertechnik geeignet. Diese bedürfen weiterer Entwicklung, da für einen erfolgreichen Einsatz möglichst inerte Partikel vorliegen sollten, um die beschriebenen negativen Effekte zu minimieren.
α-, β- und γ-Asaron gehören zur Gruppe der Phenylpropanoide und kommen überwiegend in Pflanzen der Familien Aristolochiaceae, Acoraceae und Lauraceae vor. Asarone sind im etherischen Öl dieser Pflanzen enthalten, welches hauptsächlich als Aromastoff in
alkoholischen Getränken wie Bitterlikören oder in der traditionellen Pflanzenmedizin
eingesetzt wird. α- und β-Asaron besitzen pharmakologische Eigenschaften und könnten potentiell in der Therapie von verschiedenen Krankheiten eingesetzt werden, jedoch haben Studien gezeigt, dass diese Verbindungen sowie indisches Kalmusöl im Tierversuch im Nager
krebserregend sind (Dünndarm und Leber). Der Mechanismus dieser kanzerogenen Wirkung ist derzeit noch unklar, wobei ein gentoxischer Weg nicht ausgeschlossen werden kann. Studien zur Gentoxizität der propenylischen Verbindungen α- und β-Asaron sind bislang uneinheitlich. Daten zur Kanzerogenität und Gentoxizität des allylischen γ-Asarons fehlen
gänzlich. Basierend auf der aktuellen Datenlage ist eine Risikobewertung für Zubereitungen, die Asarone enthalten, nicht möglich. Im Rahmen der vorliegenden Dissertation sollte daher
mithilfe von verschiedenen in vitro Testsystemen ein Beitrag zur Aufklärung des Wirkmechanismus der Kanzerogenität geleistet und die Frage nach der Gentoxizität der Asarone geklärt werden. Dazu wurde zunächst ein bakterieller Mutagenitätstest (Ames-Fluktuationstest) mit und ohne exogene metabolische Aktivierung (S9-Mix) in den Salmonella
typhimurium-Stämmen TA97a, TA98, TA100 und TA102 eingesetzt. Zusätzlich wurden Untersuchungen zur Zytotoxizität und Gentoxizität in Säugerzellen durchgeführt. Zur Überprüfung der Mutagenität diente der Hypoxanthinphosphoribosyltransferase (HPRT)-Test in V79-Zellen und gentechnisch veränderten V79-Zellen (V79-hCYP1A2-hSULT1A1*1 und V79-
rCYP1A2-rSULT1C1) und zur Bestimmung des gentoxischen Potentials wurde der
Mikrokerntest in V79-Zellen und metabolisch kompetenten HepG2-Zellen herangezogen. α- und β-Asaron zeigten im Ames-Fluktuationstest nur nach metabolischer Aktivierung ein mutagenes Potential. Diese Ergebnisse deuten auf die wichtige Rolle des Metabolismus in der
Toxizität der propenylischen Asarone hin. Deshalb wurden neben den drei Asaron-Isomeren auch ausgewählte oxidative Metaboliten ((E/Z)-Asaron-1',2'-epoxid, γ-Asaron-2',3'-epoxid, erythro- und threo-1',2'-Dihydro-1',2'-dihydroxyasaron, (E/Z)-3'-Oxoasaron und 2,4,5-Trimethoxyphenyl-2-propanon) auf Mutagenität getestet. Dabei konnte festgestellt werden, dass die mutagene Wirkung von α- und β-Asaron auf die Epoxidierung der Seitenkette
zurückzuführen ist, da die entsprechenden Epoxide im Ames-Fluktuationstest ebenfalls mutagen waren. Außerdem führte der HPRT-Test in den gentechnisch veränderten V79-hCYP1A2-hSULT1A1*1-Zellen zu einer leichten Erhöhung der Mutationsfrequenz nach Inkubation mit den Asaronen, während der Test in den Standard-V79- und V79-rCYP1A2-rSULT1C1-Zellen für diese Verbindungen keine Veränderung im Vergleich zur Negativkontrolle zeigte. Im Mikrokerntest in HepG2-Zellen konnte ebenfalls ein gentoxisches Potential für die
propenylischen Asarone nachgewiesen werden. Welchen Einfluss dabei der Metabolismus der Substanzen hat, wurde mithilfe einer Vorinkubation mit TCDD überprüft, welches vor allem zur Induktion von CYP1A-Enzymen in HepG2-Zellen führt. Bei allen drei Asaron-Isomeren
wurde dadurch eine Erhöhung der relativen Mikrokernrate erreicht, insbesondere jedoch bei α-Asaron. Die Inkubation mit den oxidativen Metaboliten gab Hinweise darauf, dass die gentoxische Wirkung hier vermutlich auf die Bildung von (E/Z)-3'-Oxoasaron zurückzuführen ist. In der vorliegenden Arbeit konnte somit gezeigt werden, dass nicht nur zwischen allylischen und propenylischen Asaronen Unterschiede in der Gentoxizität vorliegen, sondern auch zwischen dem trans(α)- und cis(β)-Isomer. Dieser Befund geht mit den neuesten Untersuchungen zum Metabolismus dieser Substanzen einher, der sich ebenfalls zwischen den propenylischen Asaronen unterscheidet. Dem allylischen γ-Asaron liegt wiederum ein anderer Wirkmechanismus zugrunde. Der postulierte Metabolismusweg für vergleichbare allylische Alkenylbenzene basiert auf einer CYP-Hydroxylierung der Seitenkette und einer weiteren Sulfonierung durch Sulfotransferasen. Durch eine spontane Abspaltung der Sulfat-Gruppe entsteht ein reaktives Carbokation, das mit nukleophilen Zentren (z.B. Proteinen oder DNA) reagieren und somit letztlich zu Mutationen und der Entstehung von Krebs beitragen
kann. Die Ergebnisse der vorliegenden Arbeit geben jedoch keinen Hinweis darauf, dass es bei γ-Asaron analog zu anderen allylischen Propenylbenzenen zu einer Bildung eines ultimaten Kanzerogens kommt, da keine mutagene Wirkung in den hier verwendeten Testsystemen zu
beobachten war, die zum Großteil eine Aktivierung über Sulfotransferasen ermöglichten.
Infobrief FBK 49/16
(2016)
Infobrief FBK 50/16
(2016)
Since the early days of representation theory of finite groups in the 19th century, it was known that complex linear representations of finite groups live over number fields, that is, over finite extensions of the field of rational numbers.
While the related question of integrality of representations was answered negatively by the work of Cliff, Ritter and Weiss as well as by Serre and Feit, it was not known how to decide integrality of a given representation.
In this thesis we show that there exists an algorithm that given a representation of a finite group over a number field decides whether this representation can be made integral.
Moreover, we provide theoretical and numerical evidence for a conjecture, which predicts the existence of splitting fields of irreducible characters with integrality properties.
In the first part, we describe two algorithms for the pseudo-Hermite normal form, which is crucial when handling modules over ring of integers.
Using a newly developed computational model for ideal and element arithmetic in number fields, we show that our pseudo-Hermite normal form algorithms have polynomial running time.
Furthermore, we address a range of algorithmic questions related to orders and lattices over Dedekind domains, including computation of genera, testing local isomorphism, computation of various homomorphism rings and computation of Solomon zeta functions.
In the second part we turn to the integrality of representations of finite groups and show that an important ingredient is a thorough understanding of the reduction of lattices at almost all prime ideals.
By employing class field theory and tools from representation theory we solve this problem and eventually describe an algorithm for testing integrality.
After running the algorithm on a large set of examples we are led to a conjecture on the existence of integral and nonintegral splitting fields of characters.
By extending techniques of Serre we prove the conjecture for characters with rational character field and Schur index two.
Integrating Security Concerns into Safety Analysis of Embedded Systems Using Component Fault Trees
(2016)
Nowadays, almost every newly developed system contains embedded systems for controlling system functions. An embedded system perceives its environment via sensors, and interacts with it using actuators such as motors. For systems that might damage their environment by faulty behavior usually a safety analysis is performed. Security properties of embedded systems are usually not analyzed at all. New developments in the area of Industry 4.0 and Internet of Things lead to more and more networking of embedded systems. Thereby, new causes for system failures emerge: Vulnerabilities in software and communication components might be exploited by attackers to obtain control over a system. By targeted actions a system may also be brought into a critical state in which it might harm itself or its environment. Examples for such vulnerabilities, and also successful attacks, became known over the last few years.
For this reason, in embedded systems safety as well as security has to be analyzed at least as far as it may cause safety critical failures of system components.
The goal of this thesis is to describe in one model how vulnerabilities from the security point of view might influence the safety of a system. The focus lies on safety analysis of systems, so the safety analysis is extended to encompass security problems that may have an effect on the safety of a system. Component Fault Trees are very well suited to examine causes of a failure and to find failure scenarios composed of combinations of faults. A Component Fault Tree of an analyzed system is extended by additional Basic Events that may be caused by targeted attacks. Qualitative and quantitative analyses are extended to take the additional security events into account. Thereby, causes of failures that are based on safety as well as security problems may be found. Quantitative or at least semi-quantitative analyses allow to evaluate security measures more detailed, and to justify the need of such.
The approach was applied to several example systems: The safety chain of the off-road robot RAVON, an adaptive cruise control, a smart farming scenario, and a model of a generic infusion pump were analyzed. The result of all example analyses was that additional failure causes were found which would not have been detected in traditional Component Fault Trees. In the analyses also failure scenarios were found that are caused solely by attacks, and that are not depending on failures of system components. These are especially critical scenarios which should not happen in this way, as they are not found in a classical safety analysis. Thus the approach shows its additional benefit to a safety analysis which is achieved by the application of established techniques with only little additional effort.
The Context and Its Importance: In safety and reliability analysis, the information generated by Minimal Cut Set (MCS) analysis is large.
The Top Level event (TLE) that is the root of the fault tree (FT) represents a hazardous state of the system being analyzed.
MCS analysis helps in analyzing the fault tree (FT) qualitatively-and quantitatively when accompanied with quantitative measures.
The information shows the bottlenecks in the fault tree design leading to identifying weaknesses of the system being examined.
Safety analysis (containing the MCS analysis) is especially important for critical systems, where harm can be done to the environment or human causing injuries, or even death during the system usage.
Minimal Cut Set (MCS) analysis is performed using computers and generating a lot of information.
This phase is called MCS analysis I in this thesis.
The information is then analyzed by the analysts to determine possible issues and to improve the design of the system regarding its safety as early as possible.
This phase is called MCS analysis II in this thesis.
The goal of my thesis was developing interactive visualizations to support MCS analysis II of one fault tree (FT).
The Methodology: As safety visualization-in this thesis, Minimal Cut Set analysis II visualization-is an emerging field and no complete checklist regarding Minimal Cut Set analysis II requirements and gaps were available from the perspective of visualization and interaction capabilities,
I have conducted multiple studies using different methods with different data sources (i.e., triangulation of methods and data) for determining these requirements and gaps before developing and evaluating visualizations and interactions supporting Minimal Cut Set analysis II.
Thus, the following approach was taken in my thesis:
1- First, a triangulation of mixed methods and data sources was conducted.
2- Then, four novel interactive visualizations and one novel interaction widget were developed.
3- Finally, these interactive visualizations were evaluated both objectively and subjectively (compared to multiple safety tools)
from the point of view of users and developers of the safety tools that perform MCS analysis I with respect to their degree in supporting MCS analysis II and from the point of non-domain people using empirical strategies.
The Spiral tool supports analysts with different visions, i.e., full vision, color deficiency protanopia, deuteranopia, and tritanopia. It supports 100 out of 103 (97%) requirements obtained from the triangulation and it fills 37 out of 39 (95%) gaps. Its usability was rated high (better than their best currently used tools) by the users of the safety and reliability tools (RiskSpectrum, ESSaRel, FaultTree+, and a self-developed tool) and at least similar to the best currently used tools from the point of view of the CAFTA tool developers. Its quality was higher regarding its degree of supporting MCS analysis II compared to the FaultTree+ tool. The time spent for discovering the critical MCSs from a problem size of 540 MCSs (with a worst case of all equal order) was less than a minute while achieving 99.5% accuracy. The scalability of the Spiral visualization was above 4000 MCSs for a comparison task. The Dynamic Slider reduces the interaction movements up to 85.71% of the previous sliders and solves the overlapping thumb issues by the sliders provides the 3D model view of the system being analyzed provides the ability to change the coloring of MCSs according to the color vision of the user provides selecting a BE (i.e., multi-selection of MCSs), thus, can observe the BEs' NoO and provides its quality provides two interaction speeds for panning and zooming in the MCS, BE, and model views provide a MCS, a BE, and a physical tab for supporting the analysis starting by the MCSs, the BEs, or the physical parts. It combines MCS analysis results and the model of an embedded system enabling the analysts to directly relate safety information with the corresponding parts of the system being analyzed and provides an interactive mapping between the textual information of the BEs and MCSs and the parts related to the BEs.
Verifications and Assessments: I have evaluated all visualizations and the interaction widget both objectively and subjectively, and finally evaluated the final Spiral visualization tool also both objectively and subjectively regarding its perceived quality and regarding its degree of supporting MCS analysis II.
This thesis is concerned with interest rate modeling by means of the potential approach. The contribution of this work is twofold. First, by making use of the potential approach and the theory of affine Markov processes, we develop a general class of rational models to the term structure of interest rates which we refer to as "the affine rational potential model". These models feature positive interest rates and analytical pricing formulae for zero-coupon bonds, caps, swaptions, and European currency options. We present some concrete models to illustrate the scope of the affine rational potential model and calibrate a model specification to real-world market data. Second, we develop a general family of "multi-curve potential models" for post-crisis interest rates. Our models feature positive stochastic basis spreads, positive term structures, and analytic pricing formulae for interest rate derivatives. This modeling framework is also flexible enough to accommodate negative interest rates and positive basis spreads.
Jugendliche sind häufige Nutzer öffentlicher Stadträume, die ihnen wichtige Möglichkeiten der Interaktion, aber auch Orte des Rückzugs aus dem privaten Raum des Elternhauses oder dem institutionalisierten Raum der Schule bieten. In der aktuellen wissenschaftlichen Diskussion um öffentlichen Raum tritt vielfach dessen Wandel in den Fokus, vor allem im Hinblick auf Tendenzen der Kommerzialisierung, Privatisierung, aber auch einer zunehmenden Unsicherheit und Kriminalität. Über diese Aspekte des Wandels werden, so die grundlegende These der vorliegenden Arbeit, Jugendlichen engere Grenzen gesetzt und Aneignungs- und Zu-gangsmöglichkeiten eingeschränkt. Ein Beispiel für neue privatisierte und kommerzialisierte Räume stellen Shopping Malls dar. In diesen, de jure nicht öffentlichen, sondern als quasi-öffentlich bezeichneten Räumen, in denen Sicherheit, Sauberkeit und Service Priorität haben, wird ein mit Jugendlichen oftmals assoziiertes, vermeintlich unkontrollierbares, abweichendes, ausprobierendes Verhalten als Störfaktor wahrgenommen.
Auf Basis qualitativer Interviews mit Jugendlichen, nicht-teilnehmender Beobachtung und Experteninterviews mit Verantwortlichen von Polizei, Streetwork und dem Management lokaler Shopping Malls, werden in zwei Fallstudien (Saarbrücken und Ludwigshafen) die Aneignung und Wahrnehmung unterschiedlicher innerstädtischer öffentlicher Räume (Fußgängerzone, Zentraler Stadtplatz, Grün- und Freiflächen), etwaige Nutzungskonflikte und die Bedeutung des neuen, quasi-öffentlichen Raumtyps „Shopping Mall“ diskutiert.
Den theoretischen Hintergrund liefern vor allem Arbeiten von Pierre Bourdieu, Anthony Giddens und Henri Lefebvre: In Anlehnung an Bourdieu muss Raum, und damit auch öffentlicher Raum, aus verschiedenen Dimensionen, insbesondere der physischen und der sozialen, gedacht werden, die jedoch wechselseitig aufeinander wirken. Er ist, so die Theorie Henri Lefebvres, in einem mehrdimensionalen Prozess sozial produziert. Im Rahmen dieses Produktionsprozesses bilden sich, im Rahmen des dem von Giddens dargestellten Dualismus von Handeln und Struktur, Macht- und Ordnungsstrukturen aus, die Handeln und damit Nutzungsmöglichkeiten beeinflussen.
Die Ergebnisse der Fallstudien zeigen, dass öffentliche Räume von Jugendlichen, nach wie vor, als Interaktions-, Rückzugs- Mobilitäts- und Konsumräume genutzt werden. Dennoch sind Transformationsprozesse sichtbar: Kommerzialisierung und Privatisierung beeinflussen den Zugang zu und die Nutzungsmöglichkeiten von öffentlichen und quasi-öffentlichen Räumen. Auch durch gestiegene Unsicherheit, von aber auch durch Jugendliche, sowie Kontrollen verändern sich Möglichkeitsräume. Diese Kontrollen werden jedoch durchaus auch positiv und als Notwendigkeit bewertet, um zunehmender Unsicherheit zu begegnen.
Von Jugendlichen sind insgesamt Anpassungsleistungen notwendig, vor allem hinsichtlich eines angemessenen Verhaltens in öffentlichen und quasi-öffentlichen Räumen. Sie müssen sich mit bestehenden Macht- und Ordnungsstrukturen auseinandersetzen und sich diesen häufig unterordnen. Sind sie dazu nicht bereit oder nehmen Konflikte Überhand, werden Treffpunkte und Nutzungen aufgegeben. Besonders am Beispiel der „Shopping Malls“ wurde deutlich, dass eingeschränkte Zugangsmöglichkeiten und geltende Verhaltensvorschriften Änderungen der räumlichen Praxis notwendig machen, um Nutzung zu legitimieren. Shopping Malls können aber das Angebot an Freizeiträumen für Jugendliche auch erweitern. Gerade wenn ein Mangel an adäquaten Treffpunkten herrscht und klassische öffentliche Räume von „Verödung“ betroffen sind, so wie es im Fallbeispiel Ludwigshafen der Fall war, bilden sie einen alternativen „Erlebnisort“.
Um Spielkarten zu mischen gibt es unterschiedliche Techniken, die sich sowohl in ihrem Zeitaufwand, als auch in der Güte der Durchmischung unterscheiden. Der folgende Artikel vermittelt, wie man die Frage nach einer besonders guten Mischtechnik nutzen kann, um mathematische Modellierung anhand einer alltagsnahen Fragestellung in den Unterricht einzubinden. Dabei können verschiedene Aspekte der Stochastik angesprochen werden, und es bietet sich ein breites Potential, auf unterschiedlichen Niveaus Computer zum Generieren von Zufallsexperimenten zu verwenden.
Der Anteil an regenerativen Energien am Strommarkt in Deutschland steigt kontinuierlich. Dies führt bereits heute zu Problemen bei der Energiespeicherung, da die Stromproduktion aus regenerativen Energien stark von Wind und Wetter abhängt. Hierbei sind die derzeitigen Energiespeicher wie Schwungräder, Batterien oder Pumpspeicherkraftwerke in ihrer Kapazität stark begrenzt. Eine mögliche Lösung für die Problematik der Energiespeicherung bietet das Power-to-Gas-Verfahren, indem die elektrische Energie in chemische Energie (z. B. synthetisches Erdgas) umgewandelt und im Erdgasnetz gespeichert wird. Darüber hinaus kann durch die Umwandlung von Kohlendioxid als C₁-Baustein in funktionalisierte Grundchemikalien die Abhängigkeit von Rohöl vermindert werden. Hierfür sind Katalysatoren notwendig, die eine wirtschaftliche Hydrierung von Kohlendioxid zu Wertprodukten ermöglichen. Die Schwierigkeit liegt in der Überwindung der hohen Aktivierungsenergie von Kohlendioxid, wodurch es sehr reaktionsträge ist. In der Literatur wurden bereits einige Katalysatorsysteme untersucht; nur wenige beschäftigen sich mit kinetischen Untersuchungen. Ein Problem der zahlreichen Publikationen ist die häufig fehlende Vergleichbarkeit. Dies liegt im Wesentlichen an der Vielzahl der variablen Reaktionsbedingungen, wie Reaktionstemperatur, Reaktionsdruck, Verweilzeit sowie dem Verhältnis von Wasserstoff zu Kohlendioxid. Außerdem wird in kinetischen Studien oft für ein vorliegendes Katalysatorsystem eine individuelle Berechnungsmethode zur Ermittlung der kinetischen Daten verwendet, die sich nicht auf andere Katalysatorsysteme oder Aktivkomponenten anwenden lässt.
Die zuvor genannten Probleme waren eine wesentliche Motivation, verschiedene Aktivkomponenten unter gleichen Reaktionsbedingungen zu untersuchen. Die hierbei gewonnenen Informationen sind in die nachfolgenden Studien zur Modifikation des Trägermaterials und der Aktivkomponenten eingeflossen. Zum Schluss wurde versucht, ein synthetisches Erdgas mittels Brennwertanpassung herzustellen. Hierfür wurde ein Fischer-Tropsch-Katalysator mit Methanisierungskatalysatoren kombiniert. Die hergestellten Katalysatoren wurden jeweils mithilfe von N₂-Physisorption, Pulver-Röntgendiffraktometrie, thermogravimetrischer Analyse, Rasterelektronenmikroskopie, temperaturprogrammierter Reduktion sowie durch H₂-Chemisorption charakterisiert. Die katalytischen Eigenschaften der hergestellten Katalysatoren wurden in einer Hochdruck-Strömungsapparatur erprobt. Im Fokus der Untersuchungen standen die Stabilität der Katalysatoren sowie der Einfluss der Reaktionstemperatur und der modifizierten Verweilzeit auf Umsatz und Produktausbeuten.
Zu Beginn wurden zehn verschiedene Aktivkomponenten jeweils auf γ-Aluminiumoxid als Träger (Puralox SCFa 230) untersucht. Dabei waren der Einfluss der Reaktionstemperatur auf den Umsatz von Kohlendioxid und die Zusammensetzung des Produktgases als auch die kinetischen Parameter von besonderem Interesse. Die Ergebnisse zeigten einen deutlichen Einfluss der Aktivkomponente auf das Produktspektrum der katalytischen Hydrierung von Kohlendioxid. Hierbei traten insbesondere die Metalle Kupfer, Nickel, Rhodium und Eisen hervor. Ersteres zeigte eine hohe Selektivität zu Kohlenmonoxid. Nickel und Rhodium produzierten Methan mit sehr hohen Selektivitäten und hohen Umsätzen, die nahe am thermodynamischen Gleichgewicht liegen. Die Vorteile von Eisen als Aktivkomponente liegen in der Produktion von signifikanten Mengen an C₂₊-Kohlenwasserstoffen. Alle anderen Aktivkomponenten zeigten eine gemischte Produktzusammensetzung (d. h. bestehend aus Kohlenmonoxid, Methan, C₂₊-Kohlenwasserstoffen). Anhand von kinetischen Untersuchungen konnten die Temperaturabhängigkeit der Reaktionsgeschwindigkeit in Form einer scheinbaren Aktivierungsenergie sowie die Abhängigkeit vom Partialdruck an Kohlendioxid ermittelt werden. Für beide Parameter werden möglichst kleine Werte angestrebt. Dies bedeutet, dass bereits bei kleineren Partialdrücken und niedrigeren Reaktionstemperaturen signifikante Umsätze von Kohlendioxid zu beobachten sein sollten. Die Partialdruckabhängigkeit der Reaktionskinetik nimmt in folgender Reihenfolge der Aktivkomponenten zu: Ni, Rh < Ru < Co < Pt < Cu, Pd, <Re << Fe300-375°C. Die kinetischen Untersuchungen zeigten hierbei für die Methanisierungskatalysatoren die niedrigste Partial-druckabhängigkeit der Reaktionskinetik, gefolgt von den Katalysatoren für die umgekehrte Wassergas-Shift-Reaktion. Die größte Kohlendioxid-Partialdruckabhängigkeit der Reaktionskinetik konnte an den Katalysatoren mit gemischter Produktzusammensetzung und am eisenhaltigen Fischer-Tropsch-Katalysator beobachtet werden. Die Reihenfolge der Temperaturabhängigkeit der Reaktionskinetik an den Aktivkomponenten lautet wie folgt: Pd < Cu < Ru < Pt, Co < Ni < Fe300-375°C < Rh, Re. Um auch die wirtschaftlichen Aspekte bei der Auswahl der Aktivkomponenten zu berücksichtigen, wurden die Marktpreise für die untersuchten Metalle verglichen. Die Preise für die Metalle wurden für eine Tonne Katalysator mit entsprechender Beladung berechnet. Anhand der Preise für die Aktivkomponenten und unter Einbeziehung der Ergebnisse der katalytischen Untersuchungen ist Nickel der Favorit für einen Methanisierungskatalysator und Eisen bevorzugt als Fischer-Tropsch-Katalysator.
Aufgrund der hohen Aktivität von Nickel wurde diese Aktivkomponente ausgewählt, um mit unterschiedlichen Trägermaterialien auf der Basis von Titandioxid das katalytische Potenzial zu evaluieren. Als Trägermaterialien wurden Lithiumtitanat, makro-/mesoporöse Titan-Aluminium-Mischoxide und mit Titandioxid beschichtetes Puralox SCFa-230 eingesetzt. Hierbei konnten an den makro-/mesoporösen Titan-Aluminium-Mischoxiden der unterschiedliche Einfluss von Titan und Aluminium auf die Eigenschaften des resultierenden Mischoxids beobachtet werden. Es zeigte sich, dass die strukturelle Stabilität und höhere spezifische Oberfläche von Aluminiumoxid sowie die höhere katalytische Aktivität durch Titandioxid im Mischoxid von Bedeutung sind. Zugleich bieten die Makro- und Mesoporen in den Mischoxiden einen verbesserten Stofftransport. Es konnte gezeigt werden, dass der titanhaltige Träger eine sehr geringe spezifische Oberfläche im Vergleich zum aluminiumhaltigen Träger aufweist. Bei den Mischoxiden beginnt ab einem Titangehalt von 50 mol-% die spezifische Oberfläche mit steigendem Titananteil stetig zu sinken. Anhand der temperaturprogrammierten Reduktion konnte eine zunehmende Reduzierbarkeit des Nickels mit steigendem Titangehalt im Trägermaterial beobachtet werden. Generell wurde an nickelhaltigen Katalysatoren Kohlendioxid mit sehr hohen Selektivitäten zu Methan umgewandelt. Im direkten Vergleich sind die Umsätze am Katalysator mit reinem Titandioxid deutlich höher als an dem Katalysator mit reinem γ-Aluminiumoxid als Träger. Dies zeigt die höhere katalytische Aktivität mit Titanoxid als Trägermaterial. Die niedrigsten Umsätze wurden am nickelbeladenen Mischoxid mit einem Titangehalt von 50 mol-% beobachtet, was wahrscheinlich mit der amorphen Struktur dieses Trägermaterials zusammenhängt. Die größte Aktivität für die Methanisierung von Kohlendioxid konnte an dem Mischoxid mit einem Titangehalt von 80 mol-% im Trägermaterial beobachtet werden. Anscheinend liegt hier ein Optimum zwischen der strukturellen Stabilität von Aluminium und der katalytischen Aktivität durch Titan im Mischoxid vor. Die spezifische Oberfläche des Titan-Aluminium-Mischoxids mit 80 mol-% Titan liegt mit 115 m²·g⁻¹ verglichen mit dem reinen Titanoxid mit 20 m²·g⁻¹ deutlich höher. Diese ist jedoch geringer als die spezifische Oberfläche des γ-Aluminiumoxids mit 225 m²·g⁻¹.
Die Modifizierung der Aktivkomponente wurde mit drei verschiedenen Klassen von Katalysatoren untersucht. Es wurden Mischungen zwischen Nickel und Rhodium, den beiden aktivsten Metallen aus Kapitel 4, sowie Mischungen aus Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid untersucht. Für die Fischer-Tropsch-Synthese wurden eisenhaltige Katalysatoren modifiziert. Bei den Untersuchungen von Nickel und Rhodium sowie Palladium, Nickel und Magnesium als Aktivkomponente auf Puralox SCFa-230 wurde gefunden, dass bei Verwendung von Nickel als reiner Aktivkomponente die besten katalytischen Ergebnisse erzielt wurden. An allen untersuchten Katalysatoren wurde bei der katalytischen Umwandlung von Kohlendioxid eine hohe Selektivität zu Methan beobachtet. Hinweise auf eine positive Wirkung der Mischung der Aktivkomponenten konnten nicht gefunden werden. Mittels temperaturprogrammierter Reduktion wurde gefunden, dass – anders als zunächst vermutet – Nickel und Rhodium als voneinander isolierte Spezies vorliegen und nicht etwa als Legierung.
Aufbauend auf der Arbeit von Park und McFarland [38] wurden die Metalle Palladium, Nickel und Magnesium für die Methanisierung von Kohlendioxid kombiniert. Die Katalysatoren wurden schrittweise synthetisiert und ihre katalytische Aktivität untersucht. Bei allen Katalysatoren ist die katalytische Aktivität deutlich geringer als bei dem Katalysator mit reinem Nickel auf Puralox SCFa-230. Die katalytische Aktivität der Hochtemperatur-reduzierten Katalysatoren liegt noch einmal deutlich unter der katalytischen Aktivität der kalzinierten und danach reduzierten Katalysatoren. Dies liegt wahrscheinlich in einer geringeren Dispersion der Aktivkomponente begründet. Ursachen für eine geringe Dispersion können sein: (i) die direkte Reduktion der imprägnierten Metallkomponente ohne Kalzination als Zwischenschritt oder (ii) eine Be-günstigung der Metallsinterung durch die Hochtemperatur-Reduktion. Basierend auf den erzielten Ergebnissen stellt die Verwendung von Nickel auf γ-Aluminiumoxid als Träger ein Optimum hinsichtlich Aktivität, Selektivität, Stabilität und Preis dar.
Bei der Modifizierung der Fischer-Tropsch-Katalysatoren wurden verschiedene Promotoren zusammen mit Eisen auf Puralox SCFa-230 aufgebracht. Als Promotoren für Eisen wurden Zink oder Mangan eingesetzt und mit einem promotorfreien Eisenkatalysator verglichen. Hierzu wurden zum einen die Metalle in Form der entsprechenden Nitratsalze auf das γ-Aluminiumoxid imprägniert. Zum anderen wurden eisen- und eisen-/promotorhaltige Nanopartikel zur Im-prägnierung verwendet. Alle Katalysatoren lieferten bei der Hydrierung von Kohlendioxid ein Produktgemisch bestehend aus Kohlenmonoxid, Methan und C₂₊-Kohlenwasserstoffen. Die Ausbeuten an C₂₊-Kohlenwasserstoffen sind bei 400 °C am größten, wobei mit steigender Temperatur eine Abnahme der Kettenlänge beobachtet werden kann. Die Unterschiede der Metallsalz-imprägnierten Katalysatoren im Vergleich zu den Nanopartikel-imprägnierten Katalysatoren sind relativ gering. Die Nanopartikel-imprägnierten Katalysatoren bilden geringfügig kleinere Mengen an Kohlenmonoxid zugunsten von Methan. Beim Vergleich der Promotoren hat sich eine Dotierung mit Mangan gegenüber den zinkhaltigen- sowie den promotorfreien eisenhaltigen Katalysatoren als vorteilhaft herausgestellt. Die manganhaltigen Katalysatoren produzieren den größten Anteil an Olefinen in den einzelnen Fraktionen. Außer-dem liegt die Kettenwachstumswahrscheinlichkeit α bei niedrigeren Temperaturen höher als bei den anderen Katalysatoren.
In weiteren Untersuchungen wurden ungeträgerte Fischer-Tropsch-Katalysatoren betrachtet. Hierfür wurden zwei Fällungskatalysatoren hergestellt. Es wurde ein Katalysator, der ausschließlich aus Eisenoxid besteht, als Referenz untersucht sowie ein eisenhaltiger Katalysator mit den Promotoren Aluminium, Mangan und Kalium. Am reinen Eisenoxid konnte eine etwas höhere Kettenwachstumswahrscheinlichkeit α sowie ein höheres Verhältnis von Olefinen zu Paraffinen im Vergleich zu den geträgerten Katalysatoren beobachtet werden. Mit dem Fällungskatalysator, der promotiert war, wurden die besten Ergebnisse erzielt: Die Umsätze von Kohlendioxid, die Ausbeuten an C₂₊-Kohlenwasserstoffen sowie die Kettenwachstumswahr-scheinlichkeiten α und die Verhältnisse der Summe von Olefinen / sauerstoffhaltigen Verbin-dungen zu den Paraffinen sind bei allen Reaktionstemperaturen am größten. Die Ergebnisse zeigen, dass Vollkatalysatoren für die Fischer-Tropsch-Synthese besser geeignet sind als Trägerkatalysatoren.
Um den eingangs erläuterten Kapazitätsengpass bei der Speicherung von regenerativen Energien entgegen zu treten, stellt das Power-to-Gas-Verfahren einen interessanten Lösungsansatz dar. In diesem Zusammenhang wurde eine Modifizierung des Power-to-Gas-Verfahrens näher untersucht. Es wurde anhand von Modellrechnungen gezeigt, weshalb eine Brennwertanpassung mit kombinierter Fischer-Tropsch-Synthese notwendig erscheint. Die Katalysatoren wurden anhand der zuvor erlangten Erkenntnisse ausgewählt. Als Methanisierungskatalysatoren wurde jeweils ein cobalt , nickel- oder rhodiumhaltiger Katalysator mit dem promotorhaltigen Fällungskatalysator für die Fischer-Tropsch-Synthese kombiniert. Die Kom-bination eines Methanisierungskatalysators mit dem Fischer-Tropsch-Katalysator führte jedoch nicht wie erwartet zu einem Produktgas mit einem hohen Anteil von Methan sowie zusätzlich C₂₊-Kohlenwasserstoffen. Stattdessen wurde fast ausschließlich Methan gebildet. Die Variation der Verweilzeit am cobalthaltigen Katalysatorsystem und eine längere Laufzeituntersuchung am nickelhaltigen Katalysatorsystem zeigten zudem das Auftreten einer Desaktivierung des Methanisierungskatalysators. Nach dessen vollständiger Desaktivierung wurde die Produktzusammensetzung ausschließlich durch den Fischer-Tropsch-Katalysator bestimmt. Diese Beobachtungen können folgendermaßen erklärt werden: Zu Beginn der Katalysatorlaufzeit werden die entstandenen C₂₊-Kohlenwasserstoffe mittels Hydrogenolyse am Methanisierungskatalysator zu Methan umgewandelt. Das bei der Fischer-Tropsch-Synthese gebildete Kohlenmonoxid und ein Teil des restlichen Kohlendioxids werden ebenfalls zu Methan umgesetzt. Mit fortschreitender Verweilzeit desaktiviert der Methanisierungskatalysator durch Verkoken. Die Hydrogenolyse, welche vermutlich ebenfalls an den für die Methanisierung aktiven Zentren stattfindet, kommt vollständig zum Erliegen. Die Produktzusammensetzung wird nun vollständig durch die Katalyse am Fischer-Tropsch-Katalysator dominiert. Vor diesem Hintergrund erscheint die Suche nach Methanisierungskatalysatoren, die keine Hydrogenolyse von C₂₊-Kohlenwasserstoffen bewirken, als lohnenswert.
Die übergeordnete Zielsetzung dieser Arbeit bestand in der Entwicklung katalytischer Verfahren, um damit neue Nutzungsmöglichkeiten für Carbonsäuren und deren Derivate in der chemischen Wertschöpfungskette zu schaffen.
Reiner Biodiesel ist mit modernen Motoren aufgrund seines ungünstigen Siedeverhaltens nur eingeschränkt kompatibel. Im ersten Projekt wurde daher ein Verfahren entwickelt, einen Biokraftstoff mit einem Siedeverhalten von kommerziellem Diesel herzustellen. Dazu wurde eine lösungsmittelfreie isomerisierende Ethenolyse von Pflanzenölestern entwickelt, mit der Produktgemische aus Olefinen, Mono- und Diestern mit genau definierten physikalischen Eigenschaften erzeugt werden können.
Die Reaktion von Pflanzenölestern mit Alkenen verläuft mit minimalem Energiebedarf, maximaler Atomeffizienz, ohne Lösungsmittel und praktisch abfallfrei und folgt somit den Prinzipien grüner Chemie. Es werden unterschiedliche industrielle Pflanzenölmethylester, sowie verschiedene kurzkettige Olefine toleriert. Mit diesem Verfahren wurde aus Rapsölmethylester (RME) und Ethen ein Biokraftstoff hergestellt, der alle spezifizierten Grenzwerte hinsichtlich des Siedeverhaltens von Dieselkraftstoffen erfüllt.
Mit Hilfe einer numerischen Simulationsmethode wurde ein Zusammenhang zwischen den katalytischen Parametern der isomerisierenden Metathese und der chemischen Zusammensetzung des Produktgemischs hergestellt. Damit wurden die Zielvorgaben für die anschließende systematische Reaktionsoptimierung errechnet.
Im zweiten Teilprojekt wurde ein neuer Zugang zu in ortho-Position nitrierten aromatischen Carbonsäurederivaten entwickelt. Die einzigartig effektive dirigierende Gruppe ermöglicht die ortho-selektive Nitrierung von substituierten aromatischen Carbonsäuren bei nur 50 °C. Der präformierte Kupferkomplex Cu(NO3)(PPh3)2 vermittelt zusammen mit dem Oxidationsmittel NMO selektiv die Mononitrierung in guten Ausbeuten. Das System toleriert eine große Breite funktioneller Gruppen, sowie fünf- und sechsgliedrige Heteroaromaten.
Im Gegensatz zu klassischen Verfahren mit stickstoffhaltigen dirigierenden Gruppen, die im Produkt verbleiben, gelang es uns, eine schnelle Methode zur mikrowellenunterstützten Verseifung zu entwickeln. Dadurch ist es möglich, nach der Nitrierung in situ eine Protodecarboxylierung des aktivierten Amids durchzuführen und den Nitroaromaten zu erhalten. Alternativ kann durch Verseifung das Carboxylat dargestellt werden, welches als Anker für anschließende decarboxylierende Kupplungsreaktionen fungieren kann.
In dem vorliegenden Dissertationsdokument werden die Ergebnisse aus der Forschung zu konzeptionellen Verfahrensentwürfen für die industrielle Anwendung von Enzym-Magnetpartikeln vorgestellt. Die Magnetpartikel im Mikrometermaßstab sind aufgrund ihrer geringen Größe, sphärischen Geometrie und der daraus resultierenden hohen spezifischen Oberfläche, ein attraktives Trägermedium für
Biomoleküle. Aufgrund der Magnetisierbarkeit der Partikel können die Partikeltrajektorien in einem Flüssigkeitsstrom zudem durch ein Magnetfeld gesteuert werden. In einem Magnetfilter werden anhand dieser Wechselwirkungen die Magnetpartikel selektiv abgetrennt. Zur Konstruktion von Magnetfiltern wurde in dieser Arbeit die Computer-Aided-Design-Software Siemens NX 8 eingesetzt. Die Konstruktionsentwürfe wurden in die Software Comsol Multiphysics® 4.3a importiert. Die Software beinhaltet
Differentialgleichungssysteme und -löser, mit denen das Magnet- und Fluidströmungsfeld in den untersuchten Magnetfiltern berechnet werden können. Es wurden geometrische Variationen an den Modellen vorgenommen, um Änderungen in der resultierenden Trennleistung zu erzielen. Die optimierten Filter wurden
anschließend gefertigt und in experimentellen Untersuchungen erprobt. Dabei wurden Magnetpartikel mit und ohne Biomasse separiert und die Trennleistung bestimmt. Die Partikelsuspensionen wurden zudem hinsichtlich der
Prozessintegration untersucht. Dabei stand der Medianpartikeldurchmesser im Vordergrund der Untersuchung. Es wurde überprüft, wie sich die Partikelgrößenverteilung bei variierten pH-Werten und Salzkonzentrationen verändert. In diesem Kontext wurde die Homogenisierung der Magnetpartikel in
einem Ultraschall-Homogenisator untersucht. Am Institut für biotechnisches Prozessdesign standen zwei verschiedene
Separatoren zur Verfügung, für welche die Filterkammern optimiert wurden. Für den mit Permanentmagneten betriebenen Magnetseparator von der Firma Steinert Typ HGF10 wurde eine mit Quarzgläsern ausgestattete Filterkammer entworfen und gefertigt (Patentanmeldung AZ 102012023382.5). Dadurch konnten die
Partikelablagerungen während der Filtration und nach der Reinigung untersucht werden. Im untersuchten Arbeitsbereich bis zu einer Kapazität von ca. 83 g/L wurde kein Partikeldurchbruch detektiert. In vorigen Arbeiten mit Magnetfiltern mit
vergleichbarer Geometrie wurde festgestellt, dass die Strömung im Anfangsbereich des Filters maßgeblich die Partikelretention beeinflusst. Darauf aufbauend wurde in dieser Arbeit der Einfluss von statischen Mischern charakterisiert, um Unterschiede
in der Lineargeschwindigkeit der Flüssigkeit zu minimieren und ein möglichst propfenförmiges Strömungsprofil herzustellen.
Die Optimierung der Filterkammer wurde im nächsten Schritt mit Analysen zur Auswirkung von geometrischen Variationen in der Filtermatrix weitergeführt. Es wurden in dieser Arbeit die Geometrien von Filtermatrices aus gestapelten Filterblechen mit Aussparungen näher untersucht. Anhand Simulationsdaten und
Ergebnissen aus experimentellen Versuchen wurde eine Korrelation zwischen der Partikelretention und der Anzahl an Kanten in der Filtermatrix gefunden. Je mehr Kanten in der Matrix vorkommen, desto weniger Partikel gehen im Filtrat verloren. Abschließend wurde die Reinigung der Filterkammer mit der Zweiphasenströmung
näher untersucht und der Einsatz von Druckluft erprobt.
Die Druckluft wurde zum Erzeugen von dispergierten Luftblasen im Flüssigkeitsstrom simultan zur laufenden Peristaltikpumpe in die Zufuhrleitung der Filterkammer injiziert. Während der Reinigungsprozedur werden mittels der Luftblasen die
Partikelablagerungen mechanisch gelöst und mit der Strömung aus der Filterkammer gespült. In biotechnologischen Produktionen gelten besondere Richtlinien und Regeln zum Einhalten von Reinigungsverfahren. Im Rahmen magnetpartikelbasierter Prozesse ist hierbei ein besonderes Augenmerk auf feinste partikuläre Rückstände nach der Reinigung zu legen. Aufgrund der in Magnetfiltern vorhanden Filtermatrix mit einer
komplexen Geometrie kann den Untersuchungen zur Folge nicht von einer vollständigen Entfernung ausgegangen werden. Um bei derartig streng regulierten Produktionen trotzdem ein Filtersystem zur Verfügung zu haben, wurde in dieser
Arbeit der Einsatz von Einweg-Hochgradienten-Magnetfiltern erprobt. Die Einweg-Magnetfilter-Prototypen wurden auf Basis von Kunststofffolien hergestellt, die zusammengeschweißt wurden, um eine Art Beutel mit Ein- und Auslass herzustellen. Mit den gefertigten Prototypen wurden exemplarische Filtrationen durchgeführt, um die Eignung für industrielle Prozesse zu testen. Um einen Einweg-Magnetfilter für die Anwendung attraktiv zu gestalten, musste sichergestellt sein, dass die Rückstände
an Partikeln nach der Reinigung gering sind, weil jegliche Partikelreste mit dem Einweg-Magnetfilter verworfen werden würden. Die untersuchten Prototypen zeichneten sich durch eine hohe Partikelretention mit einer Kapazität von ca. 35 g/L
und minimale Rückstände nach der Reinigung aus.
Der zweite am Forschungsinstitut vorhandene Magnetseparator wurde mit einem Elektromagnet betrieben. Der in dem Separator eingebaute Magnetfilter wurde mit einer Filtermatrix nach dem Rotor-Stator-Prinzip gefertigt. Es sind im Gegensatz zu
den zuvor beschriebenen Magnetfiltern zwei Arten von Filterblechen in dem Filter eingebaut. Zum einen nicht bewegliche Statorbleche und zum anderen rotierbare Rotorbleche. Die Rotorbleche sind über eine drehbare Welle miteinander verbunden.
Dabei entstehen zwischen den Filterblechen hohe Scherraten, wodurch nach der Filtration die Partikelablagerungen effizient gelöst und aus dem Filter gespült werden können. Die Filterbleche besitzen Aussparungen mit welchen die Partikelretardierung und -resuspendierung beeinflusst wird. Die Einflussfaktoren
wurden in Simulationen näher untersucht, um eine Geometrie der Aussparungen zu finden, mit welcher sich die Reproduzierbarkeit der Filtrationen erhöhen ließ. Bei dem Magnetfilter mit einer Rotor-Stator-Filtermatrix wurde eine Kapazität von ca. 170 g/L
ohne Durchbruch erreicht. Die zuvor beschriebenen Magnetfilter waren dafür konzipiert worden, separat von einem Reaktor betrieben zu werden. Die Reaktionssuspension wird aus dem Reaktor
und anschließend durch den Filter gepumpt. Im Gegensatz dazu wurde ein In-situ-Magnetseparator entwickelt, mit dem magnetische Partikel direkt im Reaktor durch eine magnetische Lanze aus der Reaktionssuspension eingefangen werden können. Durch eine Linearbewegung der Lanze werden die angehefteten Partikel aus dem
Reaktor transferiert. Danach können die Magnetpartikel von der Lanze gelöst werden und in einen Aufbewahrungsbehälter gepumpt oder wieder in den Reaktor geführt werden. Der Separator bietet die Möglichkeit, in einem Reaktor eine Fermentation
oder Biokatalyse in Gegenwart der funktionalisierten Magnetpartikel durchzuführen und in drei Schritten die Partikel aus dem Reaktor zu entfernen oder für eine anschließende Produktion wiederzuverwenden.
We investigate the long-term behaviour of diffusions on the non-negative real numbers under killing at some random time. Killing can occur at zero as well as in the interior of the state space. The diffusion follows a stochastic differential equation driven by a Brownian motion. The diffusions we are working with will almost surely be killed. In large parts of this thesis we only assume the drift coefficient to be continuous. Further, we suppose that zero is regular and that infinity is natural. We condition the diffusion on survival up to time t and let t tend to infinity looking for a limiting behaviour.
Das Ziel dieser Arbeit besteht darin, aufzuzeigen, wie eine mathematische Modellierung, verbunden mit Simulations- und Ansteuerungsaspekten eines Segways im Mathematikunterricht der gymnasialen Oberstufe als interdisziplinäres Projekt umgesetzt werden kann. Dabei werden sowohl Chancen, im Sinne von erreichbaren mathematischen Kompetenzen, als auch Schwierigkeiten eines solchen Projektes mit einer interdisziplinären Umsetzung geschildert.
This paper briefly discusses a new architecture, Computation-In-Memory (CIM Architecture), which performs “processing-in-memory”. It is based on the integration of storage and computation in the same physical location (crossbar topology) and the use of non-volatile resistive-switching technology (memristive devices or memristors in short) instead of CMOS technology. The architecture has the potential of improving the energy-delay product, computing efficiency and performance area by at least two orders of magnitude.
Der Anteil von Komponenten aus Faserkunststoffverbunden (FKV) ist in den vergangenen
Jahren speziell in den leichtbaugetriebenen Branchen stetig gestiegen, da der
Einsatz von FKV die Möglichkeit bietet, eine Gewichtsreduktion gegenüber Ausführungen
mit klassischen Metallwerkstoffen zu erzielen. Eine optimale Ausnutzung der
Vorteile von FKV kann jedoch nur durch faserkunststoffgerechte konstruktive Lösungen,
für die bisherige Ausführungen in Frage gestellt werden müssen, erreicht werden.
Nicht nur Materialien und Bauweisen für lasttragende Strukturen sind zu überdenken,
auch bisherige Lösungsansätze zur Realisierung aktorischer Funktionen, die
einen wesentlichen Teil vieler Produkte ausmachen, müssen hinterfragt werden.
Klassische diskret angeschlossene Aktoren können in diesem Zuge durch neuartige
Festkörperaktoren wie z.B. Formgedächtnislegierungen oder Piezokeramiken substituiert
werden. Durch den differenziellen Aufbau der FKV ist die direkte Integration
aktiver Formgedächtnislegierungen (engl. Shape Memory Alloys (SMA)) möglich und
es ergibt sich ein neues FKV-gerechtes Aktorikprinzip, welches eine material- und
flächenintegrierte Aktorik bietet. Wesentliche, bisher ungelöste Fragestellungen aktiver
SMA-FKV-Hybridverbunde werden in der vorliegenden Arbeit detailliert beleuchtet
und neue Lösungsansätze ausgearbeitet, um für einen zukünftigen industriellen
Einsatz die grundlegenden Voraussetzungen zu schaffen.
Um ein ganzheitliches Vorgehen zu gewährleisten, müssen offene Fragestellungen
im Bereich der Herstellung und simulativen Auslegung beantwortet werden. Die zentralen Fragen sind:
- Herstellung: Wie können zuverlässige aktive SMA-FKV-Hybridverbunde reproduzierbar
hergestellt werden?
- Simulation: Wie können aktive Komponenten aus SMA-FKV-Hybridverbund
auf Bauteilebene effizient ausgelegt werden?
Die Integrationsmethode des Herstellungsprozesses muss möglichst effizient die
Aufgaben Kraftübertragung zwischen SMA und FKV, elektronische Kontaktierung und Handling erfüllen. Dies wird mit einem innovativen Konzept, welches bei der
Kraftübertragung auf mechanische Verankerungen zwischen SMA-Elementen und
umgebendem FKV setzt, erreicht. Durch den Einsatz eines geschweißten SMAGitters
und lokal faserverstärkter Bereiche können die erforderlichen Aktorspannungen
übertragen werden. Weiterhin gewährleistet ein vorgefertigte SMA-Gitter einen
flexiblen Herstellungsprozess und ein reproduzierbares Herstellungsergebnis.
Zur Konzipierung einer optimalen Prozesstemperaturführung sind komplexe Randbedingungen
und auf den ersten Blick widersprüchliche Anforderungen aus den
etablierten Herstellungsprozessen von FKV-Materialien und dem thermisch sensiblen
SMA-Materialverhalten zu berücksichtigen. Eine Kalthärtung im ersten Schritt der
Hybridverbundherstellung aus duromerem FKV und SMA-Gitter erlaubt einen Verzicht
auf aufwendige Vorrichtungen zur Unterdrückung einer vorzeitigen Verformung
der SMA-Elemente. Eine weitere angepasste Temperung zur Erhöhung der Vernetzungsdichte
des duromeren Polymers verbessert die Leistungsfähigkeit zusätzlich,
wodurch die maximale Spitzenauslenkung (ohne äußere Last) bezogen auf die aktive
Länge einer Hybridstruktur von anfänglich 17 % auf mehr als 60 % gesteigert werden
kann.
Um eine simulative Abbildung dieser SMA-FKV-Hybridverbunde zur Auslegung aktiver
Komponenten einsetzen zu können, muss die Modellierung die notwendige Genauigkeit
liefern und effizient auf Bauteilskala einsetzbar sein. Das entwickelte Zustandslinien-
Modell des SMA-Materials wird diesen Anforderungen durch die Fokussierung
auf den Aktorikeffekt gerecht. Vorhergesagt werden kann damit der „aufgeheizte“
und „abgekühlte“ Zustand von Ein- und Zwei-Weg-Effekt-Materialien. Der Einfluss
der Steifigkeit der zu verformenden FKV-Komponente wird durch eine anwendungsnahe
Charakterisierung erfasst und fließt durch die analytische Beschreibung
der Zusammenhänge in das Modell ein. Konkrete Kennwerte stehen für ein Zwei-
Weg-Effekt-Material und zwei Ein-Weg-Effekt-Materialien mit unterschiedlicher Umwandlungstemperatur
und individueller Vordehnung (1,8 bis 6,3 %) zur Verfügung.
Durch die Beschreibung der gesamten Hybridverbunde mittels homogenisierter
Schalen in der Finiten-Elemente-Methode (FEM) kann auf die Abbildung der realen mikroskopischen Geometrie verzichtet werden und die Auslegung ganzer Komponenten
aus aktivem SMA-FKV-Hybridverbund wird ermöglicht.
Im Zuge der Validierung wird das experimentell bestimmte Aktorikverhalten mit der
simulativen Vorhersage abgeglichen. Da dieser Validierung die entwickelten Lösungen
in den Bereichen Herstellung und Simulation zugrunde liegen, verifiziert die erfolgreiche
Validierung die Anwendbarkeit der entwickelten Gesamtmethodik. Eine
gute Übereinstimmung kann bei Coupontests für Vordehnungen von bis zu 3 % sowie
für teilaktivierte Zustände der SMA-Elemente festgestellt werden.
Um zu verdeutlichen, wieso und unter welchen Randbindungen der Einsatz aktiver
SMA-FKV-Hybridverbunde technisch sinnvoll sein kann, werden verschiedene neuartige
Anwendungskonzepte beschrieben. Die wesentlichen Vorteile eines aktiven Hybridverbundes
gegenüber klassischer Aktorik-Struktur-Kombinationen werden durch
die abschließende Entwicklung eines aerodynamischen Profils als Demonstrator hervorgehoben.
Die wichtigsten Vorteile sind:
- Stark reduzierte Bauraumanforderungen
- Geringes Systemgewicht
- Große Designfreiheit
- Geschlossene kontinuierliche Oberfläche
- Geringer Montageaufwand
Der Demonstrator verdeutlicht außerdem, wie es mit den Ergebnissen dieser Arbeit
möglich ist, aktive Bauteile aus SMA-FKV-Hybridverbund im Hinblick auf eine konkrete
Anwendung systematisch und rechnergestützt auszulegen. Durch die entwickelte
Herstellungsmethodik können diese Hybridverbunde mit hoher Leistungsfähigkeit
bei minimalem Bauraum und geringer zusätzlicher Masse in reproduzierbarer
Qualität gefertigt werden. Neue innovative Funktionen, die sich nicht im Rahmen
klassischer Aktorikprinzipien realisieren lassen, werden umsetzbar und ermöglichen
signifikante Wertsteigerungen diverser Produkte.
In this thesis we developed a desynchronization design flow in the goal of easing the de- velopment effort of distributed embedded systems. The starting point of this design flow is a network of synchronous components. By transforming this synchronous network into a dataflow process network (DPN), we ensures important properties that are difficult or theoretically impossible to analyze directly on DPNs are preserved by construction. In particular, both deadlock-freeness and buffer boundedness can be preserved after desyn- chronization. For the correctness of desynchronization, we developed a criteria consisting of two properties: a global property that demands the correctness of the synchronous network, as well as a local property that requires the latency-insensitivity of each local synchronous component. As the global property is also a correctness requirement of synchronous systems in general, we take this property as an assumption of our desyn- chronization. However, the local property is in general not satisfied by all synchronous components, and therefore needs to be verified before desynchronization. In this thesis we developed a novel technique for the verification of the local property that can be carried out very efficiently. Finally we developed a model transformation method that translates a set of synchronous guarded actions – an intermediate format for synchronous systems – to an asynchronous actor description language (CAL). Our theorem ensures that one passed the correctness verification, the generated DPN of asynchronous pro- cesses (or actors) preserves the functional behavior of the original synchronous network. Moreover, by the correctness of the synchronous network, our theorem guarantees that the derived DPN is deadlock-free and can be implemented with only finitely bounded buffers.
In this thesis we developed a desynchronization design flow in the goal of easing the de- velopment effort of distributed embedded systems. The starting point of this design flow is a network of synchronous components. By transforming this synchronous network into a dataflow process network (DPN), we ensures important properties that are difficult or theoretically impossible to analyze directly on DPNs are preserved by construction. In particular, both deadlock-freeness and buffer boundedness can be preserved after desyn- chronization. For the correctness of desynchronization, we developed a criteria consisting of two properties: a global property that demands the correctness of the synchronous network, as well as a local property that requires the latency-insensitivity of each local synchronous component. As the global property is also a correctness requirement of synchronous systems in general, we take this property as an assumption of our desyn- chronization. However, the local property is in general not satisfied by all synchronous components, and therefore needs to be verified before desynchronization. In this thesis we developed a novel technique for the verification of the local property that can be carried out very efficiently. Finally we developed a model transformation method that translates a set of synchronous guarded actions – an intermediate format for synchronous systems – to an asynchronous actor description language (CAL). Our theorem ensures that one passed the correctness verification, the generated DPN of asynchronous pro- cesses (or actors) preserves the functional behavior of the original synchronous network. Moreover, by the correctness of the synchronous network, our theorem guarantees that the derived DPN is deadlock-free and can be implemented with only finitely bounded buffers.
A vehicles fatigue damage is a highly relevant figure in the complete vehicle design process.
Long term observations and statistical experiments help to determine the influence of differnt parts of the vehicle, the driver and the surrounding environment.
This work is focussing on modeling one of the most important influence factors of the environment: road roughness. The quality of the road is highly dependant on several surrounding factors which can be used to create mathematical models.
Such models can be used for the extrapolation of information and an estimation of the environment for statistical studies.
The target quantity we focus on in this work ist the discrete International Roughness Index or discrete IRI. The class of models we use and evaluate is a discriminative classification model called Conditional Random Field.
We develop a suitable model specification and show new variants of stochastic optimizations to train the model efficiently.
The model is also applied to simulated and real world data to show the strengths of our approach.
Messgeräte zur geometrischen Produktspezifikation werden mit Normalen nach DIN EN ISO 5436-1 und DIN EN ISO 25178-70 kalibriert. Dabei kommen meist künstliche Oberflächenstrukturen zum Einsatz. Aufgrund immer höherer Anforderungen ist für hochgenaue Messaufgaben allerdings eine praxisorientierte Kalibrierung erforderlich. Ein modellbasierter Ansatz zur Auslegung von Normalen, die eine solche praxisnahe Kalibrierung erlauben, wird im Rahmen dieser Arbeit ohne Einschränkung auf ein spezielles Messverfahren vorgestellt und untersucht. Dabei ermöglichen drei Säulen eine Verbesserung gegenüber konventionellen Normalen: die Berücksichtigung physikalischer Effekte bei der Messung, die Definition neuer Oberflächenstrukturen, als deren Ausgangspunkt reale Bauteiloberflächen dienen, sowie die Berücksichtigung fertigungstechnischer Effekte. Die neu generierten Normale werden mit virtuellen und realen Messungen auf ihren praktischen Einsatz hin untersucht. In diesem Rahmen werden auch neue Kalibrierstrategien, eine Unsicherheitsbilanz sowie ein allgemeiner Leitfaden zur Generierung von Normalen abgeleitet.
Automata theory has given rise to a variety of automata models that consist
of a finite-state control and an infinite-state storage mechanism. The aim
of this work is to provide insights into how the structure of the storage
mechanism influences the expressiveness and the analyzability of the
resulting model. To this end, it presents generalizations of results about
individual storage mechanisms to larger classes. These generalizations
characterize those storage mechanisms for which the given result remains
true and for which it fails.
In order to speak of classes of storage mechanisms, we need an overarching
framework that accommodates each of the concrete storage mechanisms we wish
to address. Such a framework is provided by the model of valence automata,
in which the storage mechanism is represented by a monoid. Since the monoid
serves as a parameter to specifying the storage mechanism, our aim
translates into the question: For which monoids does the given
(automata-theoretic) result hold?
As a first result, we present an algebraic characterization of those monoids
over which valence automata accept only regular languages. In addition, it
turns out that for each monoid, this is the case if and only if valence
grammars, an analogous grammar model, can generate only context-free
languages.
Furthermore, we are concerned with closure properties: We study which
monoids result in a Boolean closed language class. For every language class
that is closed under rational transductions (in particular, those induced by
valence automata), we show: If the class is Boolean closed and contains any
non-regular language, then it already includes the whole arithmetical
hierarchy.
This work also introduces the class of graph monoids, which are defined by
finite graphs. By choosing appropriate graphs, one can realize a number of
prominent storage mechanisms, but also combinations and variants thereof.
Examples are pushdowns, counters, and Turing tapes. We can therefore relate
the structure of the graphs to computational properties of the resulting
storage mechanisms.
In the case of graph monoids, we study (i) the decidability of the emptiness
problem, (ii) which storage mechanisms guarantee semilinear Parikh images,
(iii) when silent transitions (i.e. those that read no input) can be
avoided, and (iv) which storage mechanisms permit the computation of
downward closures.
The mechanical properties of semi-crystalline polymers depend extremely on their
morphology, which is dependent on the crystallization during processing. The aim of
this research is to determine the effect of various nanoparticles on morphology
formation and tensile mechanical properties of polypropylene under conditions
relevant in polymer processing and to contribute ultimately to the understanding of
this influence.
Based on the thermal analyses of samples during fast cooling, it is found that the
presence of nanoparticle enhances the overall crystallization process of PP. The results
suggest that an increase of the nucleation density/rate is a dominant process that
controls the crystallization process of PP in this work, which can help to reduce the
cycle time in the injection process. Moreover, the analysis of melting behaviors
obtained after each undercooling reveals that crystal perfection increases significantly
with the incorporation of TiO2 nanoparticles, while it is not influenced by the SiO2
nanoparticles.
This work also comprises an analysis of the influence of nanoparticles on the
microstructure of injection-molded parts. The results clearly show multi-layers along
the wall thickness. The spherulite size and the degree of crystallinity continuously
decrease from the center to the edge. Generally both the spherulite size and the degree
of crystallinity decrease with higher the SiO2 loading. In contrast, an increase in the
degree of crystallinity with an increasing TiO2 nanoparticle loading was detected.
The tensile properties exhibit a tendency to increase in the tensile strength as the core
is reached. The tensile strength decreases with the addition of nanoparticles, while the
elongation at break of nanoparticle-filled PP decreases from the skin to the core. With
increasing TiO2 loading, the elongation at break decreases.
Typically software engineers implement their software according to the design of the software
structure. Relations between classes and interfaces such as method-call relations and inheritance
relations are essential parts of a software structure. Accordingly, analyzing several types of
relations will benefit the static analysis process of the software structure. The tasks of this
analysis include but not limited to: understanding of (legacy) software, checking guidelines,
improving product lines, finding structure, or re-engineering of existing software. Graphs with
multi-type edges are possible representation for these relations considering them as edges, while
nodes represent classes and interfaces of software. Then, this multiple type edges graph can
be mapped to visualizations. However, the visualizations should deal with the multiplicity of
relations types and scalability, and they should enable the software engineers to recognize visual
patterns at the same time.
To advance the usage of visualizations for analyzing the static structure of software systems,
I tracked difierent development phases of the interactive multi-matrix visualization (IMMV)
showing an extended user study at the end. Visual structures were determined and classified
systematically using IMMV compared to PNLV in the extended user study as four categories:
High degree, Within-package edges, Cross-package edges, No edges. In addition to these structures
that were found in these handy tools, other structures that look interesting for software
engineers such as cycles and hierarchical structures need additional visualizations to display
them and to investigate them. Therefore, an extended approach for graph layout was presented
that improves the quality of the decomposition and the drawing of directed graphs
according to their topology based on rigorous definitions. The extension involves describing
and analyzing the algorithms for decomposition and drawing in detail giving polynomial time
complexity and space complexity. Finally, I handled visualizing graphs with multi-type edges
using small-multiples, where each tile is dedicated to one edge-type utilizing the topological
graph layout to highlight non-trivial cycles, trees, and DAGs for showing and analyzing the
static structure of software. Finally, I applied this approach to four software systems to show
its usefulness.
Im Rahmen dieser Arbeit wurden Möglichkeiten zur Steigerung der Querkrafttragfähigkeit von Stahlbetondecken mit integrierten Leitungen untersucht. Hierbei wurde der Einfluss auf die Tragfähigkeit von Wendeln um die Leitungen herum, der Einfluss von Gitterträgern in Elementdecken mit Leitungen, Gitterträger neben Leitungen als örtliche Zulagebewehrung und Unterstützungskörbe über Leitungen untersucht. Zudem wurden Versuche mit lokaler Verbundstörung der Biegebewehrung zur Vermeidung eines Biegeschubrisses im Bereich der Leitungen durchgeführt.
Die Wendel wird aus Betonstahl gebogen und mit handelsüblichen Betonabstandhaltern an der Leitung fixiert. Die Betondeckung zur Leitung soll sowohl die Kraftübertragung, als auch den Korrosionsschutz sicherstellen. In insgesamt 70 Bauteilversuchen wurden verschiedene Parameter variiert. Hierzu zählen der Leitungsdurchmesser, die Anzahl der Windungen der Wendel, der Stabdurchmesser der Wendel sowie die Lage der Öffnung im Bauteil. Mit relativ geringen Bewehrungsmengen konnte die Tragfähigkeit des ungeschwächten, unbewehrten Vollquerschnitts erreicht werden. Die Ergebnisse der Versuche führten abschließend zu einem an den Querkraftnachweis des Eurocode 2 angelehnten Bemessungsvorschlag, der die verschiedenen Einflussparameter der Wendel berücksichtigt.
Zur Untersuchung des Tragverhaltens von Elementdecken mit Gitterträgern und integrierten Leitungen in der Ortbetonergänzung wurde in 31 Versuchen der Querkraftbewehrungsgrad variiert. Der Öffnungsdurchmesser betrug dabei maximal 80 mm. Größere Leitungen können ohne Beschädigung der Diagonalen der Gitterträger nicht verbaut werden. Hierbei konnte eine Reduktion der Querkrafttragfähigkeit bezogen auf den ungeschwächten Querschnitt mit Gitterträgern festgestellt werden. Diese Reduktion wird in einem Bemessungskonzept durch Abminderung des Betontraganteils berücksichtigt. Ab einer Querkraft-bewehrungsmenge von ca. 11 cm²/m² konnte die Querkrafttragfähigkeit des unbewehrten Vollquerschnitts erreicht werden. Diese Bewehrungsmenge entspricht in etwa dem Mindestquerkraftbewehrungsgrad nach Eurocode 2.
Des Weiteren wurden Versuche an Elementdecken mit Gitterträgern neben bzw. Unterstützungskörben über Leitungen durchgeführt. Bei diesen Versuchen wurde sowohl der Fall des in das Fertigteil einbetonierten Bewehrungselements als auch der Fall des nachträglich auf die Fertigteilplatte aufgestellten Bewehrungselements untersucht. Die Versuchsergebnisse führten zu einem Bemessungsansatz, welcher an das Bemessungskonzept des Eurocode 2 anschließt. Durch zusätzliche Faktoren in Abhängigkeit des Bewehrungselements, Bewehrungsgrades und des Leitungs-durchmessers kann die Querkrafttragfähigkeit solcher Decken bemessen werden.
Eine lokale Verbundstörung der Biegebewehrung unterhalb der Öffnungen führt zu einer deutlich erhöhten Traglast. Ein Biegeschubversagen konnte in diesem Fall nicht herbeigeführt werden. Diese Versuche führen zwar zu keiner praxistauglichen Verstärkungsmethode, veranschaulichen aber sehr gut das Querkrafttragverhalten von Stahlbetondecken.
Im Rahmen dieser Arbeit konnten neue Konzepte zur regioselektiven Einführung von CF3, SCF3, und SCF2H-Gruppen entwickelt und neue konzeptionelle Perspektiven für die Entwicklung nachhaltiger Fluoralkylierungsreaktionen und Reagenzien eröffnet werden.
Im ersten Teilprojekt gelang es, praktische Eintopfverfahren zu entwickeln, mit denen Trifluormethyl- und Trifluormethylthiolgruppen selektiv in organische Moleküle eingeführt werden. Der maßgebliche Vorteil dieser Methoden ist, dass breit verfügbare aromatische Amine in situ diazotiert und ohne weitere Aufarbeitung weiter umgesetzt werden. Die vorteilhaften Reaktionsbedingungen wie z.B. Katalysatorbeladung, Raumtemperatur, und die hohe Toleranz gegenüber funktionellen Gruppen konnten beibehalten werden.
Im nächsten Teilprojekt wurde aufbauend auf dem Konzept der nukleophilen Difluormethylierung der Organothiocyanate Zugang zu wertvollen Difluormethylthioethern ermöglicht. Dabei werden die Organothiocyanate in situ in Reaktionslösung aus diversen Aryl- und Alkylhalogeniden und –pseudohalogeniden erzeugt, welche anschließend unter Einsatz von TMSCF2H difluormethyliert werden konnten. Der entscheidende Vorteil dieser Methode ist der Einsatz der nachhaltigen CF2H-Quelle, welche aus Fluoroform herstellbar ist.
In einem weiteren Teilpojekt erfolgte die Entwicklung eines Verfahrens zur Synthese von Trifluormethylthioethern. Dabei können Organothiocyanate unter Decarboxylierung von Trifluoracetaten in Anwesenheit von Eisenkatalysatoren leicht zu den korrespondierenden, wertvollen Trifluormethylthioethern umgesetzt werden. Die Anwendungsbreite konnte an zahlreichen aromatischen, heteroaromatischen und aliphatischen Organothiocyanaten demonstriert werden. In weiterführenden Arbeiten konnte dieses Reaktionskonzepts auf längerkettige perfluorierte Carboxylate erweitert werden.
In einem weiteren Teilprojekt wurde die Sandmeyer Pentafluorethylthiolierung mit Aryldiazoniumsalzen ermöglicht. Sie stellt einen weiteren alternativen Zugang zu den pentafluorethylierten Aromaten dar.
Im darauffolgenden Teilprojekt wurden alternative, nachhaltigere Synthesewege zu den gängigen elektrophilen SCF3-Reagenzien ausgehend von Me4NSCF3 mittels einfacher Salzmetatese realisiert. Besonders erwähnenswert hierbei ist, dass eine in situ Generierung dieser sensiblen Reagenzien die komplizierte Handhabung vereinfacht.
Im letzten Teilprojekt wurden sowohl elektrophile als auch nukleophile Reagenzien zur regioselektiven Einführung von Phosphorothioat-Gruppen entwickelt. Die Anwendungsmöglichkeiten wurden anhand kupferkatalysierten Sandmeyer Reaktion von Aryldiazoniumsalzen, einer palladiumkatalysierten Umsetzung von Aryliodiden und einer kupferkatalysierten Umsetzung von Arylboronsäuren gezeigt.
Zusammengefassend wurden in dieser Arbeit nachhaltige Methoden zur regioselektiven Einführung von CF3, SCF3, SCF2H und SP(O)(OMe)2-Gruppen entwickelt. Dabei wurde das Reaktionskonzept der Sandmeyer Reaktion angewandt. Die wesentlichen Vorteile dabei sind der Einsatz geringer Mengen der Kupferkatalysatoren, die milden Reaktionsbedingungen, sowie die hohe Toleranz gegenüber funktioneller Gruppen, wodurch sich diese Verfahren auch besonders in späten Synthesestufen anbietet.
Im Rahmen dieser Doktorarbeit wurden neue Konzepte zu nachhaltigen Transformationen entwickelt. Ein Schwerpunkt der bearbeiteten Themen lag dabei auf der Nutzung von Fettsäuren und ihrer Derivate als nachwachsende Rohstoffe. Ein weiterer Fokus lag auf Alkoxylierungen von terminalen Alkinen.
Im ersten Projekt wurde eine nachhaltige Methode zur Alkylverzeigung einer Fettsäurekette an ihrer Doppelbindung entwickelt. Alkylverzweigte Fettsäurederivate sind z.B. in Schmiermitteln, Kosmetika, Kunststoffen und Beschichtungen von hohem Interesse.
Die Reaktion verläuft in hohen Ausbeuten und unter milden Bedingungen. Der entscheidende Vorteil dieses neuen Prozesses ist, dass er auf leicht erhältlichem Linoleat anstatt auf präformiertem Konjuensäureester basiert. Diese Methode ermöglicht eine umweltfreundliche Einführung einer Alkylverzweigung in Fettsäurederivate.
Im zweiten Projekt dieser Doktorarbeit wurde eine selektive Hydrierung von Fettsäuren, Fettsäureestern und Triglyceriden entwickelt. Diese liefert einen Zugang zu langkettigen unsymmetrischen Alkylethern aus nachwachsenden Rohstoffen. Langkettige Alkylether haben aufgrund ihres niedrigeren Schmelzpunktes und der geringen Viskosität eine hohe Anwendungsbreite in Schmiermitteln, Tensiden und Kosmetika.
Dieses Protokoll ermöglicht, ausgehend von nachwachsenden Rohstoffen, eine nachhaltige Synthese von wertvollen langkettigen Ethern. Es konnten sowohl Fettsäuren als auch Ester in reiner Form oder auch in Mischungen umgesetzt werden. Auch Triglyceride aus Rapsöl wurden erfolgreich ohne weitere Aufreinigung umgesetzt.
Im letzten Teilprojekt dieser Arbeit wurde ein kostengünstiger Zugang zu biologisch aktiven (E)-β- Alkoxyacrylaten ermöglicht. Es wurde eine basenkatalysierte, metallfreie Alkoxylierung von terminalen Alkinen mittels einfacher Carbonate entwickelt.
Aromatische Alkine konnten schon bei Raumtemperatur umgesetzt werden. Die Bildung von Ketalen als Nebenprodukt konnte dabei nahezu vollständig unterdrückt werden. Aliphatische Alkine wurden bei 90 °C erfolgreich umgesetzt. Die Skalierbarkeit dieses Prozesses wurde durch eine 15 mmol Synthese und einer Ausbeute von 99 % demonstriert. Eine einfache Destillation des Reaktionsgemisches reichte als Aufreinigung aus. Die Anwendungsbreite der Reaktion konnte anhand zahlreicher repräsentativer Verbindungen demonstriert werden.
Neuartige supramolekulare Koordinationsverbindungen mit Cyclen- oder Cyclopeptiduntereinheiten
(2016)
Die vorliegende Arbeit greift in den beiden Hauptkapiteln die Rolle von Übergangsmetallionen bei der Entwicklung eines neuartigen Rezeptors, der Anionen unter Bildung von Kaskadenkomplexen binden soll und bei der Synthese von chiralen Koordinationspolymeren, die Cyclopeptidliganden enthalten, auf. In einem Nebenkapitel wird die Synthese und Struktur eines cyclischen Hexapeptids beschrieben, das dazu dient, Informationen über den Einfluss hydrophober Wechselwirkungen auf die Bindung von Sulfat- und Halogenidionen in wässriger Lösung zu erhalten. Ein molekularer Käfig aus zwei über vier Linker verknüpften, zink(II)haltigen Cyclenkomplexen wurde synthetisiert. Nach der Charakterisierung dieser Verbindung mit potentiometrischen und kristallographischen Methoden wurden Untersuchungen zur Evaluierung der Bindung dieses neuartigen Rezeptors an Anionen durchgeführt. Für den Aufbau von chiralen porösen Koordinationsnetzwerken wurde eine Reihe von cyclischen Tetrapeptiden als Liganden dargestellt. Diese Verbindungen wurden anschließend in Kristallisationsversuchen mit unterschiedlichen Übergangsmetallionen umgesetzt und die Struktur der drei erhaltenen cyclopeptidhaltigen Koordinationspolymere mit literaturbekannten Koordinationsverbindungen, welche die gleichen Metallionen enthalten, aber ohne Cyclopeptidliganden aufgebaut sind hinsichtlich ihrer Struktur verglichen. Um den Einfluss hydrophober Wechselwirkungen auf die Anionenbindung in wässriger Lösung zu untersuchen, wurde ein cyclisches Hexapeptid dargestellt, das im Vergleich zu einer bereits bekannten Cyclopeptidstruktur zusätzliche Cyclopropansubstituenten trägt, welche die hydrophoben Flächen im Molekül vergrößern. Rückschlüsse auf den Bindungsmechanismus an Halogenidionen und die Stöchiometrie der entstandenen Wirt-Gast Komplexe lieferten NMR- und ESI-Spektren.