Refine
Year of publication
- 2016 (157) (remove)
Document Type
- Doctoral Thesis (92)
- Periodical Part (15)
- Conference Proceeding (14)
- Article (10)
- Preprint (7)
- Part of a Book (5)
- Working Paper (5)
- Master's Thesis (3)
- Book (2)
- Bachelor Thesis (1)
Language
- English (81)
- German (75)
- Multiple languages (1)
Has Fulltext
- yes (157)
Keywords
- Stadtplanung (8)
- MINT (5)
- Mathematische Modellierung (5)
- Schule (4)
- Cache (3)
- SRAM (3)
- DRAM (2)
- Gentoxizität (2)
- Hochschulforschung (2)
- PIM (2)
Faculty / Organisational entity
- Kaiserslautern - Fachbereich Mathematik (28)
- Kaiserslautern - Fachbereich Informatik (25)
- Kaiserslautern - Fachbereich Chemie (17)
- Kaiserslautern - Fachbereich Elektrotechnik und Informationstechnik (17)
- Kaiserslautern - Fachbereich Maschinenbau und Verfahrenstechnik (17)
- Kaiserslautern - Fachbereich Sozialwissenschaften (14)
- Kaiserslautern - Fachbereich Raum- und Umweltplanung (12)
- Universität (7)
- Kaiserslautern - Fachbereich Bauingenieurwesen (6)
- Kaiserslautern - Fachbereich Biologie (5)
- Kaiserslautern - Fachbereich Physik (3)
- Kaiserslautern - Fachbereich Architektur (2)
- Universitätsbibliothek (2)
- Distance and Independent Studies Center (DISC) (1)
- Kaiserslautern - Fachbereich ARUBI (1)
3D integration of solid-state memories and logic, as demonstrated by the Hybrid Memory Cube (HMC), offers major opportunities for revisiting near-memory computation and gives new hope to mitigate the power and performance losses caused by the “memory wall”. In this paper we present the first exploration steps towards design of the Smart Memory Cube (SMC), a new Processor-in-Memory (PIM) architecture that enhances the capabilities of the logic-base (LoB) in HMC. An accurate simulation environment has been developed, along with a full featured software stack. All offloading and dynamic overheads caused by the operating system, cache coherence, and memory management are considered, as well. Benchmarking results demonstrate up to 2X performance improvement in comparison with the host SoC, and around 1.5X against a similar host-side accelerator. Moreover, by scaling down the voltage and frequency of PIM’s processor it is possible to reduce energy by around 70% and 55% in comparison with the host and the accelerator, respectively.
A counter-based read circuit tolerant to process variation for low-voltage operating STT-MRAM
(2016)
The capacity of embedded memory on LSIs has kept increasing. It is important to reduce the leakage power of embedded memory for low-power LSIs. In fact, the ITRS predicts that the leakage power in embedded memory will account for 40% of all power consumption by 2024 [1]. A spin transfer torque magneto-resistance random access memory (STT-MRAM) is promising for use as non-volatile memory to reduce the leakage power. It is useful because it can function at low voltages and has a lifetime of over 1016 write cycles [2]. In addition, the STT-MRAM technology has a smaller bit cell than an SRAM. Making the STT-MRAM is suitable for use in high-density products [3–7]. The STT-MRAM uses magnetic tunnel junction (MTJ). The MTJ has two states: a parallel state and an anti-parallel state. These states mean that the magnetization direction of the MTJ’s layers are the same or different. The directions pair determines the MTJ’s magneto- resistance value. The states of MTJ can be changed by the current flowing. The MTJ resistance becomes low in the parallel state and high in the anti-parallel state. The MTJ potentially operates at less than 0.4 V [8]. In other hands, it is difficult to design peripheral circuitry for an STT-MRAM array at such a low voltage. In this paper, we propose a counter-based read circuit that functions at 0.4 V, which is tolerant of process variation and temperature fluctuation.
This thesis presents a novel, generic framework for information segmentation in document images.
A document image contains different types of information, for instance, text (machine printed/handwritten), graphics, signatures, and stamps.
It is necessary to segment information in documents so that to process such segmented information only when required in automatic document processing workflows.
The main contribution of this thesis is the conceptualization and implementation of an information segmentation framework that is based on part-based features.
The generic nature of the presented framework makes it applicable to a variety of documents (technical drawings, magazines, administrative, scientific, and academic documents) digitized using different methods (scanners, RGB cameras, and hyper-spectral imaging (HSI) devices).
A highlight of the presented framework is that it does not require large training sets, rather a few training samples (for instance, four pages) lead to high performance, i.e., better than previously existing methods.
In addition, the presented framework is simple and can be adapted quickly to new problem domains.
This thesis is divided into three major parts on the basis of document digitization method (scanned, hyper-spectral imaging, and camera captured) used.
In the area of scanned document images, three specific contributions have been realized.
The first of them is in the domain of signature segmentation in administrative documents.
In some workflows, it is very important to check the document authenticity before processing the actual content.
This can be done based on the available seal of authenticity, e.g., signatures.
However, signature verification systems expect pre-segmented signature image, while signatures are usually a part of document.
To use signature verification systems on document images, it is necessary to first segment signatures in documents.
This thesis shows that the presented framework can be used to segment signatures in administrative documents.
The system based on the presented framework is tested on a publicly available dataset where it outperforms the state-of-the-art methods and successfully segmented all signatures, while less than half of the found signatures are false positives.
This shows that it can be applied for practical use.
The second contribution in the area of scanned document images is segmentation of stamps in administrative documents.
A stamp also serves as a seal for documents authenticity.
However, the location of stamp on the document can be more arbitrary than a signature depending on the person sealing the document.
This thesis shows that a system based on our generic framework is able to extract stamps of any arbitrary shape and color.
The evaluation of the presented system on a publicly available dataset shows that it is also able to segment black stamps (that were not addressed in the past) with a recall and precision of 83% and 73%, respectively.
%Furthermore, to segment colored stamps, this thesis presents a novel feature set which is based on intensity gradient, is able to extract unseen, colored, arbitrary shaped, textual as well as graphical stamps, and outperforms the state-of-the-art methods.
The third contribution in the scanned document images is in the domain of information segmentation in technical drawings (architectural floorplans, maps, circuit diagrams, etc.) containing usually a large amount of graphics and comparatively less textual components. Further, as in technical drawings, text is overlapping with graphics.
Thus, automatic analysis of technical drawings uses text/graphics segmentation as a pre-processing step.
This thesis presents a method based on our generic information segmentation framework that is able to detect the text, which is touching graphical components in architectural floorplans and maps.
Evaluation of the method on a publicly available dataset of architectural floorplans shows that it is able to extract almost all touching text components with precision and recall of 71% and 95%, respectively.
This means that almost all of the touching text components are successfully extracted.
In the area of hyper-spectral document images, two contributions have been realized.
Unlike normal three channels RGB images, hyper-spectral images usually have multiple channels that range from ultraviolet to infrared regions including the visible region.
First, this thesis presents a novel automatic method for signature segmentation from hyper-spectral document images (240 spectral bands between 400 - 900 nm).
The presented method is based on a part-based key point detection technique, which does not use any structural information, but relies only on the spectral response of the document regardless of ink color and intensity.
The presented method is capable of segmenting (overlapping and non-overlapping) signatures from varying backgrounds like, printed text, tables, stamps, logos, etc.
Importantly, the presented method can extract signature pixels and not just the bounding boxes.
This is substantial when signatures are overlapping with text and/or other objects in image. Second, this thesis presents a new dataset comprising of 300 documents scanned using a high-resolution hyper-spectral scanner. Evaluation of the presented signature segmentation method on this hyper-spectral dataset shows that it is able to extract signature pixels with the precision and recall of 100% and 79%, respectively.
Further contributions have been made in the area of camera captured document images. A major problem in the development of Optical Character Recognition (OCR) systems for camera captured document images is the lack of labeled camera captured document images datasets. In the first place, this thesis presents a novel, generic, method for automatic ground truth generation/labeling of document images. The presented method builds large-scale (i.e., millions of images) datasets of labeled camera captured / scanned documents without any human intervention. The method is generic and can be used for automatic ground truth generation of (scanned and/or camera captured) documents in any language, e.g., English, Russian, Arabic, Urdu. The evaluation of the presented method, on two different datasets in English and Russian, shows that 99.98% of the images are correctly labeled in every case.
Another important contribution in the area of camera captured document images is the compilation of a large dataset comprising 1 million word images (10 million character images), captured in a real camera-based acquisition environment, along with the word and character level ground truth. The dataset can be used for training as well as testing of character recognition systems for camera-captured documents. Various benchmark tests are performed to analyze the behavior of different open source OCR systems on camera captured document images. Evaluation results show that the existing OCRs, which already get very high accuracies on scanned documents, fail on camera captured document images.
Using the presented camera-captured dataset, a novel character recognition system is developed which is based on a variant of recurrent neural networks, i.e., Long Short Term Memory (LSTM) that outperforms all of the existing OCR engines on camera captured document images with an accuracy of more than 95%.
Finally, this thesis provides details on various tasks that have been performed in the area closely related to information segmentation. This includes automatic analysis and sketch based retrieval of architectural floor plan images, a novel scheme for online signature verification, and a part-based approach for signature verification. With these contributions, it has been shown that part-based methods can be successfully applied to document image analysis.
Die Forschung zum amerikanischen Exzeptionalismus als Teil der kollektiven
Identität der USA lässt eine systematische Einordnung der
exzeptionellen Selbstzuschreibungen der USA im Kontext militärischer
Interventionspolitik bisher weitgehend vermissen. Basierend auf den beiden
grundlegenden Dimensionen einer exemplarischen und einer missionarischen
Selbstzuschreibung werden in dieser Studie vier Idealtypen
des amerikanischen Exzeptionalismus gebildet, die als ideationales Analyseraster
der amerikanischen Interventionspolitik dienen können. Ausgehend
von der Doppelfunktion des amerikanischen Exzeptionalismus
als Movens außenpolitischer Präferenzen und als strategische Legitimationsgrundlage
wird in einem historisch angeleiteten Vergleich gezeigt,
dass Elemente dieser vier Idealtypen die außenpolitischen Traditionen
der USA maßgeblich (mit)geprägt haben. Zur weiteren Einordnung des
amerikanischen Exzeptionalismus in den außenpolitischen Präferenzbildungsprozess
der USA wird in einem zweiten Schritt die ideationale Variante
der liberalen Außenpolitiktheorie nach Andrew Moravcsik um den
Faktor der politischen Kommunikation ergänzt. Der amerikanische
Exzeptionalismus dient dem Präsidenten dabei als narrativer Diskursrahmen
außenpolitischer Interpretations- und Deutungsangebote, mit denen
er die Öffentlichkeit zu mobilisieren und den Kongress von seinen
außenpolitischen Absichten zu überzeugen versucht. In diesem Zusammenhang
gilt: Je kongruenter die außenpolitischen Deutungsangebote
mit dem Narrativ des amerikanischen Exzeptionalismus, desto wirkmächtiger
ihre Bedeutung für den gesellschaftlichen Diskurs der USA
über Außenpolitik. Entgegen den Annahmen der liberalen Außenpolitiktheorie
zeigt sich, dass der Präsident als Strategic Narrator des amerikanischen
Exzeptionalismus die Öffentlichkeit nicht nur repräsentieren,
sondern auch zu seinen Gunsten mobilisieren kann.
For some optimization problems on a graph \(G=(V,E)\), one can give a general formulation: Let \(c\colon E \to \mathbb{R}_{\geq 0}\) be a cost function on the edges and \(X \subseteq 2^E\) be a set of (so-called feasible) subsets of \(E\), one aims to minimize \(\sum_{e\in S} c(e)\) among all feasible \(S\in X\). This formulation covers, for instance, the shortest path problem by choosing \(X\) as the set of all paths between two vertices, or the minimum spanning tree problem by choosing \(X\) to be the set of all spanning trees. This bachelor thesis deals with a parametric version of this formulation, where the edge costs \(c_\lambda\colon E \to \mathbb{R}_{\geq 0}\) depend on a parameter \(\lambda\in\mathbb{R}_{\geq 0}\) in a concave and piecewise linear manner. The goal is to investigate the worst case minimum size of a so-called representation system \(R\subseteq X\), which contains for each scenario \(\lambda\in\mathbb{R}_{\geq 0}\) an optimal solution \(S(\lambda)\in R\). It turns out that only a pseudo-polynomial size can be ensured in general, but smaller systems have to exist in special cases. Moreover, methods are presented to find such small systems algorithmically. Finally, the notion of a representation system is relaxed in order to get smaller (i.e. polynomial) systems ensuring a certain approximation ratio.
This thesis is concerned with a phase field model for martensitic transformations in metastable austenitic steels. Within the phase field approach an order parameter is introduced to indicate whether the present phase is austenite or martensite. The evolving microstructure is described by the evolution of the order parameter, which is assumed to follow the time-dependent Ginzburg-Landau equation. The elastic phase field model is enhanced in two different ways to take further phenomena into account. First, dislocation movement is considered by a crystal plasticity setting. Second, the elastic model for martensitic transformations is combined with a phase field model for fracture. Finite element simulations are used to study the single effects separately which contribute to the microstructure formation.
Buses not arriving on time and then arriving all at once - this phenomenon is known from
busy bus routes and is called bus bunching.
This thesis combines the well studied but so far separate areas of bus-bunching prediction
and dynamic holding strategies, which allow to modulate buses’ dwell times at stops to
eliminate bus bunching. We look at real data of the Dublin Bus route 46A and present
a headway-based predictive-control framework considering all components like data
acquisition, prediction and control strategies. We formulate time headways as time series
and compare several prediction methods for those. Furthermore we present an analytical
model of an artificial bus route and discuss stability properties and dynamic holding
strategies using both data available at the time and predicted headway data. In a numerical
simulation we illustrate the advantages of the presented predictive-control framework
compared to the classical approaches which only use directly available data.
This study presents an energy-efficient ultra-low voltage standard-cell based memory in 28nm FD-SOI. The storage element (standard-cell latch) is replaced with a full- custom designed latch with 50 % less area. Error-free operation is demonstrated down to 450mV @ 9MHz. By utilizing body bias (BB) @ VDD = 0.5 V performance spans from 20 MHz @ BB=0V to 110MHz @ BB=1V.
Advanced Nursing Practice
(2016)
Der demografische Wandel stellt insbesondere die Gesundheitsversorgung vor große Her-
ausforderungen. Immer mehr ältere, chronisch erkrankte und häufig multimorbide Menschen
stehen immer weniger jüngeren Menschen gegenüber, die sowohl als pflegende Angehörige
als auch als Pflegefachpersonen, Ärzt_innen oder Angehörige anderer Gesundheitsberufe
für die Sicherstellung der pflegerisch-medizinischen Versorgung zur Verfügung stehen. Das an der Hochschule Ludwigshafen am Rhein angesiedelte Teilprojekt „EB – Entwicklung
durch Bildung – Pflege und Gesundheit“ fokussiert sowohl auf die Entwicklung eines hoch-
schulischen Bildungsangebots für Pflegefachpersonen, als auch auf die Konzeption eines
Modells erweiterter gemeindenaher Pflegepraxis für die Region Westpfalz.
Stochastic Network Calculus (SNC) emerged from two branches in the late 90s:
the theory of effective bandwidths and its predecessor the Deterministic Network
Calculus (DNC). As such SNC’s goal is to analyze queueing networks and support
their design and control.
In contrast to queueing theory, which strives for similar goals, SNC uses in-
equalities to circumvent complex situations, such as stochastic dependencies or
non-Poisson arrivals. Leaving the objective to compute exact distributions behind,
SNC derives stochastic performance bounds. Such a bound would, for example,
guarantee a system’s maximal queue length that is violated by a known small prob-
ability only.
This work includes several contributions towards the theory of SNC. They are
sorted into four main contributions:
(1) The first chapters give a self-contained introduction to deterministic net-
work calculus and its two branches of stochastic extensions. The focus lies on the
notion of network operations. They allow to derive the performance bounds and
simplifying complex scenarios.
(2) The author created the first open-source tool to automate the steps of cal-
culating and optimizing MGF-based performance bounds. The tool automatically
calculates end-to-end performance bounds, via a symbolic approach. In a second
step, this solution is numerically optimized. A modular design allows the user to
implement their own functions, like traffic models or analysis methods.
(3) The problem of the initial modeling step is addressed with the development
of a statistical network calculus. In many applications the properties of included
elements are mostly unknown. To that end, assumptions about the underlying
processes are made and backed by measurement-based statistical methods. This
thesis presents a way to integrate possible modeling errors into the bounds of SNC.
As a byproduct a dynamic view on the system is obtained that allows SNC to adapt
to non-stationarities.
(4) Probabilistic bounds are fundamentally different from deterministic bounds:
While deterministic bounds hold for all times of the analyzed system, this is not
true for probabilistic bounds. Stochastic bounds, although still valid for every time
t, only hold for one time instance at once. Sample path bounds are only achieved by
using Boole’s inequality. This thesis presents an alternative method, by adapting
the theory of extreme values.
(5) A long standing problem of SNC is the construction of stochastic bounds
for a window flow controller. The corresponding problem for DNC had been solved
over a decade ago, but remained an open problem for SNC. This thesis presents
two methods for a successful application of SNC to the window flow controller.
The recently established technologies in the areas of distributed measurement and intelligent
information processing systems, e.g., Cyber Physical Systems (CPS), Ambient
Intelligence/Ambient Assisted Living systems (AmI/AAL), the Internet of Things
(IoT), and Industry 4.0 have increased the demand for the development of intelligent
integrated multi-sensory systems as to serve rapid growing markets [1, 2]. These increase
the significance of complex measurement systems, that incorporate numerous advanced
methodological implementations including electronics circuit, signal processing,
and multi-sensory information fusion. In particular, in multi-sensory cognition applications,
to design such systems, the skill-required tasks, e.g., method selection, parameterization,
model analysis, and processing chain construction are elaborated with immense
effort, which conventionally are done manually by the expert designer. Moreover, the
strong technological competition imposes even more complicated design problems with
multiple constraints, e.g., cost, speed, power consumption,
exibility, and reliability.
Thus, the conventional human expert based design approach may not be able to cope
with the increasing demand in numbers, complexity, and diversity. To alleviate the issue,
the design automation approach has been the topic for numerous research works [3-14]
and has been commercialized to several products [15-18]. Additionally, the dynamic
adaptation of intelligent multi-sensor systems is the potential solution for developing
dependable and robust systems. Intrinsic evolution approach and self-x properties [19],
which include self-monitoring, -calibrating/trimming, and -healing/repairing, are among
the best candidates for the issue. Motivated from the ongoing research trends and based
on the background of our research work [12, 13] among the pioneers in this topic, the
research work of the thesis contributes to the design automation of intelligent integrated
multi-sensor systems.
In this research work, the Design Automation for Intelligent COgnitive system with self-
X properties, the DAICOX, architecture is presented with the aim of tackling the design
effort and to providing high quality and robust solutions for multi-sensor intelligent
systems. Therefore, the DAICOX architecture is conceived with the defined goals as
listed below.
Perform front to back complete processing chain design with automated method
selection and parameterization,
Provide a rich choice of pattern recognition methods to the design method pool,
Associate design information via interactive user interface and visualization along
with intuitive visual programming,
Deliver high quality solutions outperforming conventional approaches by using
multi-objective optimization,
Gain the adaptability, reliability and robustness of designed solutions with self-x
properties,
Derived from the goals, several scientific methodological developments and implementations,
particularly in the areas of pattern recognition and computational intelligence,
will be pursued as part of the DAICOX architecture in the research work of this thesis.
The method pool is aimed to contain a rich choice of methods and algorithms covering
data acquisition and sensor configuration, signal processing and feature computation,
dimensionality reduction, and classification. These methods will be selected and parameterized
automatically by the DAICOX design optimization to construct a multi-sensory
cognition processing chain. A collection of non-parametric feature quality assessment
functions for the purpose of Dimensionality Reduction (DR) process will be presented.
In addition, to standard DR methods, the variations of feature selection method, in
particular, feature weighting will be proposed. Three different classification categories
shall be incorporated in the method pool. Hierarchical classification approach will be
proposed and developed to serve as a multi-sensor fusion architecture at the decision
level. Beside multi-class classification, one-class classification methods, e.g., One-Class
SVM and NOVCLASS will be presented to extend functionality of the solutions, in particular,
anomaly and novelty detection. DAICOX is conceived to effectively handle the
problem of method selection and parameter setting for a particular application yielding
high performance solutions. The processing chain construction tasks will be carried
out by meta-heuristic optimization methods, e.g., Genetic Algorithms (GA) and Particle
Swarm Optimization (PSO), with multi-objective optimization approach and model
analysis for robust solutions. In addition, to the automated system design mechanisms,
DAICOX will facilitate the design tasks with intuitive visual programming and various
options of visualization. Design database concept of DAICOX is aimed to allow the
reusability and extensibility of the designed solutions gained from previous knowledge.
Thus, the cooperative design of machine and knowledge from the design expert can also
be utilized for obtaining fully enhanced solutions. In particular, the integration of self-x
properties as well as intrinsic optimization into the system is proposed to gain enduring
reliability and robustness. Hence, DAICOX will allow the inclusion of dynamically
reconfigurable hardware instances to the designed solutions in order to realize intrinsic
optimization and self-x properties.
As a result from the research work in this thesis, a comprehensive intelligent multisensor
system design architecture with automated method selection, parameterization,
and model analysis is developed with compliance to open-source multi-platform software.It is integrated with an intuitive design environment, which includes visual programming
concept and design information visualizations. Thus, the design effort is minimized as
investigated in three case studies of different application background, e.g., food analysis
(LoX), driving assistance (DeCaDrive), and magnetic localization. Moreover, DAICOX
achieved better quality of the solutions compared to the manual approach in all cases,
where the classification rate was increased by 5.4%, 0.06%, and 11.4% in the LoX,
DeCaDrive, and magnetic localization case, respectively. The design time was reduced
by 81.87% compared to the conventional approach by using DAICOX in the LoX case
study. At the current state of development, a number of novel contributions of the thesis
are outlined below.
Automated processing chain construction and parameterization for the design of
signal processing and feature computation.
Novel dimensionality reduction methods, e.g., GA and PSO based feature selection
and feature weighting with multi-objective feature quality assessment.
A modification of non-parametric compactness measure for feature space quality
assessment.
Decision level sensor fusion architecture based on proposed hierarchical classification
approach using, i.e., H-SVM.
A collection of one-class classification methods and a novel variation, i.e.,
NOVCLASS-R.
Automated design toolboxes supporting front to back design with automated
model selection and information visualization.
In this research work, due to the complexity of the task, neither all of the identified goals
have been comprehensively reached yet nor has the complete architecture definition been
fully implemented. Based on the currently implemented tools and frameworks, ongoing
development of DAICOX is pursuing towards the complete architecture. The potential
future improvements are the extension of method pool with a richer choice of methods
and algorithms, processing chain breeding via graph based evolution approach, incorporation
of intrinsic optimization, and the integration of self-x properties. According to
these features, DAICOX will improve its aptness in designing advanced systems to serve
the increasingly growing technologies of distributed intelligent measurement systems, in
particular, CPS and Industrie 4.0.
Advantage of Filtering for Portfolio Optimization in Financial Markets with Partial Information
(2016)
In a financial market we consider three types of investors trading with a finite
time horizon with access to a bank account as well as multliple stocks: the
fully informed investor, the partially informed investor whose only source of
information are the stock prices and an investor who does not use this infor-
mation. The drift is modeled either as following linear Gaussian dynamics
or as being a continuous time Markov chain with finite state space. The
optimization problem is to maximize expected utility of terminal wealth.
The case of partial information is based on the use of filtering techniques.
Conditions to ensure boundedness of the expected value of the filters are
developed, in the Markov case also for positivity. For the Markov modulated
drift, boundedness of the expected value of the filter relates strongly to port-
folio optimization: effects are studied and quantified. The derivation of an
equivalent, less dimensional market is presented next. It is a type of Mutual
Fund Theorem that is shown here.
Gains and losses eminating from the use of filtering are then discussed in
detail for different market parameters: For infrequent trading we find that
both filters need to comply with the boundedness conditions to be an advan-
tage for the investor. Losses are minimal in case the filters are advantageous.
At an increasing number of stocks, again boundedness conditions need to be
met. Losses in this case depend strongly on the added stocks. The relation
of boundedness and portfolio optimization in the Markov model leads here to
increasing losses for the investor if the boundedness condition is to hold for
all numbers of stocks. In the Markov case, the losses for different numbers
of states are negligible in case more states are assumed then were originally
present. Assuming less states leads to high losses. Again for the Markov
model, a simplification of the complex optimal trading strategy for power
utility in the partial information setting is shown to cause only minor losses.
If the market parameters are such that shortselling and borrowing constraints
are in effect, these constraints may lead to big losses depending on how much
effect the constraints have. They can though also be an advantage for the
investor in case the expected value of the filters does not meet the conditions
for boundedness.
All results are implemented and illustrated with the corresponding numerical
findings.
Software is becoming increasingly concurrent: parallelization, decentralization, and reactivity necessitate asynchronous programming in which processes communicate by posting messages/tasks to others’ message/task buffers. Asynchronous programming has been widely used to build fast servers and routers, embedded systems and sensor networks, and is the basis of Web programming using Javascript. Languages such as Erlang and Scala have adopted asynchronous programming as a fundamental concept with which highly scalable and highly reliable distributed systems are built.
Asynchronous programs are challenging to implement correctly: the loose coupling between asynchronously executed tasks makes the control and data dependencies difficult to follow. Even subtle design and programming mistakes on the programs have the capability to introduce erroneous or divergent behaviors. As asynchronous programs are typically written to provide a reliable, high-performance infrastructure, there is a critical need for analysis techniques to guarantee their correctness.
In this dissertation, I provide scalable verification and testing tools to make asyn- chronous programs more reliable. I show that the combination of counter abstraction and partial order reduction is an effective approach for the verification of asynchronous systems by presenting PROVKEEPER and KUAI, two scalable verifiers for two types of asynchronous systems. I also provide a theoretical result that proves a counter-abstraction based algorithm called expand-enlarge-check, is an asymptotically optimal algorithm for the coverability problem of branching vector addition systems as which many asynchronous programs can be modeled. In addition, I present BBS and LLSPLAT, two testing tools for asynchronous programs that efficiently uncover many subtle memory violation bugs.
Alkylcyclopentadienylchrom(II)-Verbindungen und Stickstoffkomplexe des Molybdäns und Wolframs
(2016)
Der Einsatz von Chrom(II)acetat als Ausgangsverbindung führte in einer Reaktion mit Na\( ^4 \)Cp zum dimeren, Acetato-verbrückten Tetraisopropylcyclopentadienylchrom(II)-Halbsandwich-komplex [\( ^4Cp \)Cr(OAc)]\( _2 \) 13.
Die sehr gut zugängliche Verbindung 13 wurde auf ihre Reaktivität untersucht und als Startmaterial für die Herstellung weiterer Chromverbindungen eingesetzt. Der Tetraisopropylcyclopentadienylchrom(II)-Halbsandwichkomplex 13 ergab bei der Reduktion mit Kalium in einer Stickstoffatmosphäre den zweikernigen Nitrido-Komplex [\( ^4Cp \)Cr(N)]\( _2 \) und bei der Substitution mit Cyanid das quadratische Tetramer [\( ^4Cp \)Cr(CN)]\( _4 \).
Mit anderen Reaktionspartnern wie z. B. den Pseudohalogeniden Azid und Cyanid wurden dagegen unvollständige Umsetzungen beobachtet, die den Wunsch nach einer besser geeigneten Ausgangsverbindung weckten. Dies gelang durch den Einsatz von Trimethylhalogensilanen, welche die Acetato-Liganden von 13 gegen Chlorid, Bromid, Iodid und im Falle des Trimethylsilylesters der Trifluormethansulfonsäure auch gegen Trifluormethansulfonat austauschen.
Die Reduktion der Halbsandwichkomplexe des Typs [\( ^RCp \)MoCl\( _4 \)] mit Kalium in Gegenwart ungesättigter Ringsysteme (Toluol, Cycloheptatrien oder Cyclooctatetraen) knüpfte an die noch unveröffentlichten Ergebnisse mit Cyclopentadienylnickel- und eisenverbindungen an und erbrachte folgendes Resultat: Während die Formeln der Reaktionsprodukte [\( ^RCp \)Mo\( _2 \)(Ring)] zur Interpretation als Tripeldecker-Sandwichkomplexe mit einem Ringsystem als Mitteldeck zwischen den beiden Metallatomen einluden, gaben die Massenspektren Hinweise auf eine Reaktivität, die dazu nicht passt.
Die unter Argon hergestellte Verbindung musste am Spektrometer aus messtechnischen Gründen unter Stickstoff gehandhabt werden und die Spektren gaben Hinweise auf den Einbau von Stickstoff.
An Adaptive and Dynamic Simulation Framework for Incremental, Collaborative Classifier Fusion
(2016)
Abstract. To investigate incremental collaborative classifier fusion techniques, we have developed a comprehensive simulation framework. It is highly flexible and customizable, and can be adapted to various settings and scenarios. The toolbox is realized as an extension to the NetLogo multi-agent based simulation environment using its comprehensive Java- API. The toolbox has been integrated in two di↵erent environments, one for demonstration purposes and another, modeled on persons using re- alistic motion data from Zurich, who are communicating in an ad hoc fashion using mobile devices.
The main theme of this thesis is the interplay between algebraic and tropical intersection
theory, especially in the context of enumerative geometry. We begin by exploiting
well-known results about tropicalizations of subvarieties of algebraic tori to give a
simple proof of Nishinou and Siebert’s correspondence theorem for rational curves
through given points in toric varieties. Afterwards, we extend this correspondence
by additionally allowing intersections with psi-classes. We do this by constructing
a tropicalization map for cycle classes on toroidal embeddings. It maps algebraic
cycle classes to elements of the Chow group of the cone complex of the toroidal
embedding, that is to weighted polyhedral complexes, which are balanced with respect
to an appropriate map to a vector space, modulo a naturally defined equivalence relation.
We then show that tropicalization respects basic intersection-theoretic operations like
intersections with boundary divisors and apply this to the appropriate moduli spaces
to obtain our correspondence theorem.
Trying to apply similar methods in higher genera inevitably confronts us with moduli
spaces which are not toroidal. This motivates the last part of this thesis, where we
construct tropicalizations of cycles on fine logarithmic schemes. The logarithmic point of
view also motivates our interpretation of tropical intersection theory as the dualization
of the intersection theory of Kato fans. This duality gives a new perspective on the
tropicalization map; namely, as the dualization of a pull-back via the characteristic
morphism of a logarithmic scheme.
Der vorliegende Arbeits- und Forschungsbericht bietet eine Handreichung für Studiengangsentwickler_innen, um sie bei der Erstellung von Kompetenzprofilen zu unterstützen. Zu diesem Zweck werden drei verschiedene Tools der Kompetenzprofilerstellung vorgestellt. Diese umfassen die Stellenanzeigenanalyse, den Curriculumabgleich und Lehrendeninterviews. Diese Tools haben sich als sehr nützlich für die Entwicklung von kompetenzorientierten Studiengängen erwiesen. Die drei Verfahren werden einander gegenübergestellt und Implikationen für die Praxis abgeleitet. Dieser Bericht soll dazu beitragen, bedarfsorientierte Weiterbildungsangebote für die Region zu gestalten.
Annual Report 2015
(2016)
Annual Report, Jahrbuch AG Magnetismus
The energy efficiency of today’s microcontrollers is supported by the extensive usage of low-power mechanisms. A full power-down requires in many cases a complex, and maybe error prone, administration scheme, because data from the volatile memory have to be stored in a flash based back- up memory. New types of non-volatile memory, e.g. in RRAM technology, are faster and consumes a fraction of the energy compared to flash technology. This paper evaluates power gating for WSN with RRAM as back-up memory.
In this paper, we discuss the problem of approximating ellipsoid uncertainty sets with bounded (gamma) uncertainty sets. Robust linear programs with ellipsoid uncertainty lead to quadratically constrained programs, whereas robust linear programs with bounded uncertainty sets remain linear programs which are generally easier to solve.
We call a bounded uncertainty set an inner approximation of an ellipsoid if it is contained in it. We consider two different inner approximation problems. The first problem is to find a bounded uncertainty set which sticks close to the ellipsoid such that a shrank version of the ellipsoid is contained in it. The approximation is optimal if the required shrinking is minimal. In the second problem, we search for a bounded uncertainty set within the ellipsoid with maximum volume. We present how both problems can be solved analytically by stating explicit formulas for the optimal solutions of these problems.
Further, we present in a computational experiment how the derived approximation techniques can be used to approximate shortest path and network flow problems which are affected by ellipsoidal uncertainty.
Three-dimensional (3D) integration using through- silicon via (TSV) has been used for memory designs. Content addressable memory (CAM) is an important component in digital systems. In this paper, we propose an evaluation tool for 3D CAMs, which can aid the designer to explore the delay and power of various partitioning strategies. Delay, power, and energy models of 3D CAM with respect to different architectures are built as well.
Interconnected, autonomously driving cars shall realize the vision of a zero-accident, low energy mobility in spite of a fast increasing traffic volume. Tightly interconnected medical devices and health care systems shall ensure the health of an aging society. And interconnected virtual power plants based on renewable energy sources shall ensure a clean energy supply in a society that consumes more energy than ever before. Such open systems of systems will play an essential role for economy and society.
Open systems of systems dynamically connect to each other in order to collectively provide a superordinate functionality, which could not be provided by a single system alone. The structure as well as the behavior of an open system of system dynamically emerge at runtime leading to very flexible solutions working under various different environmental conditions. This flexibility and adaptivity of systems of systems are a key for realizing the above mentioned scenarios.
On the other hand, however, this leads to uncertainties since the emerging structure and behavior of a system of system can hardly be anticipated at design time. This impedes the indispensable safety assessment of such systems in safety-critical application domains. Existing safety assurance approaches presume that a system is completely specified and configured prior to a safety assessment. Therefore, they cannot be applied to open systems of systems. In consequence, safety assurance of open systems of systems could easily become a bottleneck impeding or even preventing the success of this promising new generation of embedded systems.
For this reason, this thesis introduces an approach for the safety assurance of open systems of systems. To this end, we shift parts of the safety assurance lifecycle into runtime in order to dynamically assess the safety of the emerging system of system. We use so-called safety models at runtime for enabling systems to assess the safety of an emerging system of system themselves. This leads to a very flexible runtime safety assurance framework.
To this end, this thesis describes the fundamental knowledge on safety assurance and model-driven development, which are the indispensable prerequisites for defining safety models at runtime. Based on these fundamentals, we illustrate how we modularized and formalized conventional safety assurance techniques using model-based representations and analyses. Finally, we explain how we advanced these design time safety models to safety models that can be used by the systems themselves at runtime and how we use these safety models at runtime to create an efficient and flexible runtime safety assurance framework for open systems of systems.
Der Beitrag beschäftigt sich mit der Frage, ob Schildkröten alleine anhand der Musterung bzw. Struktur ihres Bauch- Rückenpanzers eindeutig identifiziert werden können. Dabei sollen sinnvolle Identifizierungsmerkmale entwickelt werden, die auf der Basis von Fotos ausgewertet werden. Das Besondere an diesem Problem ist, dass es mit Lernenden ganz unterschiedlicher Altersstufen bearbeitet werden kann und dass es eine unheimliche Vielfalt an mathematischen Methoden gibt, die auf dem Weg zu einer Lösung hilfreich sind: Dies reicht von einfachen geometrischen Überlegungen über Analysis (Integration, Kurvendiskussion) bis hin zu mathematischer Bildverarbeitung und Fragen der Robustheit. Genauso breit wie das Spektrum der einsetzbaren mathematischen Werkzeuge ist die Altergruppe, mit der ein derartiges Projekt durchführbar ist: Vom Grundschulalter bis hin zur Masterarbeit ist eine Bearbeitung möglich, und die benötigte Zeitspanne reicht von wenigen Stunden bis hin zu mehreren Monaten. Im Beitrag wird die angesprochene Vielfalt exemplarisch gezeigt, so dass die Leser im Idealfall das Projekt genau an die Bedürfnisse ihrer Lerngruppe anpassen können.
Bedingt durch den Zusammenstoß zweier Objekte im Crashlastfall existieren im Bereich
des Güter- und Personentransports eine Vielzahl an Konzepten und Mechanismen
für einen kontrollierten Abbau der kinetischen Impactenergie unter äußerer
Druckbelastung. Im Gegensatz dazu ist der Wissensstand für eine Energieabsorption
unter äußerer Zugbelastung vergleichsweise gering. Für den Anwendungsfall in einer
modernen Flugzeugrumpfstruktur aus kohlenstofffaserverstärktem Kunststoff (CFK),
deren Crashkinematik eine Integration von zugbelasteten Energieabsorberelementen
ermöglicht, liefert diese Arbeit sowohl eine Entscheidungsgrundlage für eine Vorauswahl
durch einen methodischen Vergleich zugbelasteter Absorberkonzepte als
auch Methoden für eine Vorauslegung entsprechender Absorberelemente.
Im Rahmen dieser Arbeit wird eine Vielzahl möglicher, zugbelasteter Energieabsorberkonzepte
erarbeitet und detailliert untersucht. Die Bewertung der Absorberkonzepte
unter den Gesichtspunkten Leichtbaupotenzial (Gewicht, Integrationsmöglichkeiten),
Robustheit und Funktionsweise erfolgt anhand charakteristischer Absorberkennwerte,
wie gewichtsspezifische Energieabsorption, effektive Geometrie- und
Lastausnutzung, Lastschwankung sowie Einfluss von Temperatur und Lastrate auf das Energieabsorptionsvermögen. Dabei lassen sich die Absorberkonzepte in die
Kategorien Materialien und Strukturen unter globaler Zugbelastung unterteilen.
Auf Materialebene, welche die unterste Betrachtungsebene für eine Energieabsorption
unter Zugbelastung darstellt, wird das Energieabsorptionsvermögen typischer
Leichtbauwerkstoffe unter Zugbelastung bestimmt. Der zugrunde liegende Energieabsorptionsmechanismus
der plastischen Deformation von Materialien bietet aufgrund
der vergleichsweise einfachen konstruktiven Lösung ein hohes Leichtbaupotenzial.
Hauptnachteil ist jedoch die fehlende Einstellbarkeit sowie die direkte Abhängigkeit
der Absorbercharakteristik vom mechanischen Verhalten der betrachteten
Werkstoffklasse, was sich, bedingt durch die Bruchdehnung, bei gegebenem Bauraum
in der Beschränkung der maximalen Absorptionslänge widerspiegelt.
Die Strukturebene bildet eine weitere Betrachtungsebene für eine Energieabsorption
unter Zugbelastung. Hier werden Absorberelemente unter globaler Zugbelastung
sowie unter lokaler Druckbelastung, die über eine entsprechende Lastumleitung in
eine globale Zugbelastung überführt werden kann, untersucht. Letztere bieten jedoch
nur für den Fall einer Integration in vorhandene Strukturen ein ausreichend hohes Leichtbaupotenzial, um mit Materialien oder rein zugbelasteten Absorberelementen
zu konkurrieren. Im Vergleich zu einfachen Materialien unter Zugbelastung zeichnen
sich Absorberelemente auf Strukturebene durch eine generelle Einstellbarkeit der
Absorbercharakteristik sowie eine höhere Flexibilität in der Auslegung aus.
Den Schwerpunkt dieser Arbeit bildet die Untersuchung eines Energieabsorberkonzepts
basierend auf dem progressiven Lochleibungsversagen von Faser-Kunststoff-
Verbunden (FKV), das sich nicht nur durch eine hohe gewichtsspezifische Energieabsorption,
sondern auch durch eine annähernd ideale Absorbercharakteristik sowie
eine potenzielle Integration in eine Nietverbindung der betrachteten Flugzeugrumpfstruktur
aus CFK auszeichnet. Vor dem Hintergrund der Vorauslegung dieses Absorberelements
werden der Einfluss des Faser- und Matrixmaterials, der Faserorientierung
und -architektur, der Lastrate (200 mm/min bis 3 m/s) und Temperatur
(-20 °C bis 60 °C) sowie geometrischer Parameter wi e Plattendicke und Bolzendurchmesser
in einer experimentellen Studie analysiert. Für spröde FKV stellt sich
ein kontrolliert ablaufendes progressives Versagen als Kombination aus Transversalschub
und Laminatbiegung ein. Die Bildung eines Fragmentkeils vor dem Bolzen begünstigt
zudem den Anteil der Reibung an der Gesamtenergieabsorption.
Auf Basis der experimentellen Daten wird ein analytischer Ansatz zur Vorhersage der
sich einstellenden mittleren Deformationskraft entwickelt. Dieser vereinfachte, energetische
Ansatz ermöglicht unter Verwendung materieller (Biegefestigkeit, Reibungseigenschaften,
intra- und interlaminare Bruchenergie) sowie geometrischer
(Fragmentkeil) Parameter den linearen Zusammenhang zwischen mittlerer Deformationskraft
und Bolzendurchmesser bzw. den nichtlinearen Zusammenhang zwischen
mittlerer Deformationskraft und Plattendicke abzubilden.
Die generelle Eignung numerischer Berechnungsmethoden für eine Vorhersage des
progressiven Lochleibungsversagens wird für eine industrielle Anwendung mittels
geeigneter Modellierungsansätze in der kommerziellen, expliziten Berechnungssoftware
Abaqus/Explicit untersucht. Dies geschieht auf Basis von konventionellen intraund
interlaminaren Materialmodellen für gewebeverstärkte FKV. Mit den gezeigten
Modellansätzen lässt sich das generelle Deformationsverhalten des FKV abbilden.
Aufgrund der starken Vereinfachung der in der Schädigungszone vor dem Bolzen
ablaufenden Mechanismen sowie der unrealistisch frühen interlaminaren Schädigung
lassen sich die nichtlinearen Zusammenhänge zwischen mittlerer Deformationskraft
und Plattendicke jedoch nur bedingt abbilden.
Beim Bauen im Bestand werden häufig neue Stahlbetonbauteile kraftschlüssig an bestehende Tragstrukturen angeschlossen. Dies wird bei Ortbetonbauteilen günstig mit dem Übergreifungsstoß realisiert.
Bis Ende der 1950-er Jahre wurden im Stahlbetonbau überwiegend glatte Betonstähle verwendet, bevor sie mit einer Übergangszeit bis Ende der 1970-er Jahre von den heute eingesetzten gerippten Betonstählen abgelöst wurden. Im Gegensatz zu den seit 1925 genormten Übergreifungsstößen mit Betonstählen gleicher Art und Güte sind kombinierte Übergreifungsstöße von Glatt- und Rippenstählen jedoch bis heute nicht geregelt.
Zur Beseitigung dieses Defizits wurden im Rahmen dieser Arbeit differenzierte Bewehrungsregeln hergeleitet, die wissenschaftlich abgesicherte und gleichzeitig wirtschaftliche Lösungen für kombinierte Übergreifungsstöße ermöglichen, denn unter Einbeziehung des Rückbaus bestehender Altbetonsubstanz verlangt eine ökonomische Bauweise für Übergreifungsstöße von freigelegten historischen Glattstählen mit aktuell verwendeten Rippenstählen nach Vollstößen mit kleinstmöglichen Übergreifungslängen. Dabei sind die Anforderungen nach heute gültigem Regelwerk an die Zuverlässigkeit gegen Versagen im Grenzzustand der Tragfähigkeit (GZT) und die Sicherstellung der vorgegebenen Nutzung durch Begrenzung der Rissbreiten im Grenzzustand der Gebrauchstauglichkeit (GZG) zu beachten.
Für verschiedene kombinierte Übergreifungsstöße von mit Endhaken versehenen glatten Betonstählen BStI und gerippten Betonstählen B500 mit geraden Stabenden oder Endhaken wurden die erforderlichen Übergreifungslängen anhand systematisch aufgebauter Versuchsreihen empirisch ermittelt. Dabei wurde ein grundlegendes Verständnis für die Tragwirkung kombinierter Übergreifungsstöße gewonnen und ein allgemeingültiges Lastübertragungsmodell erarbeitet.
Zur Bemessung kombinierter Übergreifungsstöße wurde weiter ein Ingenieurmodell abgeleitet, welches die Tragwirkung derartiger Stöße zuverlässig beschreibt und die experimentell ermittelten Übergreifungslängen bestätigt. Dabei wurde unter Berücksichtigung der für den Verbund maßgebenden Betonzugfestigkeit, der Stahlspannungen und den Stabdurchmessern auf Basis statistischer Methoden ein Bemessungsdiagramm für die erforderliche Übergreifungslänge bestimmter Stoßkombinationen erarbeitet und eine ergänzende FE-Modellierung durchgeführt.
Darauf aufbauend werden allgemeingültige Gleichungen zur Ermittlung der Bemessungswerte der Übergreifungslängen kombinierter Übergreifungsstöße mit Glattstahl BStI und Rippenstahl B500 angegeben und Konstruktionsregeln für in der Praxis regelmäßig vorkommende Kombinationen von Stabdurchmessern, Betongüten und Verbundbedingungen erarbeitet, die für Kombi-Stöße gleichwertig zu den Regeln des EC2 für den Neubaufall angewendet werden können.
To continue reducing voltage in scaled technologies, both circuit and architecture-level resiliency techniques are needed to tolerate process-induced defects, variation, and aging in SRAM cells. Many different resiliency schemes have been proposed and evaluated, but most prior results focus on voltage reduction instead of energy reduction. At the circuit level, device cell architectures and assist techniques have been shown to lower Vmin for SRAM, while at the architecture level, redundancy and cache disable techniques have been used to improve resiliency at low voltages. This paper presents a unified study of error tolerance for both circuit and architecture techniques and estimates their area and energy overheads. Optimal techniques are selected by evaluating both the error-correcting abilities at low supplies and the overheads of each technique in a 28nm. The results can be applied to many of the emerging memory technologies.
Congress Report 2015.11-12
(2016)
Congress Report 2016.01-04
(2016)
Congress Report 2016.05-08
(2016)
Congress Report 2016.09-10
(2016)
Congress Report 2016.11-12
(2016)
The biodiversity of the cyanobacterial lichen flora of Vietnam is chronically understudied. Previous studies often neglected the lichens that inhabit lowlands especially outcrops and sand dunes that are common habitats in Vietnam.
A cyanolichen collection was gathered from lowlands of central and southern Vietnam to study their diversity and distribution. At the same time, cultured photobionts from those lichens were used for olyphasic taxonomic approach.
A total of 66 cyanolichens were recorded from lowland regions in central and southern of Vietnam, doubles the number of cyanolichens for Vietnam. 80% of them are new records for Vietnam in which a new species Pyrenopsis melanophthalma and two new unidentified lichinacean taxa were described.
A notably floristic segregation by habitats was indicated in the communities. Saxicolous Lichinales dominated in coastal outcrops that corresponded to 56% of lichen species richness. Lecanoralean cyanolichens and basidiolichens were found in the lowland forests. Precipitation correlated negatively to species richness in this study, indicating a competitive relationship.
Eleven cyanobacterial strains including 8 baeocyte-forming members of the genus Chroococcidiopsis and 3 heterocyte-forming species of the genera Nostoc and Scytonema were successfully isolated from lichens.
Phylogenetic and morphological analyses indicated that Chroococcidiopsis was the unique photobiont in Peltula. New mophological characters were found in two Chroococcidiopsis strains: (1) the purple content of cells in one photobiont strain that was isolated from a new lichinacean taxon, and (2) the pseudofilamentous feature by binary division from a strain that was isolated from Porocyphus dimorphus.
With respect to heterocyte-forming cyanobiont, Scytonema was confirmed as the photobiont in the ascolichen Heppia lutosa applying the polyphasic method. The genus Scytonema in the basidiolichens Cyphellostereum was morphologically examinated in lichen thalli. For the first time the intracellular haustorial system of basidiolichen genus Cyphellostereum was noted and investigated.
Phylogenetic analysis of photobiont strains Nostoc from Pannaria tavaresii and Parmeliella brisbanensis indicated that a high selectivity occurred in Parmeliella brisbanensis that were from different regions of the world, while low photobiont selectivity occurred among Pannaria tavaresii samples from different geographical regions.
The herewith presented dissertation is therefore an important contribution to the lichen flora of Vietnam and a significant improvement of the actual knowledge about cyanolichens in this country.
Wie entwickelte sich der europäische Stadtblock von der Antike bis in die Gegenwart und was bedeutet er heute für den urbanen Raum? Dies sind die zentralen Fragestellungen dieser Arbeit. Aufbauend auf den methodischen Werkzeugen der diachronischen und synchronischen Linien nach Carl E. Schorske, mit deren Hilfe parallele Entwicklungsströme zwischen Architektur und Gesellschaft aufgezeigt werden können, sowie dem Prinzip der Paradigmenwechsel nach Thomas S. Kuhn, welches den Übergang eines Gedankenmodells zum nächsten mittels revolutionären Vorgängen beschreibt, wird die Chronik des europäischen Stadtblocks auf die Korrelation zwischen Gebautem und Gedachtem analysiert. Der Fokus liegt hierbei auf der Entwicklung und den Eigenschaften des urbanen Stadtblocks innerhalb der europäischen Stadt. Dieser definiert sich über das Dreigespann »Straße – Haus – Hof« als zusammenhängendes, städtebauliches Konstrukt, welches von öffentlichem Raum umgeben ist und einen gemeinschaftlichen Raum einschließt.
Die Evolution des Stadtblocks entlang der gesellschaftlichen Entwicklungen führt unweigerlich in die Gegenwart. Auf diesem Weg lädt sich der Block mit epochenspezifischen Inhalten auf, welche er kontinuierlich weiterführt. So erfährt er aus der Antike den sozialen Grundgedanken der Gemeinschaft. Mit dem gesellschaftlichen Paradigmenwechsel der aufkommenden Bürgerlichkeit erhält der Stadtblock im Mittelalter eine wirtschaftliche Komponente auf Grundlage der Multifunktionalität. Aufklärung und Absolutismus überführen die Typologie schließlich in die Renaissance und den Barock, aus denen wiederum ein repräsentativer Charakter sowie ein grundlegendes städtebauliches Prinzip resultiert. Die politischen, sozialen wie technischen Revolutionen der Neuzeit geben dem Stadtblock einen programmatischen Charakter, da er nicht nur zum Programm erhoben, sondern gleichzeitig auch Grundtyp der gegenwärtigen Blockbebauungen wird. Die Weltkriege sowie die Abkehr vom traditionellen Stadtbild lassen die Planer von der Blocktypologie abkommen hin zu einem vom Kontext gelösten, aufgelockerten Städtebau der Moderne. Hieraus entsteht weniger ein städtebaulicher Mehrwert für den Block, durchaus aber ein funktionaler im Hinblick auf Bautechnik und Organisation. Die Auswirkungen der autogerechten und funktionalen Stadt bewirken den Paradigmenwechsel zur Nachmoderne, in welcher Multifunktionalität und Dichte erneut zum Leitbild des Baugeschehens erhoben werden.
Am Ende der Untersuchung erweist sich die These der Korrelation zwischen Gebautem und Gedachtem als belegt. Wenn sich Gesellschaft und Architektur nun von der Antike an parallel entwickelten, so ist es nur folgerichtig anzunehmen, dass der Stadtblock als kontinuierlich gewachsenes Konstrukt auch eine Analogie zur Gesellschaft der Gegenwart darstellen kann. Als regressiver Stadtbaustein, also als Typologie, die dank ihrer fortdauernden Weiterentwicklung die Bedingung vom Bedingten abzuleiten vermag, ist es dem Stadtblock möglich auf die immanenten Inhalte seines Werdeganges zurückzugreifen und diese gleich der Gesellschaft für die Gegenwart und Zukunft zu nutzen.
Der unmögliche Freistoß
(2016)
Die Autoren befassen sich mit der Ableitung und Bearbeitung eines Modellierungsprojektes aus der populären Sportart Fußball: Ein Freistoß wird unter Beachtung der gegebenen physikalischen Effekte mathematisch modelliert und simuliert. Der Fokus liegt auf der möglichen Durchführung dieses Modellierungsprojekts mit Schülerinnen und Schülern der Sekundarstufe II.
Multiple-channel die-stacked DRAMs have been used for maximizing the performance and minimizing the power of memory access in 2.5D/3D system chips. Stacked DRAM dies can be used as a cache for the processor die in 2.5D/3D system chips. Typically, modern processor system-on-chips (SOCs) have three-level caches, L1, L2, and L3. Could the DRAM cache be used to replace which level of caches? In this paper, we derive an inequality which can aid the designer to check if the designed DRAM cache can provide better performance than the L3 cache. Also, design considerations of DRAM caches for meet the inequality are discussed. We find that a dilemma of the DRAM cache access time and associativity exists for providing better performance than the L3 cache. Organizing multiple channels into a DRAM cache is proposed to cope with the dilemma.
Thermoplastic composite materials are being widely used in the automotive and aerospace industries. Due to the limitations of shape complexity, different components
need to be joined. They can be joined by mechanical fasteners, adhesive bonding or
both. However, these methods have several limitations. Components can be joined
by fusion bonding due to the property of thermoplastics. Thermoplastics can be melted on heating and regain their shape on cooling. This property makes them ideal for
joining through fusion bonding by induction heating. Joining of non-conducting or
non-magnetic thermoplastic composites needs an additional material that can generate heat by induction heating.
Polymers are neither conductive nor electromagnetic so they don’t have inherent potential for inductive heating. A susceptor sheet having conductive materials (e.g. carbon fiber) or magnetic materials (e.g. nickel) can generate heat during induction. The
main issues related with induction heating are non-homogeneous and uncontrolled
heating.
In this work, it was observed that to generate heat with a susceptor sheet depends
on its filler, its concentration, and its dispersion. It also depends on the coil, magnetic
field strength and coupling distance. The combination of different fillers not only increased the heating rate but also changed the heating mechanism. Heating of 40ºC/
sec was achieved with 15wt.-% nickel coated short carbon fibers and 3wt.-% multiwalled carbon nanotubes. However, only nickel coated short carbon fibers (15wt-.%)
attained the heating rate of 24ºC/ sec. In this study, electrical conductivity, thermal
conductivity and magnetic properties testing were also performed. The results also
showed that electrical percolation was achieved around 15wt.-% in fibers and (13-
6)wt.-% with hybrid fillers. Induction heating tests were also performed by making
parallel and perpendicular susceptor sheet as fibers were uni-directionally aligned.
The susceptor sheet was also tested by making perforations.
The susceptor sheet showed homogeneous and fast heating, and can be used for
joining of non-conductive or non-magnetic thermoplastic composites.
Dual-Pivot Quicksort and Beyond: Analysis of Multiway Partitioning and Its Practical Potential
(2016)
Multiway Quicksort, i.e., partitioning the input in one step around several pivots, has received much attention since Java 7’s runtime library uses a new dual-pivot method that outperforms by far the old Quicksort implementation. The success of dual-pivot Quicksort is most likely due to more efficient usage of the memory hierarchy, which gives reason to believe that further improvements are possible with multiway Quicksort.
In this dissertation, I conduct a mathematical average-case analysis of multiway Quicksort including the important optimization to choose pivots from a sample of the input. I propose a parametric template algorithm that covers all practically relevant partitioning methods as special cases, and analyze this method in full generality. This allows me to analytically investigate in depth what effect the parameters of the generic Quicksort have on its performance. To model the memory-hierarchy costs, I also analyze the expected number of scanned elements, a measure for the amount of data transferred from memory that is known to also approximate the number of cache misses very well. The analysis unifies previous analyses of particular Quicksort variants under particular cost measures in one generic framework.
A main result is that multiway partitioning can reduce the number of scanned elements significantly, while it does not save many key comparisons; this explains why the earlier studies of multiway Quicksort did not find it promising. A highlight of this dissertation is the extension of the analysis to inputs with equal keys. I give the first analysis of Quicksort with pivot sampling and multiway partitioning on an input model with equal keys.
Der gewerkschaftliche Bildungsträger ver.di Bildung + Beratung (im Folgenden: ver.di b+b) ist auf die Qualifizierung von gesetzlichen Interessenvertretungen spezialisiert und eng mit der Gewerkschaft ver.di verbunden. Die größte Zielgruppe sind Mitglieder von Betriebsratsgremien. Die Bildungsarbeit von ver.di b+b wird durch die rechtlichen Rahmenbedingungen, einen gewerkschaftspolitischen Anspruch und einen pädagogischen Auftrag beeinflusst: Betriebsratsmitglieder haben nach dem Betriebsverfassungsgesetz (BetrVG) einen Freistellungsanspruch für den Besuch von Schulungen. Damit sie teilnehmen können, müssen die Schulungen verschiedene rechtliche Vorgaben erfüllen. Gewerkschaftliche Bildung versteht sich als politische Bildung, was ebenfalls Einfluss auf die inhaltliche, pädagogische und organisatorische Gestaltung hat. Im Leitbild von ver.di b+b wird der pädagogische Anspruch des Bildungsträgers deutlich: Die Schulungen sollen handlungs- und teilnehmerorientiert sein und die Teilnehmenden persönlich, fachlich, sozial und politisch stärken. Diese drei Aspekte sind zu berücksichtigen, wenn es um die Frage nach den geeigneten Lernformen für Betriebsratsschulungen geht. Bis jetzt bietet ver.di b+b seine Seminare ausschließlich in Form von Präsenzveranstaltungen an. E-Learning-Angebote gibt es nicht. Das steht im Widerspruch zu der allgemeinen gesellschaftlichen Bedeutung des Internets.
Anhand einer empirischen Untersuchung gibt die Arbeit eine Einschätzung zu dem Bedarf von E-Learning-Angeboten im Bereich der gewerkschaftlichen Bildungsarbeit mit Betriebsräten aus Sicht der Teilnehmenden von ver.di b+b.
Während der Maillard-Reaktion entsteht eine Vielzahl an Verbindungen, die neben
antioxidativen oder antikanzerogenen Effekten auch adverse Eigenschaften aufweisen
können. Das Ziel dieser Arbeit war daher zum einen die Charakterisierung der zellulären
Effekte von Lebensmittelextrakten aus den traditionellen chinesischen Lebensmitteln
Peking Ente (PE) und Jinhua Schinken (JS). In den Extrakten JS und PE konnten u. a. die
Lebensmittelkontaminante Acrylamid (AA) identifiziert werden. Das B-Vitamin Niacin führte
in Lebensmittelsystemen bereits zu einer Reduktion des AA-Gehalts unter Entstehung eines
Acrylamid-Niacin-Addukts (ANA). Da die Reaktionspartner AA und Niacin natürlicherweise
während der Kaffeeröstung entstehen, wurde die Hypothese formuliert, dass auch ANA
während der Kaffeeröstung gebildet werden könnte. Dies konnte mittels LC/MS-Analyse
bestätigt werden. Somit liegt eine Aufnahme von ANA über Kaffee im Rahmen des
Möglichen und eine Niacin-Supplementierung könnte sich als effektive Möglichkeit
erweisen, um den AA-Gehalt bei der Zubereitung von Lebensmitteln zu senken. Bevor
jedoch diese Methode in Betracht gezogen werden kann, ist ein Nachweis der
gesundheitlichen Unbedenklichkeit von ANA insbesondere im Vergleich zu AA notwendig.
Aufgrund der strukturellen Ähnlichkeit zu N-Methylpyridinium (NMP), einem möglichen
Nrf2-Aktivator, wurde angenommen, dass ANA ebenfalls den Nrf2/ARE-Signalweg
aktivieren könnte. Der Schwerpunkt der Untersuchungen in HT29 Zellen wurde dabei auf
Zytotoxizität, pro- und antioxidative Eigenschaften, Gentoxizität und Beeinflussung des
Nrf2-Signalwegs gelegt. JS zeigte in den verwendeten Testsystemen kaum zelluläre
Wirkungen, mit Ausnahme der schwachen DNA-schädigenden Wirkung und des stärkeren
Effekts auf die UGT1A1-Transkription, die jedoch keine Schutzwirkung gegenüber eines
Menadion-induzierten oxidativen Stresses gezeigt hatte. PE induzierte (oxidative) DNASchäden
und ROS, in dessen Folge vermutlich die Erhöhung des redoxsensitiven Gens
UGT1A1 sowie die Hemmung der Zellproliferation zu erklären ist. Eine Beeinflussung des
Nrf2-Signalwegs sowie eine antioxidative Wirkung konnte nach Inkubation mit ANA nicht
beobachtet werden. Jedoch führte die Bindung von AA an das B-Vitamin Niacin zu einem
Addukt mit verminderten DNA-schädigenden und zytotoxischen Eigenschaften im Vergleich
zu AA.
Emerging Memories (EMs) could benefit from Error Correcting Codes (ECCs) able to correct few errors in a few nanoseconds. The low latency is necessary to meet the DRAM- like and/or eXecuted-in-Place requirements of Storage Class Memory devices. The error correction capability would help manufacturers to cope with unknown failure mechanisms and to fulfill the market demand for a rapid increase in density. This paper shows the design of an ECC decoder for a shortened BCH code with 256-data-bit page able to correct three errors in less than 3 ns. The tight latency constraint is met by pre-computing the coefficients of carefully chosen Error Locator Polynomials, by optimizing the operations in the Galois Fields and by resorting to a fully parallel combinatorial implementation of the decoder. The latency and the area occupancy are first estimated by the number of elementary gates to traverse, and by the total number of elementary gates of the decoder. Eventually, the implementation of the solution by Synopsys topographical synthesis methodology in 54nm logic gate length CMOS technology gives a latency lower than 3 ns and a total area less than \(250 \cdot 10^3 \mu m^2\).
In this paper, we show the feasibility of low supply voltage for SRAM (Static Random Access Memory) by adding error correction coding (ECC). In SRAM, the memory matrix needs to be powered for data retentive standby operation, resulting in standby leakage current. Particularly for low duty- cycle systems, the energy consumed due to standby leakage current can become significant. Lowering the supply voltage (VDD) during standby mode to below the specified data retention voltage (DRV) helps decrease the leakage current. At these VDD levels errors start to appear, which we can remedy by adding ECC. We show in this paper that addition of a simple single error correcting (SEC) ECC enables us to decrease the leakage current by 45% and leakage power by 72%. We verify this on a large set of commercially available standard 40nm SRAMs.
Die Möller-Plesset Störungstheorie ist die einfachste ab-initio Methode zur Berechnung der Korrelationsenergie. Durch die Verwendung von zweikomponentigen Spinoren wird sichergestellt, dass relativistische Effekte wie z.B. die Spin-Bahn-Wechselwirkung berücksichtigt werden, die besonders auf die Eigenschaften schwerer Elemente einen großen Einfluss besitzen. Die bisher vorhandenen MP2-Programme berücksichtigten entweder keine relativistischen Effekte oder bauten auf weiteren Näherungsmethoden auf. Ziel der Doktorarbeit war, dass in meiner Diplomarbeit entworfene tcmp2-Programm durch die Entwicklung einer geeigneten Parallelisierung so weiterzuentwickeln, dass auch größere Übergangsmetallkomplexe damit berechnet werden können.
Das fertige Programm wurde anschließend zur Untersuchung der Elektronenaffinität ausgewählter Superhalogeniden sowie der Nullfeldaufspaltung spezieller Rheniumkomplexe verwendet.
In der vorliegenden Arbeit wurde ein glasfaserverstärkter Rotor für einen Elektromotor
entwickelt, welcher bei elektrisch angetriebenen Fahrzeugen verwendet werden
soll. Ziel ist eine kostengünstige Serienversion des Motors auf Basis eines bereits
bestehenden Baumusters. Im Wesentlichen waren dabei zwei Anforderungsfelder zu
erfüllen.
Als erstes mussten Verformungsrestriktionen unter Betriebslast eingehalten werden.
Es wurde ein Finite-Elemente-(FE-) Modell erstellt, wobei eine Schnittstelle zwischen
der Prozesssimulation der Fertigung und dem FE-Modell geschrieben wurde, um die
Informationen zum Lagenaufbau zu transferieren. Sowohl in der Analytik als auch in
der numerischen Simulation hat sich gezeigt, dass bei der im Betrieb auftretenden
Fliehkraft die gewünschte Verformung nur mit Hilfe der zu verwendenden Glasfaser
nicht eingehalten werden kann. Daraufhin wurde ein Konzept entwickelt, um die
Verformung mittels einer adaptiven Steuerung mit Formgedächtnislegierungen zu
begrenzen. Zunächst wurden Konzepte entwickelt, wie die Formgedächtnislegierung
in Drahtform an den Rotor angebunden werden kann. Die Konzepte wurden experimentell
überprüft, wobei gleichzeitig das Verhalten der Formgedächtnislegierung
ermittelt wurde, um daraus ein numerisches Simulationsmodell zu entwickeln,
welches mit dem Modell des Rotors verknüpft wurde. Dabei zeigte sich, dass dieses
Konzept das Verformungsverhalten positiv beeinflusst und in Abhängigkeit von der
verwendeten Menge die Verformungsrestriktion eingehalten werden kann.
Als zweites Anforderungsfeld wurde die Lasteinleitung zwischen dem Rotor und der
Abtriebswelle ausgelegt. Dafür wurde ein Konzept für eine Verschraubung als
Sonderform einer Bolzenverbindung erarbeitet, bei denen ein Gewinde in der
dickwandigen glasfaserverstärkten Kunststoff (GFK-) Struktur des Rotors mittels insitu-
Herstellung eingebracht wird. Um die Vor- und Nachteile eines solchen geformten
Gewindes gegenüber einer geschnittenen Variante zu ermitteln, wurden umfangreiche
quasistatische Versuche und zyklische Lebensdauerversuche an zwei verschiedenen
Laminaten und zwei verschiedenen Gewindetypen durchgeführt. Gemessen
wurde jeweils die (Ermüdungs-) Festigkeit bei axialer Kraft und bei Scherkraft.
Dabei zeigte sich, dass bei quasistatischer axialer Belastung die geformten
Gewinde im Mittel eine geringere Festigkeit aufweisen als die geschnittene Variante.Bei der für den Anwendungsfall relevanteren Scherbelastung konnten im Mittel
jedoch Festigkeitssteigerungen gemessen werden. Bei der Ermüdungsfestigkeit
waren die Vorteile abhängig von dem geprüften Lastniveau. Die Wöhlerlinien bei den
geformten Gewinden haben im Mittel einen deutlich flacheren Verlauf. Für die
meisten Vergleichspaare bedeutet dies, dass die geschnittene Variante bei sehr
hohen Lastniveaus beim Einstufenversuch eine größere Versagensschwingspielzahl
erreicht als die geformte Variante. Bei Verringerung der Last haben ab einem
individuellen Kreuzungspunkt jedoch die geformten Gewinde eine größere Schwingspielzahl
erreicht.
Abschließend wurde ein voll parametrisches numerisches Einheitszellen-Modell
erstellt, welches sowohl die geformten als auch die geschnittenen Gewinde abbilden
kann. Hierbei wurden auch Degradationsmodelle integriert, die ein verändertes
Werkstoffverhalten nach dem Auftreten insbesondere von Zwischenfaserbrüchen
und Delaminationen abbilden sollen. Validiert wurden die Modelle, indem die quasistatischen
Versuche nachgebildet wurden und die globale Verformung mit den
optischen Messungen aus den Versuchsreihen verglichen wurden. Dabei zeigte sich
eine gute Übereinstimmung bis relativ nah an die Schraube heran. In diesem Bereich
war die Simulation minimal zu steif, was auf eine noch nicht ausreichende Degradation
in der Simulation hindeutet.
In this study a GFRP rotor of an electric engine is developed. The engine shall be
used in electric drive trains in cars. Major aim of the study is to develop a low-cost
version of an existing prototype for serial production with a relatively high output of at
least 50.000 units per annum. Two main aims must be achieved.
First of all, the structural deformation must be limited under operating load. To predict
the deformation, a finite element model was set up. To import the lay-up information
from a filament winding process simulation software into the FE-model, a compilertool
was written. The numerical simulation and an analytical calculation have shown
that the GFRP-laminate alone is not able to limit the radial deformation caused by
centrifugal force under rotation. So a different approach was developed, using an
adaptive control with shape memory alloys. For this, a concept was investigated, how
the shape memory alloy wires can be attached on the GFRP structure. The strengths
of the different concepts were measured experimentally and simultaneously the
force-temperature behavior of the wire was investigated. Out of these empirical
studies, a material model of the shape memory alloys for the numerical simulation
was developed and combined with the existing simulation model of the rotor. The
simulation showed that the shape memory alloys can be used to decrease the radial
deformation below the given limits.
The second main requirement was to develop a proper load transfer from the metallic
output shaft into the GFRP rotor. For serial rotor production with a high output, the
direct forming of threads in the thick-walled GFRP was investigated. The direct
forming of threads reduces the manufacturing costs by avoiding wear of drilling and
cutting tools, although with a slight increase of tooling costs which are less relevant
due to the economies of scale of high output manufacturing processes as the
filament winding process. In this study the mechanical behavior of directly formed
threads was compared to conventionally tapped threads. Two different GFRP
laminate layups were investigated, a cross-ply-laminate and a quasi-isotropic
laminate, both with a thickness of approximately 12 mm, impregnated with epoxy
resin. A standard metrical thread and a more coarse thread were also compared,
both with an outer diameter of 8 mm. Two different tests were investigated: a pullout
test of the screw perpendicular to the laminate and a bearing-pull-through-test in the
laminate plane.
The quasi static test results show differences in fracture behavior, but in general very
good strength and stiffness behavior compared to conventionally cut threads in thickwalled
GFRP. The deformations of the surface of the GFRP laminates during the
tests were measured with a three dimensional digital image correlation system. The
measured deformations were used to validate the numerical simulations of the tests.
These simulations were parametrical built up in order to adapt them easily to other
application cases. They use a degradation mechanism to simulate the connection
behavior very close to the total fraction and show a very good correlation to the
experimental results.
As a second step, the fatigue behavior of the connection was also investigated. To
compare the cyclic performance of the formed and cut threads for both kinds of tests,
for both laminates and both threads - the metric and the coarse ones -, Woehler
diagrams with a load aspect ratio of R=0.1 were measured. Especially the high cycle
fatigue behavior with a relatively low maximum load, as commonly used in a real
structure, improves a lot when forming the threads.
At last a full parametrical numerical model of the laminate with both the formed and the cut thread was generated. Also algorithms for material degradation were integrated.
They can represent the behavior of the material after the appearance of inter
fiber failures or delamination. The validation of the numerical model was achieved by
remodeling the experimental tests and comparing the global deformation of the
model with the optical measurement of the quasi static tests. The deformation of the
simulation was very congruent to the tests, only very close to the screw the simulation
shows a slightly more stiff behavior. This indicates a not sufficient degradation of
the simulation due to damage effects in the material.
Nachhaltige Chemie beinhaltet die Nutzung stofflicher Ressourcen und deren Umwandlung ohne Schaden für zukünftige Generationen. Dabei hat sich insbesondere die Katalyse als nützliche Technologie etabliert, durch die Syntheserouten zu hochwertigen Produkten abgekürzt und dabei die CO2-Bilanz des Gesamtprozesses verbessert wird. Im Rahmen dieser Dissertation wurden nachhaltige, homogen-katalytische Prozesse zur Einbindung nachwachsender Rohstoffe in die chemische Wertschöpfungskette und zur abfallminimierten Synthese von Amiden und Peptiden entwickelt.
Im ersten Teil dieser Arbeit wurde die isomerisierende Metathese als Methode zur Valorisierung nachwachsender Rohstoffe etabliert. Mit einem bimetallischen Katalysatorsystem, bestehend aus dem Isomerisierungskatalysator [Pd(µ-Br)(tBu3P)]2 und NHC-basierten Ruthenium-Metathesekatalysatoren, werden Doppelbindungen ungesättigter Verbindungen kontinuierlich entlang der Kohlenwasserstoffkette verschoben und können gleichzeitig, ungeachtet ihrer Position, eine Metathese durchlaufen. Dies erlaubt die Umwandlung von zwei unterschiedlichen Olefinen in ein Gemisch mit homogener Produktverteilung und einstellbarer mittlerer Kettenlänge. Das synthetische Potential dieser Transformation wurde anhand der Darstellung von Dieselersatzkraftstoffen demonstriert, die vollständig auf erneuerbaren Ressourcen basieren und aufgrund ihres Siedeverhaltens in modernen Motoren in unverdünnter Form eingesetzt werden können. Der neu entwickelte Tandemprozess ermöglicht weiterhin die gezielte Kürzung olefinischer Seitenketten in Gegenwart von Ethen. Die isomerisierende Ethenolyse der natürlich vorkommenden Allylbenzole Eugenol, Allylanisol, Safrol und Methyleugenol wurde zur Synthese wertvoller Styrole mit komplexen Substitutionsmustern eingesetzt. Die isomerisierende Ethenolyse stellt außerdem die Schlüsseltechnologie zur Valorisierung von Cashew-Nussschalenöl dar. Ausgehend von dem bisher ungenutzten Abfallstoff wurde die Synthese der Tsetsefliegen-Lockstoffe 3-Ethyl- und 3-Propylphenol sowie des Polymervorläufers 3,3’-Hydroxystilben demonstriert.
Der zweite Teil dieser Doktorarbeit umfasste die rationale Entwicklung einer abfallminimierten und umweltfreundlichen Methode zur Synthese von Amiden aus Carbonsäuren und Aminen. Dazu wurde ein hocheffektives, luft- und wasserstabiles Ru(IV)-Katalysatorsystem identifiziert, das die Addition von Carbonsäuren an Alkine unter Bildung von Enolestern sowie die weitere Umsetzung dieser Aktivester mit Aminen zu Amiden vermittelt. Ein einstufiges Eintopf-Verfahren zur Synthese von Amiden, bei dem alle Reagenzien zu Beginn der Reaktion zugegeben werden, wurde unter Verwendung von Ethoxyacetylen als Aktivierungsreagenz entwickelt. Hierbei werden die Carbonsäuren in Gegenwart eines Amins intermediär in hochreaktive Ketenacetale überführt, die nach Aminolyse die entsprechenden Amide in sehr guten Ausbeuten liefern. Die Anwendungsbreite dieses milden Reaktionsprotokolls umfasst aliphatische und aromatische Carbonsäuren sowie N- und C terminal geschützten Aminosäuren.
Entwicklung von TDMA-basierten QoS-Routing-Protokollen und Simulationskomponenten für Ad-Hoc-Netze
(2016)
Ad-Hoc-Netze sind selbstorganisierende Netze ohne zentrale Infrastruktur, die heutzutage in vielen Bereichen Verwendung finden. Sie bestehen aus drahtlosen Knoten, die zur Erfüllung ihrer Aufgaben miteinander kommunizieren. Jedoch befinden sich nicht notwendigerweise alle Knoten in Reichweite zueinander. Damit entfernte Knoten einander erreichen können, werden Routingverfahren benötigt. Die Etablierung einer beliebigen Route ist jedoch oft nicht ausreichend, denn viele Anwendungen stellen spezielle Dienstgüteanforderungen (QoS-Anforderungen) an die Verbindung, beispielsweise die Gewährleistung einer Mindestbandbreite. Um diese QoS-Anforderungen erfüllen zu können, werden sie bereits bei der Ermittlung einer Route berücksichtigt, und die benötigten Ressourcen werden entlang der Route reserviert. Dazu dienen QoS-Routing- und Reservierungsprotokolle.
In dieser Arbeit wird zunächst der Aspekt der deterministischen Reservierung von Bandbreite in Form von konkreten Zeitslots einer TDMA-basierten MAC-Schicht betrachtet. Da sich die Übertragungen verschiedener Knoten in drahtlosen Netzen gegenseitig stören können, wurde ein Interferenzmodell entwickelt. Dieses identifiziert Bedingungen, unter denen Zeitslots innerhalb eines Netzes für mehr als eine Übertragung verwendet werden können. Zudem definiert es durch Aggregation der Informationen anderer Knoten Möglichkeiten zur Ermittlung der benötigten Informationen, um zu entscheiden, welche Zeitslots für eine störungsfreie Übertragung verwendet werden können.
Weiterhin werden existierende QoS-Routing- und Reservierungsprotokolle auf inhärente Probleme untersucht, wobei der Schwerpunkt auf Protokollen liegt, die deterministische Reservierungen von Zeitslots vornehmen. In diese Kategorie fällt auch das im Rahmen der Arbeit entwickelte Protokoll RBBQR, dessen Hauptziel darin besteht, die identifizierten Probleme zu eliminieren. Ferner wird das ebenfalls zu dieser Kategorie gehörende Protokoll QMRP beschrieben, welches zentralisiert Multicast-Routen inklusive der zugehörigen Reservierungen in teilstationären Netzen ermittelt.
Ein weiterer Bestandteil der Arbeit behandelt die Entwicklung von Simulationskomponenten, welche beispielsweise zur Evaluation von QoS-Routing- und Reservierungsprotokollen genutzt werden können. Das existierende Simulationsframework FERAL wurde um eine Komponente erweitert, die die Verwendung von Kommunikationstechnologien des Netzwerksimulators ns-3 ermöglicht. Weiterhin wurde ein Modul zur Simulation eines CC2420-Transceivers entwickelt, welches in eigenständigen ns-3-Simulationen und in Simulationen mit FERAL verwendet werden kann.
Im Rahmen dieser Arbeit wurden verschiedene Ansätze zur Bilanzierung von Badgiren
und Luftkollektorkonstruktionen studiert und ein Beitrag zur Bilanzierung, harmonisiert
mit der DIN V 18599, neu entwickelt. Die rechnerische Bilanzierung der
Einzelelemente wurde mit dem Werkzeug der thermisch dynamischen Simulation
entwickelt und überprüft.